Google Gemini API (最強のフリーランチ)
Gemini シリーズを促進するために、Google は現在市場で最も寛大な無料割り当てを提供しています。
モデルと価格については、https://ai.google.dev/gemini-api/docs/pricing?hl=zh-cn を参照してください。
モデル: Gemini 3 Flash プレビュー、Gemini 2.5 Pro。 2026-02-12対応モデルです。一般に、無料ではない最新の Pro モデルを除き、他のモデルには無料の割り当てがあります。
クォータ: モデルによって制限は異なります。詳細については、上記のリンクを参照してください。
利点: 無料の低レベル モデルのみを備えた他の Web サイトとは異なり、Google のトップ モデルには無料の割り当て、巨大なコンテキスト ウィンドウ (100 万以上のトークン)、およびマルチモダリティ (写真/ビデオのアップロード) の完全なサポートもあります。
欠点:
データ プライバシー: 無料利用枠からの入力データは、モデルを改善するために Google によって使用される場合があります (運用環境では注意して使用してください)。
IP 制限: 非常に厳格です。サポートされているリージョンで IP ノードを使用する必要があります。使用しないと、エラー 403 またはユーザーの場所がサポートされていないことが報告されます。
Groq (キング・オブ・スピード)
Groq は自社開発の LPU (Language Processing Unit) チップを利用して、驚くほど速い推論速度を提供します。
モデルと価格については、https://groq.com/pricing を参照してください。
モデル: GPT OSS / キミ K2 / ラマ 3,4 / Qwen3
割り当て: 無料ではありませんが、価格は低くなります
利点: 非常に高速で、最初の単語の遅延 (TTFT) は通常 200 ミリ秒以内で、リアルタイムの会話や音声アシスタントに非常に適しています。
欠点:
モデルの制限: オープンソース モデルのみがサポートされ、GPT-4 や Claude はサポートされません。
SiliconCloud(国産光・シリコン系モバイル)
中国の新興推論加速プラットフォームには、多数の優れた国内オープンソース モデルが集まっています。
モデルと価格については、https://siliconflow.cn/pricing を参照してください。
モデル: Qwen 2.5 (7B/14B/72B)、DeepSeek-V2、Yi-1.5、Kimi K2。
割り当て: 現在、一部のモデル (Qwen 7B、GLM-4-9B など) に対して永久無料通話が提供されています。
アドバンテージ:
国内直結:高速で特別なネットワーク環境は不要。
新しいモデル: 国内のオープンソース モデルは非常に迅速に更新されます。
短所: 無料は中小規模のパラメータ モデルに限定されており、上位モデル (72B/DeepSeek 236B など) は通常支払いが必要です。