{"prompt":"Cloudflare Workers AIとはなんですか？ 日本語でわかりやすく教えて","result":{"id":"resp_1fd4a6d2654740819a5b34c748276243","created_at":1777744146,"incomplete_details":null,"instructions":null,"metadata":null,"model":"@cf/openai/gpt-oss-20b","object":"response","output":[{"id":"rs_4b82a8cd73b8453d8331c468bae64f4b","summary":[],"type":"reasoning","content":[{"text":"Explain Cloudflare Workers + AI, Cloudflare Workers AI is integration of LLM models via Cloudflare; edge computing. Provide what it does, usage, pricing.","type":"reasoning_text"}],"encrypted_content":null,"status":null},{"id":"msg_28f004571acf4cd4b279a414d8aaa125","content":[{"annotations":[],"text":"## Cloudflare Workers AI とは？  \n### 1. ざっくり言うと…\n\n- **「Cloudflare Workers + 大規模言語モデル(LLM)」をひとつのサービスにしたもの。**  \n- **コードを書かずに、JavaScript (または TypeScript) だけで AI を呼び出せる**  \n- **Cloudflare のエッジネットワーク（世界中の約150ヶ所のサーバー）上で実行** → 低レイテンシ、豊富なキャッシュ機能、セキュリティ機能がそのまま付きます。\n\n### 2. 何ができるの？\n\n| 使い方 | 具体例 |\n|--------|--------|\n| **テキスト生成** | 文章やブログの下書きを生成<br>チャットボットの返信を自動で作る |\n| **要約** | 長文のレポートや記事を数行に短縮 |\n| **内容解析** | 情報抽出、感情分析、タグ付け |\n| **生成型検索** | 質問に対して「答え＋ロジック」を返す |\n| **エッジでのデバッグ** | ユーザーの入力に応じて即時AIレスポンス（ミリ秒単位） |\n| **統合** | 既存の REST API、WebSocket などと組み合わせてリアルタイム処理 |\n\n### 3. どうやって使うの？\n\n1. **Cloudflare アカウントを作成**  \n2. **Workers ダッシュボードで「AI」を選択**  \n3. **JavaScript／TypeScript で `fetch` したり、`makeRequest` と呼ばれるビルトイン関数を使ってAIリクエスト**  \n   ```js\n   addEventListener('fetch', event => {\n     const prompt = '今日の天気は？'\n\n     event.respondWith(\n       fetch('https://api.cloudflareai.com/v1/text', {\n         method: 'POST',\n         headers: { 'Content-Type': 'application/json' },\n         body: JSON.stringify({\n           model: 'gpt-4o-mini',\n           input: { prompt }\n         })\n       })\n       .then(res => res.json())\n       .then(d => Response.json(d))\n     )\n   })\n   ```\n4. **デプロイ** → エッジで即実行、ファーストリクエストは約数ミリ秒以内にレスポンス\n\n> **ポイント**  \n> - `resetMemory` を使えばチャット履歴をクリア、`setMemory` で会話状態を保存。  \n> - `makeRequest` は AI モデルを選択、パラメータ変更、カスタムフロー構築まで可能。\n\n### 4. 料金は？\n\n| サービス | 無料枠 | 有料プラン |\n|--------|--------|----------|\n| **Workers 間接利用** | 10 万リクエスト/月（約 30,000 $） | 高速/大容量・専用動向 |\n| **AI 追加** | 30 000 API 呼び出し/月（約 4,500 $） | 従量課金：1 か月あたりのトークン数で計算 |\n\n- **「文字数 × モデル料金」で計算**  \n- **月間費用は入力・応答トークン数に直結**  \n- **無料枠があるので、プロトタイプから始められます**\n\n> 💡：エッジによる低レイテンシが 1 リクエストあたり数十$ かかる場合でも、全体的に従量課金で把握しやすいです。\n\n### 5. Cloudflare Workers AI の強み\n\n| 特徴 | なぜ便利か |\n|------|------------|\n| **エッジ実行** | ユーザーに近い場所で処理 → レイテンシ低 |\n| **スケーラビリティ** | Cloudflare の CDN で自動スケール |\n| **統合済みセキュリティ** | DDoS 防御、TLS、ワークフロー保護付き |\n| **サーバーレス** | サーバー管理不要、リソース制限なし |\n| **オールインワン** | Cloudflare Workers + AI が一体化しているため、SDK 低レベルで呼び出せる |\n\n### 6. 使う前に確認したいこと\n\n| チェック項目 | 具体的な確認例 |\n|--------------|----------------|\n| **モデル選択** | `gpt-4o-mini` か `gpt-4o` か？ 価格・性能に合わせて選ぶ |\n| **トークン数** | レスポンス長に注意。長文は料金増加、タイムアウトリスク |\n| **エラーハンドリング** | API のリトライや `429` エラーに対するバックオフ |\n| **ロギング** | エッジ上でのログを監視 (`console.log` で Workers KV など) |\n| **データの機密性** | 送るテキストは暗号化済み（TLS）。データ保持ポリシーを確認 |\n\n---\n\n## まとめ\n\n- **Cloudflare Workers AI** は、*「サーバーレスでエッジ上、低レイテンシのまま大規模言語モデルを呼び出せる」*という新しい組み合わせです。  \n- **JavaScript/TypeScript で書くだけ**で、チャットボット、検索、要約などをワンステップで実装。  \n- 料金は従量制で、無料枠もあるので初期投資はほぼゼロ。  \n- **エッジ実行とセキュリティ** が組み合わさるため、グローバル配信のパフォーマンスと安全性を同時に確保できます。  \n\n是非プロジェクトのプロトタイピングや本番導入を検討してみてください。何か特定のユースケースや設定で不明点があれば、遠慮なく聞いてくださいね！","type":"output_text","logprobs":null}],"role":"assistant","status":"completed","type":"message"}],"input_messages":null,"output_messages":null,"parallel_tool_calls":true,"temperature":1,"tool_choice":"auto","tools":[],"top_p":1,"background":false,"max_output_tokens":130987,"max_tool_calls":null,"previous_response_id":null,"prompt":null,"reasoning":{"effort":"low","generate_summary":null,"summary":"auto"},"service_tier":"auto","status":"completed","text":null,"top_logprobs":null,"truncation":"disabled","usage":{"input_tokens":85,"output_tokens":1448,"total_tokens":1533},"user":null}}