コンテキストウィンドウ
Context Window
AI が一度に処理できるテキストの最大量。これが大きいほど長い文書や会話に対応できます。
コンテキストウィンドウとは?
コンテキストウィンドウは、AI(特に 大規模言語モデル)が一度に処理・参照できるテキストの最大量です。 「記憶容量」のようなもので、これを超えると古い情報は見えなくなります。例えば ChatGPT の Opus は「20 万トークン」というウィンドウを持ち、これは日本語で約 6 万文字程度に相当します。
ひとことで言うと: スマートフォンのメモリ容量のように、AI も「一度にこれだけの情報を持てます」という上限があります。
ポイントまとめ:
- 何をするものか: AI が会話や文書処理中に参照できるテキスト量の上限を示す指標
- なぜ必要か: 上限を超えると古い情報が失われ、矛盾や誤りが増えるから
- 誰が使うか: AI 企業、開発者、長い文書分析が必要なビジネス
なぜ重要か
ウィンドウが小さいと、長い契約書全文を一度に読ませることができません。100 ページのレポートも分割して処理しなければならず、効率が低下します。逆にウィンドウが大きいと、長時間の会話履歴をすべて参照でき、矛盾なく一貫した応答ができます。また、複数の文書を同時に参照して「この契約書とあの報告書の矛盾点を指摘して」といった複雑なタスクも可能になります。
仕組みをわかりやすく解説
AI のテキスト処理は「トークン」という単位で行われます。英語では約 4 文字で 1 トークン、日本語では 1 文字で約 1-1.3 トークンになります。コンテキストウィンドウが「20 万トークン」なら、その範囲内のすべての情報を AI は「同時に見る」ことができます。超えると、古い部分は処理から除外されてしまいます。
実際には、システムプロンプト(AI の指示)、会話履歴、ユーザーの新しい質問、応答を生成するためのスペースがすべてウィンドウ内に収まる必要があります。つまり「有効なコンテキスト」はウィンドウサイズより小さいわけです。
実際の活用シーン
長編小説の翻訳 — 50 万字の大作を AI に翻訳させるとき、ウィンドウが小さいと章ごとに分割が必要。大きなウィンドウなら、全体の文脈(キャラの性格、用語の統一)を保ったまま翻訳できます。
複数ドキュメント分析 — 契約書 5 つを同時に「この 5 つで矛盾している条項は?」と AI に聞くとき、ウィンドウが大きいほど正確になります。
長い会話 — 30 ターン続く複雑なプロジェクト打ち合わせで、最初の決定事項を忘れず最後まで一貫性を保つには、大きなウィンドウが必須です。
メリットと注意点
メリット: 長い文書を一度に処理、複数資料の同時参照、会話の一貫性維持、複雑なタスク対応。
注意点: ウィンドウが大きいほど処理時間と API コストが増加します。また「大きい=高精度」ではなく、不要な情報が混在するとむしろ性能が低下することもあります(「迷ったら長い文脈に頼る」傾向)。さらに、ウィンドウ上限近くまで情報を詰め込むと応答が遅くなります。
関連用語
- LLM — ウィンドウ制限を持つ AI モデル本体
- Token — AI のテキスト処理単位
- Attention-Mechanism — ウィンドウ内で重要な情報に「注目」する仕組み
- Hallucination — ウィンドウ不足時に起きる AI の「幻覚」
- RAG — ウィンドウ制限を補う技術
よくある質問
Q: Claude と GPT のウィンドウサイズを比較すると? A: Claude 3.5 Sonnet は 20 万トークン、GPT-4 は 12.8 万トークンです。Claude の方が長い文書処理に向いています。ただし、実際の使用感は「正確さ」にも依存します。
Q: ウィンドウを超えたら何が起きますか? A: AI は古い情報を「忘れ」、新しい部分だけで応答します。長い会話では「さっき言ったことに矛盾した返答」が返ってくることがあります。
Q: ウィンドウ制限を回避する方法は? A: RAG(検索拡張生成)という技術を使い、外部データベースから必要な情報を動的に引き出す方法があります。これなら理論上「無制限」に大規模コンテンツ対応が可能です。