AI・機械学習

文脈内学習

In-Context Learning

大規模言語モデルが、プロンプト内に提供されたサンプル例から学習し、新しいタスクを実行する技術。追加学習なしで対応できます。

文脈内学習 In-Context Learning プロンプトエンジニアリング 大規模言語モデル LLM
作成日: 2025年12月19日 更新日: 2026年4月2日

文脈内学習とは?

文脈内学習(In-Context Learning)は、大規模言語モデルLLM)がプロンプト内に提供されたサンプル例から学習し、新しいタスクを実行する能力です。 追加の学習やファインチューニングなしに、例示だけで新しい形式や指示に対応できます。例えば、「翻訳の例を3つ示したら、その形式で日本語を英語に翻訳する」といった使い方ができます。

ひとことで言うと: 「先生が黒板に『英語の翻訳の例』を書いて見せたら、生徒が同じ形式で新しい文章を訳せるようになる」みたいなものです。

ポイントまとめ:

  • 何をするものか: プロンプトに例示を含めることで、LLMが「このタスクはこうやるんだ」と理解し、新しい質問に対応します。
  • なぜ必要か: 目的ごとに新しいモデルを学習させる必要がなく、プロンプトの工夫だけで対応できるため、時間とコストを削減できます。
  • 誰が使うか: LLMを活用する開発者、プロンプトエンジニア、企業のAI導入担当者です。

なぜ重要か

従来は、新しいタスク(例:カテゴリ分類、文章要約のスタイル変更など)に対応させるために、モデルを再度学習させる必要がありました。これには膨大な時間とデータが必要です。文脈内学習なら、プロンプトにサンプルを含めるだけで対応でき、学習を待つ必要がありません。また、異なるタスクを同じモデルで実行できるため、複数のモデル管理が不要です。結果として、LLMの活用コストが大幅に下がり、導入企業が急増している理由の1つです。

仕組みをわかりやすく解説

文脈内学習は通常、3つのステップで機能します。プロンプト設計では、タスクの説明と、複数のサンプル(入力と出力のペア)を用意します。例えば、「感情分析タスク」なら、「ポジティブなレビューの例2つ、ネガティブなレビューの例2つ」を含めます。プロンプト送信では、設計したプロンプト+新しい入力をLLMに送ります。応答生成では、LLMがサンプルから学習したパターンを適用して、新しい入力に対して適切な出力を生成します。このプロセスの効果は、サンプル数や質に大きく依存します。通常、2~5個の適切なサンプルで効果が見込めます。

実際の活用シーン

顧客レビューの自動分類 オンラインストアが、顧客レビューをポジティブ/ネガティブに分類したい場合。各カテゴリの例を3つずつプロンプトに含めるだけで、LLMが自動分類します。新しい学習は不要。

企業向けドキュメント翻訳 異なる業界別の用語辞書を必要とする翻訳。業界ごとの翻訳例をプロンプトに含めることで、同じモデルで複数業界の翻訳に対応。カスタムモデル学習のコストを削減。

カスタマーサポートの問い合わせ分類 顧客の問い合わせを「請求関連」「技術サポート」「返品」などに自動分類。各カテゴリの典型的な質問例を示すことで、新しい問い合わせを自動分類。

メリットと注意点

メリットとしては、新しいタスクに低コストで迅速に対応でき、複数のカスタムモデルが不要になります。プロンプトを変更するだけで、異なるタスクに対応できる柔軟性も大きな利点です。

注意点として、複雑で専門的なタスクには対応しづらく、ファインチューニングの方が効果的な場合もあります。また、プロンプトの品質がタスク成功に大きく影響するため、サンプル選択が重要です。さらに、言語モデルのサイズが小さいほど、効果が薄れることもあります。

関連用語

  • プロンプトエンジニアリング – 文脈内学習を効果的に使うための技術です。
  • LLM – 文脈内学習は大規模言語モデルの能力です。
  • ファインチューニング – より高度なタスクには、ファインチューニングと組み合わせることもあります。
  • Few-Shot Learning – 文脈内学習と同様の概念です。
  • RAG – 外部知識を活用する際、文脈内学習と組み合わせられます。

よくある質問

Q: 何個のサンプルがあれば十分ですか? A: 通常、2~5個で効果が見込めます。タスクの複雑さや言語モデルのサイズによりますが、10個以上は逆に効果が落ちることもあります。

Q: どのようなサンプルが最も効果的ですか? A: 実際のデータに近く、タスクの多様なパターンをカバーするサンプルが効果的です。例えば、文章分類なら、長い文章、短い文章、曖昧な表現を含む文章などの例を混ぜます。

Q: 文脈内学習で対応できないタスクはありますか? A: 複雑な数学問題、深い推論を必要とするタスク、新しい言語での翻訳など、高い専門知識が必要なタスクには対応しづらい傾向があります。

関連用語

ゼロショット思考連鎖

ゼロショット思考連鎖(CoT)は、LLMのためのプロンプトエンジニアリング技術。例を示さずにモデルに段階的な推論を指示することで、複雑な問題解決能力を向上させます。...

プロンプト

プロンプトはAIシステムへの指示文です。プロンプト品質がAIの出力品質を決定します。効果的なプロンプトの書き方、エンジニアリング、ベストプラクティスを学びます。...

出力パース

AI言語モデルの非構造化テキスト出力を、JSONやPythonオブジェクトなどの構造化フォーマットに自動的に変換する技術。...

×
お問い合わせ Contact