AI・機械学習

転移学習

Transfer Learning

既に学習済みのモデルの知識を、新しい問題の解決に活かす機械学習の手法。

転移学習 事前学習済みモデル ドメイン適応 特徴抽出 ファインチューニング
作成日: 2025年12月19日 更新日: 2026年4月2日

転移学習とは?

転移学習は、すでに学習済みのAIモデルの知識を、新しい問題を解くのに活かす手法です。 人間が「以前の仕事で学んだスキルを、新しい仕事で活かす」というのと同じです。AIモデルをゼロから訓練するのには、膨大なデータと時間がかかります。でも「すでに物体を認識するAIモデル」があれば、そこから出発して「医療画像を見分けるAI」に改造するのは、はるかに速いし簡単です。

ひとことで言うと: 「前の学習で得た知識を、別の新しい問題で再利用する」というやり方です。

ポイントまとめ:

  • 何をするものか: 既存のモデルを活用して、別の問題を解く
  • なぜ必要か: ゼロから訓練すると時間がかかるから
  • 誰が使うか: データサイエンティスト、AIエンジニア、研究者

なぜ重要か

最先端のAIモデルを訓練するのには、膨大なコストがかかります。GoogleMetaOpenAIといった大企業は、何百億円ものお金と何年もの時間をかけて大型モデルを訓練しています。普通の企業や研究者がそんなことできません。ここで転移学習が活躍します。すでに訓練済みのモデルを手に入れて、自分たちの問題に合わせて「調整」するだけです。

すると、データが少なくても、時間がなくても、大企業のAIの力を活用できます。医学部の小さな研究室が、数千枚の医療画像で専門的な診断AIを作ったり、農業のベンチャー企業が衛星画像から病気の兆候を察知するAIを作ったり、というようなことが可能になります。

仕組みをわかりやすく解説

転移学習は、大まかに2つのステップで動きます。最初が「特徴抽出」で、すでに訓練済みのモデルの層を固定し、最後の判定層だけを自分のデータで訓練し直します。たとえば、ImageNetという100万枚の画像で訓練された物体認識モデルがあったとします。その中身の「犬を見分ける層」「猫を見分ける層」は固定しておいて、最後に「がんか健康か」という医療画像の判定層だけを新しく訓練します。

もう1つが「ファインチューニング」で、最後の層だけでなく、モデル全体を少しずつ調整します。前の訓練から得た知識を保持しながら、自分のデータに合わせて微調整します。学習率を小さく設定するのがコツです。そうしないと、時間をかけて学んだ貴重な知識が失われてしまいます。

具体例で説明します。あるベンチャー企業が「顧客の顔を見て、その人が商品に興味を持っているか推測するAI」を作りたいとします。そこで、YouTubeの動画に映る何百万人の顔から感情を読み取るモデルを出発点にします。このモデルは「笑顔」「驚き」「怒り」といった顔の筋肉の動きを見分ける能力をすでに持っています。それを使って、自分たちの商品を見たときの「興味表情」を認識するように微調整します。結果、自社で5000枚の画像を用意するだけで、精度の高い興味認識AIが完成します。

実際の活用シーン

医療診断AI 皮膚がんの診断AIを開発する医療スタートアップが、皮膚科医が撮った数千枚の画像だけで高精度なAIを作ることができました。一般的な物体認識モデルから出発して、皮膚の特徴を見分けるように調整したからです。ゼロから訓練していたら、何万枚の画像と専門チームが必要でした。

自動運転 自動運転車の開発企業は、大量の街中の監視カメラ映像で訓練された「人や車を認識するモデル」を活用して、走行中に見える物体を判定します。自社のセンサーのデータに合わせて微調整するだけで、膨大なデータ収集をスキップできました。

自然言語処理 日本語の文書分類を行いたい企業が、英語の大規模テキストで訓練されたBERTというモデルを使い、日本語データで微調整しました。言語は違っても、「単語の関係性を理解する」という基本的な能力は共通していたため、少量のデータで高精度な日本語分類AIが実現しました。

メリットと注意点

転移学習の最大のメリットは、速さと効率です。ゼロから訓練したら数ヶ月かかる作業が、数日で終わります。また、データが少なくても精度を出せます。通常、AIは何万枚もの画像が必要ですが、転移学習なら数千枚で十分なことが多いです。その分、個人情報の保護やプライバシーのリスクも下がります。

ただ注意点もあります。使う出発点のモデルと、自分の問題が似ていないと、転移学習の効果が薄れます。逆に悪くなることもあります。例えば、一般的な物体認識モデルから出発して、「顕微鏡の細菌を認識するAI」を作ろうとしたら、まったく別の特徴を見ているため、調整しても精度が出ないかもしれません。また、出発点のモデルが持つバイアスが、新しいモデルにも引き継がれることがあります。「ある特定の人口集団に対して精度が低い」という問題が、そのまま新しいモデルに受け継がれてしまう、ということです。

関連用語

  • トレーニングパイプライン — モデルを訓練する全プロセスを自動化したもの。転移学習も、このパイプラインの一部として使われます。
  • トレーニングリソース — 学習に必要なツールや教材。転移学習の出発点となるモデルもリソースです。
  • 大規模言語モデル(LLM)ChatGPTなどの大型モデル。これら自体が、転移学習で様々なタスクに応用されています。
  • ファインチューニング — 転移学習の実際のやり方。既存モデルをカスタマイズする技術。
  • Transformer — 最新のAIモデルのアーキテクチャ。多くの転移学習は、このTransformerモデルを使っています。

よくある質問

Q: どのモデルを出発点に選べばいい? A: 自分の問題が、出発点のモデルの問題と似ているほど、転移学習の効果が高いです。顔認識タスクなら、顔認識で訓練されたモデルから始めます。医療画像分類なら、医療画像で訓練されたモデル、またはその次点として一般的な画像分類モデルを選びます。

Q: 出発点のモデルのサイズはどのくらいがいい? A: 大きなモデルほど、より多くのタスクに応用できますが、調整に時間がかかります。小さなモデルは速いですが、柔軟性が落ちます。一般的には「中くらいの大きさ」が、速度と精度のバランスが取れています。

Q: ファインチューニングの学習率はどう設定すれば? A: 一般的には、ゼロから訓練するときより100倍以上小さい学習率を使います。最初のモデルが時間をかけて学んだ知識を失わないようにするため、小さい歩幅で少しずつ調整します。

関連用語

ゼロショット学習

ゼロショット学習の包括的ガイド:セマンティック埋め込みを通じて、訓練例なしで未知のカテゴリを分類できるAIモデルの実現方法を解説します。...

×
お問い合わせ Contact