ディープラーニング
BERT
読み方:ばーと
BERTとは
BERT(Bidirectional Encoder Representations from Transformers)は、2018年にGoogleが発表した 自然言語処理 モデルです。従来のモデルが文を左から右へ順に読んでいたのに対し、BERTはTransformerの技術を使い、文章内のすべての単語の前後関係を同時に読み取る双方向エンコーダです。
何を変えたのか
Google検索の精度向上に採用されたことで一躍有名になりました。文章の「理解」に特化しており、感情分析、質問応答、文書分類などに優れた性能を発揮します。GPT が文章を「生成」するのが得意であるのに対し、BERTは文章の意味やニュアンスを「解析」する能力に強みを持ちます。事前学習 + ファインチューニング のパラダイムを広めた先駆的モデルです。
社内文書検索(Agentic RAG)の裏側を支える基盤
生成型AI(ChatGPTなど)がもてはやされる一方で、企業において「過去の膨大な社内資料から、本当に必要なページ群を意味のニュアンスを含めて一発で探し出す仕組み」には、文章の解析に強みを持つBERTの技術系統(エンベディングモデル等)が欠かせません。「滑らかな返答」を生むGPTと、「正確で漏れのない検索」を可能にするBERT系技術の組み合わせこそが、企業向けAI活用における最大の武器(RAGシステム)となっています。