ディープラーニング

BERT

読み方:ばーと

BERTとは

BERT(Bidirectional Encoder Representations from Transformers)は、2018年にGoogleが発表した 自然言語処理 モデルです。従来のモデルが文を左から右へ順に読んでいたのに対し、BERTはTransformerの技術を使い、文章内のすべての単語の前後関係を同時に読み取る双方向エンコーダです。

何を変えたのか

Google検索の精度向上に採用されたことで一躍有名になりました。文章の「理解」に特化しており、感情分析、質問応答、文書分類などに優れた性能を発揮します。GPT が文章を「生成」するのが得意であるのに対し、BERTは文章の意味やニュアンスを「解析」する能力に強みを持ちます。事前学習 + ファインチューニング のパラダイムを広めた先駆的モデルです。

社内文書検索(Agentic RAG)の裏側を支える基盤

生成型AI(ChatGPTなど)がもてはやされる一方で、企業において「過去の膨大な社内資料から、本当に必要なページ群を意味のニュアンスを含めて一発で探し出す仕組み」には、文章の解析に強みを持つBERTの技術系統(エンベディングモデル等)が欠かせません。「滑らかな返答」を生むGPTと、「正確で漏れのない検索」を可能にするBERT系技術の組み合わせこそが、企業向けAI活用における最大の武器(RAGシステム)となっています。

NEXT ACTION

あなたのAI活用スキルはLv.何?

「THE AI RANK いわて」は、実践的なAI活用レベルを無料で診断できる公式ツールです。
10問の質問に答えるだけで、あなたのスキルランクと公式認定証を発行します。

無料で自分のAIランクを診断する [法人のお客様] AI導入・研修を相談する