ディープラーニング

活性化関数

読み方:かっせいかかんすう

活性化関数とは

活性化関数(Activation Function)は、ニューラルネットワーク の各ニューロンの出力に適用される非線形な関数です。これがないとどれだけ層を重ねても単純な線形変換にしかならず、複雑なパターンを学習することができません。

代表的な種類

ReLU(入力が正ならそのまま、負なら0を出力)が最も広く使われ、学習の高速化に貢献します。出力を0〜1に変換するSigmoid、-1〜1に変換するTanh、Softmax(分類 の出力層で確率分布を生成)なども用途に応じて使い分けられます。適切な活性化関数の選択は ディープラーニング の学習速度と精度に直結します。

AI開発における役割

企業が独自のAIモデルを構築する際、どの活性化関数を用いるかによって、AIの「学習速度(計算コスト)」や「複雑な事象を捉える精度」が大きく変わります。ビジネスの実用化フェーズにおいて、不要に重い処理を避け、少ないコンピューティングリソースで精度の高い推論システムを構築するための、根幹技術の一つとして機能しています。

NEXT ACTION

あなたのAI活用スキルはLv.何?

「THE AI RANK いわて」は、実践的なAI活用レベルを無料で診断できる公式ツールです。
10問の質問に答えるだけで、あなたのスキルランクと公式認定証を発行します。

無料で自分のAIランクを診断する [法人のお客様] AI導入・研修を相談する