ディープラーニング
活性化関数
読み方:かっせいかかんすう
活性化関数とは
活性化関数(Activation Function)は、ニューラルネットワーク の各ニューロンの出力に適用される非線形な関数です。これがないとどれだけ層を重ねても単純な線形変換にしかならず、複雑なパターンを学習することができません。
代表的な種類
ReLU(入力が正ならそのまま、負なら0を出力)が最も広く使われ、学習の高速化に貢献します。出力を0〜1に変換するSigmoid、-1〜1に変換するTanh、Softmax(分類 の出力層で確率分布を生成)なども用途に応じて使い分けられます。適切な活性化関数の選択は ディープラーニング の学習速度と精度に直結します。
AI開発における役割
企業が独自のAIモデルを構築する際、どの活性化関数を用いるかによって、AIの「学習速度(計算コスト)」や「複雑な事象を捉える精度」が大きく変わります。ビジネスの実用化フェーズにおいて、不要に重い処理を避け、少ないコンピューティングリソースで精度の高い推論システムを構築するための、根幹技術の一つとして機能しています。