GitHub - oreilly-japan/deep-learning-from-scratch: 『ゼロから作る Deep Learning』(O'Reilly Japan, 2016)
「ゼロから作るDeep Learning ① (Pythonで学ぶディープラーニングの理論と実装)」p.60
の写経です。
ただし、A、X、W、Bは以下の通り
、
、
活性化関数
活性化関数( )には、様々ありますが、
sigmoid関数とReLU関数の式とグラフは、以下の通り
sigmoid関数
ReLU関数 (ランプ関数)
ソフトマックス関数
再度に、出力層に使用する softmac関数である
は、以下の通り
ソフトマックス関数の特徴
出力値である 各は、0~1をとり、
その合計が、1となることから、確率に利用できます。
基本形
オーバーフロー対応型
基本形では、桁あふれの問題があるようですのが、
これを対策すると、以下のようになります。
は任意定数ですが、一般的には最大値を指定するようです。