G検定
【G検定2023まとめ最新版】要点整理&当日用カンペ

G検定の要点をシラバスから抜粋してまとめました。これから学習する方も、復習したい方にもお使いいただけます。試験当日用のG検定のカンニングペーパー参考としてもお役立てください。試験結果を保証するものではありませんので、試験 […]

続きを読む
G検定
【G検定】ソフトマックス関数

ソフトマックス関数 ソフトマックス関数は、ニューラルネットワークの最終層で特に役立つ活性化関数です。この関数の主な目的は、複数のクラスに対する予測の「確率」を出力することにあります。具体的には、ソフトマックス関数は入力さ […]

続きを読む
G検定
【G検定】LeakyReLU関数

LeakyReLU関数 Leaky ReLU関数は以下のように定義されます。ここで、xは入力値、aは小さな正の定数(通常は0.01)です。 この式の意味するところは、もしxが負であれば、その値にaを掛けた値を出力し、もし […]

続きを読む
G検定
【G検定】ReLU関数(Rectified Linear Unit) 

ReLU関数(Rectified Linear Unit)  これは、入力値が0以上の場合はそのままの値を出力し、0以下の場合は0を出力するという単純な関数です。ReLU関数のこの特性が、ニューラルネットワークの訓練を助 […]

続きを読む
G検定
【G検定】tanh関数

tanh関数 tanh関数は、ニューラルネットワークにおける活性化関数の一種であり、シグモイド関数と比較していくつかの利点があります。まず、tanh関数の出力範囲は-1から1です。これはシグモイド関数の0から1の範囲と異 […]

続きを読む