G検定
【G検定】ソフトマックス関数

ソフトマックス関数 ソフトマックス関数は、ニューラルネットワークの最終層で特に役立つ活性化関数です。この関数の主な目的は、複数のクラスに対する予測の「確率」を出力することにあります。具体的には、ソフトマックス関数は入力さ […]

続きを読む
G検定
【G検定】LeakyReLU関数

LeakyReLU関数 Leaky ReLU関数は以下のように定義されます。ここで、xは入力値、aは小さな正の定数(通常は0.01)です。 この式の意味するところは、もしxが負であれば、その値にaを掛けた値を出力し、もし […]

続きを読む
G検定
【G検定】ReLU関数(Rectified Linear Unit) 

ReLU関数(Rectified Linear Unit)  これは、入力値が0以上の場合はそのままの値を出力し、0以下の場合は0を出力するという単純な関数です。ReLU関数のこの特性が、ニューラルネットワークの訓練を助 […]

続きを読む
G検定
【G検定】tanh関数

tanh関数 tanh関数は、ニューラルネットワークにおける活性化関数の一種であり、シグモイド関数と比較していくつかの利点があります。まず、tanh関数の出力範囲は-1から1です。これはシグモイド関数の0から1の範囲と異 […]

続きを読む
G検定
【G検定】シグモイド関数

シグモイド関数 シグモイド関数は、ニューラルネットワークの活性化関数として広く使用されている関数です。この関数は、入力された値を0から1の間の値に変換し、その形状はS字型の曲線を描きます。シグモイド関数は、その滑らかな曲 […]

続きを読む