【G検定】ソフトマックス関数
2023年8月9日
ソフトマックス関数 ソフトマックス関数は、ニューラルネットワークの最終層で特に役立つ活性化関数です。この関数の主な目的は、複数のクラスに対する予測の「確率」を出力することにあります。具体的には、ソフトマックス関数は入力さ […]
【G検定】LeakyReLU関数
2023年8月8日
LeakyReLU関数 Leaky ReLU関数は以下のように定義されます。ここで、xは入力値、aは小さな正の定数(通常は0.01)です。 この式の意味するところは、もしxが負であれば、その値にaを掛けた値を出力し、もし […]
【G検定】ReLU関数(Rectified Linear Unit)
2023年8月7日
ReLU関数(Rectified Linear Unit) これは、入力値が0以上の場合はそのままの値を出力し、0以下の場合は0を出力するという単純な関数です。ReLU関数のこの特性が、ニューラルネットワークの訓練を助 […]
【G検定】tanh関数
2023年8月6日
tanh関数 tanh関数は、ニューラルネットワークにおける活性化関数の一種であり、シグモイド関数と比較していくつかの利点があります。まず、tanh関数の出力範囲は-1から1です。これはシグモイド関数の0から1の範囲と異 […]
【G検定】シグモイド関数
2023年8月5日
シグモイド関数 シグモイド関数は、ニューラルネットワークの活性化関数として広く使用されている関数です。この関数は、入力された値を0から1の間の値に変換し、その形状はS字型の曲線を描きます。シグモイド関数は、その滑らかな曲 […]