【G検定2023まとめ最新版】要点整理&当日用カンペ
2023年11月3日
G検定の要点をシラバスから抜粋してまとめました。これから学習する方も、復習したい方にもお使いいただけます。試験当日用のG検定のカンニングペーパー参考としてもお役立てください。試験結果を保証するものではありませんので、試験 […]
【G検定】ソフトマックス関数
2023年8月9日
ソフトマックス関数 ソフトマックス関数は、ニューラルネットワークの最終層で特に役立つ活性化関数です。この関数の主な目的は、複数のクラスに対する予測の「確率」を出力することにあります。具体的には、ソフトマックス関数は入力さ […]
【G検定】LeakyReLU関数
2023年8月8日
LeakyReLU関数 Leaky ReLU関数は以下のように定義されます。ここで、xは入力値、aは小さな正の定数(通常は0.01)です。 この式の意味するところは、もしxが負であれば、その値にaを掛けた値を出力し、もし […]
【G検定】ReLU関数(Rectified Linear Unit)
2023年8月7日
ReLU関数(Rectified Linear Unit) これは、入力値が0以上の場合はそのままの値を出力し、0以下の場合は0を出力するという単純な関数です。ReLU関数のこの特性が、ニューラルネットワークの訓練を助 […]
【G検定】tanh関数
2023年8月6日
tanh関数 tanh関数は、ニューラルネットワークにおける活性化関数の一種であり、シグモイド関数と比較していくつかの利点があります。まず、tanh関数の出力範囲は-1から1です。これはシグモイド関数の0から1の範囲と異 […]