G検定
【G検定】ReLU関数(Rectified Linear Unit) 

ReLU関数(Rectified Linear Unit)  これは、入力値が0以上の場合はそのままの値を出力し、0以下の場合は0を出力するという単純な関数です。ReLU関数のこの特性が、ニューラルネットワークの訓練を助 […]

続きを読む
G検定
【G検定】tanh関数

tanh関数 tanh関数は、ニューラルネットワークにおける活性化関数の一種であり、シグモイド関数と比較していくつかの利点があります。まず、tanh関数の出力範囲は-1から1です。これはシグモイド関数の0から1の範囲と異 […]

続きを読む
G検定
【G検定】シグモイド関数

シグモイド関数 シグモイド関数は、ニューラルネットワークの活性化関数として広く使用されている関数です。この関数は、入力された値を0から1の間の値に変換し、その形状はS字型の曲線を描きます。シグモイド関数は、その滑らかな曲 […]

続きを読む
G検定
【G検定】人工知能のおおまかな分類

人工知能のおおまかな分類 人工知能は大きく分けて、以下のように4つのレベルに分類されます。 レベル1 シンプルな制御プログラム 全ての振る舞いがあらかじめ決められている。ルールベースで動く レベル2 古典的な人工知能 探 […]

続きを読む
G検定
【G検定】活性化関数 

活性化関数 活性化関数は、入力信号の総和を出力信号に変換し、どのようにニューロンが活性化するかを決定します。活性化関数には、主に線形関数と非線形関数の二種類があります。線形関数は入力値の定数倍が出力となる関数で、ステップ […]

続きを読む