
GELU (Gaussian Error Linear Unit) [Transformer系モデルでよく使用]
1. GELU (Gaussian Error Linear Unit, ガウス誤差線形ユニット)とは [概要] GELU (Gaussian Error Linear Unit, ガウス誤差線形ユニット) とは,入力値 続きを読む…
1. GELU (Gaussian Error Linear Unit, ガウス誤差線形ユニット)とは [概要] GELU (Gaussian Error Linear Unit, ガウス誤差線形ユニット) とは,入力値 続きを読む…
1. Transformer とは [概要] Transformer とはアテンションを主要部品として用いた,深層学習むけの(トークン)系列変換モデルである.従来の系列変換モデルの定番であった「seq2seq with 続きを読む…
1. ReLU (Rectified Linear Units) 型の活性化関数 とは [概要] ReLU (Rectified Linear Units, 整流化線形ユニット)は,ディープニューラルネットワークにおいて 続きを読む…