アテンション機構 (Attention Mechanism): seq2seqからTransformer

1 アテンション機構(Attention Mechanism)の概要 アテンション機構 (Attention Mechanism)は,視覚注意 (visual attention) にインスパイアされて発展してきた,ディ 続きを読む…

線形の次元削減 (Dimensionality reduction)

1階層上の記事:【用語】特徴抽出 1 概要 次元削減(Dimensionality reduction)とは,元のデータセットの分布の情報を保持したまま,高次元特徴ベクトルを低次元ベクトルに削減することを指す.具体的な手 続きを読む…