アテンション機構(attention)と系列対系列変換 [seq2seq~Transformer]

1. アテンション機構(attention) と 系列対系列変換とは [概要] アテンション機構 (Attention Mechanism, 注意機構) とは,入力ベクトル系列(or 集合)の重みづけベクトルを,追加コン 続きを読む…

SNSでシェアやブックマークを行う

線形次元削減 (Linear Dimensionality reduction)

1. 概要 線形次元削減(Linear Dimensionality Reduction)とは,特徴ベクトルの次元削減のうち,線形の手法のことを言う(例:PCA,LDAなど) この記事では,古典的な線形次元削減手法のうち 続きを読む…

SNSでシェアやブックマークを行う