アテンション機構(attention)と系列対系列変換 [seq2seq~Transformer]

1. アテンション機構(attention) と 系列対系列変換とは [概要] アテンション機構 (Attention Mechanism, 注意機構) とは,入力ベクトル系列(or 集合)の重みづけベクトルを,追加コン … 続きを読む アテンション機構(attention)と系列対系列変換 [seq2seq~Transformer]