アテンション( Attention ) 機構 : seq2seqから Transformer

1 概要 アテンション機構 (Attention Mechanism)は,視覚注意 (visual attention) にインスパイアされて発展してきた,ディープニューラルネットの拡張機構である.seq2seq / 識 続きを読む…