240 发简信
IP属地:陕西
  • 120
    NLP-Word Embedding-Attention机制

    attention机制是个坑。要明白attention机制,首先要明白seq2seq要明白seq2sql,首先要明白RNN要明白RNN,首先要明白MLP和BP算法这是atte...