240 发简信
IP属地:上海
  • Attention

    优秀的博客:【图解什么是 Transformer(很全)】https://www.jianshu.com/p/e7d8caa13b21【自注意力...

  • Resize,w 360,h 240
    NLP知识图谱框架

    一、NLP分类: 1.word level:序列标注任务:分词、词性标注、命名实体识别2.sentence level :在句子层面分类的任务:...

    2.6 5769 0 20
  • Java内存模型

    只要定义了,都会分配内存空间为什么要把内存划分为静态区等四个区?1、栈区— 由编译器自动分配释放,存放函数的参数值,局部变量的值等,具体方法执行...

  • 舆情系统

    舆情(监控)系统 、情感分类(系统)、细腻度的情感抽取 一、监控什么 新闻主体:监控人、金融:监控高管、法人、公司、产品多分类:恐惧、厌恶、负面...

  • Resize,w 360,h 240
    Seq2Seq聊天机器人项目

    零、总结 整个项目分为 数据清洗 和 建立模型两个部分。 (1)主要定义了seq2seq这样一个模型。首先是一个构造函数,在构造函数中定义了这个...

  • tf.placeholder函数说明

    函数形式:tf.placeholder(dtype,shape=None,name=None) 参数:dtype:数据类型。常用的是tf.flo...

  • Java面向对象六大原则

    一、单一职责原则 1.原则:两个完全不一样的功能不能放在一个类中,一个类应该是一组相关性很高的函数、数据的封装 2.如何划分一个类的职责 因人而...

  • Resize,w 360,h 240
  • Resize,w 360,h 240
    Attention注意力机制

    LSTM 图A是在走隐层的路上,第一道门忘记门x[0,1],决定保留多少信息过来;第二道门,+[-1,1],信息增益门,多的更多少的更少。 机器...