240 发简信
IP属地:上海
  • Resize,w 360,h 240
    Transformer详解(二):Attention机制

    Encoder-Decoder中的attention机制 上一篇文章最后,在Encoder-Decoder框架中,输入信息的全部信息被保存在了C...

  • Resize,w 360,h 240
    Transformer详解(三):Transformer 结构

    Transformer结构是谷歌那篇 论文中提到的。论文中提出了transformer这么一种新的结构,将其应用在机器翻译的领域上,取得了很好的...

  • Resize,w 360,h 240
    Transformer详解(一):从RNN到Attention机制

    对于《Attention is all you need》这篇文章中提到的transformer模型,自己最初阅读的时候并不是很理解,于是决定从...

    1.1 6951 2 11
  • Sublime插件sublimeREPL快捷键无响应问题

    sublimeREPL插件应该是很多用sublime写python的用户的必备插件。最近配置该插件时,设置好快捷键发现按 ‘F5’没有反应。找了...

  • Flask接收和返回图片

    上一篇文章介绍一下基本的flask文件结构,这篇讲一下如何用flask接收和返回图片。包括在接收之后如何用Image或者cv2打开图片做相应处理...

  • Resize,w 360,h 240
    回归树总结

    前言 最近刚开始看XGBoost,发现和回归树有关,这一块确实不太熟悉,于是在网上找了一些资料了解了一下。 作用 首先区分回归树与决策树。决策树...

  • Resize,w 360,h 240
    CNN文本分类

    概述 CNN文本分类,是将CNN处理图像的思路移植到文本问题上。具体的理论可以阅读‘Convolutional Neural Network f...

  • 决策树剪枝

    一 概述 决策树剪枝的目的:防止构建的决策树出现过拟合。理由:随着决策树的深度的增加,模型的准确度肯定会越来越好。但是对于新的未知数据,模型的表...

  • Mac系统下vim和iterm2配置文件

    记录一下个人常用的vim配置和iterm2配置vim iterm2