240 发简信
IP属地:北京
  • 少有人走的路-心智成熟之旅

    基本信息 作者:M.斯科特 派克出版社:中华工商联合出版社 阅读心得 本书的副标题是心智成熟之旅,主旨便是和心智成熟有关,作者从事心理医生很多年...

  • Resize,w 360,h 240
    Vision Transformer阶段性总结 (2021.10)

    0. 前言 近两年学术界对Transformer在CV上的应用可谓异常青睐,这里重点强调学术界的原因是目前工业界还是比较冷静的(部分公司已经开始...

  • Resize,w 360,h 240
    超详细解读Faster R-CNN-FPN

    0. 一些啰嗦 2021年了,竟然还有人写关于Faster R-CNN的文章?我的原因主要有两点: 根据我们在实际项目和比赛中的经验,基于RoI...

  • Resize,w 360,h 240
    GPU卡的底层通信原理

    1.引言 为什么要并行 近几年,依赖大规模标注数据和大量的可学习参数,深度神经网络才能异军突起,占得机器学习半壁江山。然而,也是因为这两点使得深...

  • Resize,w 360,h 240
    优化器方法-GC

    最近看到一篇博客[https://medium.com/@lessw/how-we-beat-the-fastai-leaderboard-sc...

  • Resize,w 360,h 240
    长尾分布(非平衡)数据集分类中解耦合特征学习和分类器学习方法

    问题 实际的分类任务中大多存在样本不平衡(长尾数据,long-tailed distribution)问题,因为一些类别的数据本身就具有稀缺性。...

  • Resize,w 360,h 240
    优化器方法-LookAhead

    最近看到一篇博客,将LookAhead和RAdam结合产生了一个新的算法——Ranger,获得了比单独使用RAdam要好的效果。后来有人将LAR...

  • Resize,w 360,h 240
    优化器方法-RAdam (Rectified Adam)

    最近看到一篇博客,将LookAhead和RAdam结合产生了一个新的算法——Ranger,获得了比单独使用RAdam要好的效果。后来有人将LAR...

  • Resize,w 360,h 240
    优化器方法-LARS(Layer-wise Adaptive Rate Scaling)

    最近看到一篇博客,将最新的LookAhead和RAdam优化器结合,产生了一个新的算法——Ranger,获得了比单独使用RAdam要好的效果。后...

个人介绍
做一个有趣的灵魂