今日战绩 | 2020-07-27

报表

今日战绩

时间线回顾

时间 阶段 计划事项 实际执行
6:30-7:00 预备 洗脸→刷牙→称体重→喝水→换衣服→画眉梳头 7点起床
7:00-7:30 转移 宿舍→实验室(含早饭)
7:30-8:00 准备 总结与计划、茶水等 8点开始工作
8:00-11:15 工作 专注时长3.25h 清理前两天遗留的to-do list
11:20-12:00 转移 实验室→宿舍(含午饭)
12:00-12:40 整理 洗衣服+整理内务/营业
12:50-13:20 午休 午睡不超过30m
13:30-14:00 转移 宿舍→实验室 14点30到实验室
14:00-17:00 工作 专注时长3h 运营论文《Distilling the Knowledge in a Neural Network》、生活规划、周总结
17:00-18:00 休息 吃晚饭(水果\鸡蛋\喝水)
18:00-20:30(247)
18:00-22:30(1356)
工作 专注时长2.5h
专注时长4.5h
Leecode x1\实验室GPU服务器试用+环境配置
20:30-20:50 转移 实验室→宿舍
21:00-22:20 运动 跑步半小时\Keep 22点20下班
22:20-23:20 尾声 洗漱+总结

总结

输入

1 开始看《三十而已》了,一直不想点开看,是不愿承认自己也是个奔三的人了,看了些之后,发现自己情绪和思考都带入很多,也许,这就是适合我看的剧了吧。

开心

  1. 重新制定了计划,算是一个新的开始吧

2 看了三十而已之后,感觉自己内心好沉重呀

反思

  1. 自从两篇论文之后,就有些松懈了,虽说是计划AAAI了,但却没有明显的动力。 最近听说好多人都准备读博呀,自己不能掉以轻心的太早了。

To-do list

今天的to-do list 可太多了。

Finished list

明日计划


这是小番茄给我的任务啊,但我的计划是,明天陪姐妹们玩。

养成

内容 计划 实际
使用英文 >20% 40%
课外阅读 >10% 10%
工作时端坐 >80% 50%
不跷二郎腿 >80% 50%
保持眼屏距离,多变焦 >80% 40%

打卡

项目 是否执行 连续徽章 描述
早起(7点以前) 0
深睡眠>1.5h 0
称体重 37
空腹喝水 68
午休起床后喝水 16
护肤(面膜或者霜) 0
泡热水脚 0
睡前50个卷腹 0
早睡 (23:30以前) 0

7月战绩清单

完成时间 战绩 成果 时长
0701 6月总结【0701】 [揣着情怀,发着光 | 2020-06] (https://www.jianshu.com/p/c8fe29e45f75)
0705 CASA论文终稿提交【0624】
0706 读论文《Feature Space Regularization for Person Re-Identification with One Sample》 CSDN博客【FSR】Feature Space Regularization for Person Re-Identification with One Sample
0707 读论文《Pesudo label refinery for unsupervised domain adaptation on person Re-identificaion》 1. 读论文流程标准
2. CSDN博客【MMT】ICLR 2020: MMT(Mutual Mean-Teaching)方法,无监督域适应在Person Re-ID上性能再创新高
0709 ZHG 任务场景部分综述 , 把Person re-ID 部分写出来 《基于视觉任务的小样本学习方法综述-re》3.3小节
0712 作息规划 0712版作息表
0713 改yml的论文初稿 《Progressive Unsupervised Domain Adaptation \ for Image-based Person Re-Identification》论文成稿 4h
0714 xyy 曲线参数提取实验 曲线参数结果表格 4h 46m
0718 准备《Generalizing from a Few Examples: A Survey on Few-Shot Learning》的报告 《Generalizing from a Few Examples: A Survey on Few-Shot Learning》报告PPT 29h 53m
0722 读论文《Deep Mutual Learning》 CSDN博客 【DML】Deep Mutual Learning 4h
0723 读论文《Distilling the Knowledge in a Neural Network》 CSDN博客 Distilling the Knowledge in a Neural Network 2.1h