今日战绩 | 2020-07-26

报表

今日战绩

时间线回顾

时间 阶段 计划事项 实际执行
6:50-7:20 预备 洗脸→刷牙→称体重→喝水→换衣服→画眉梳头。
过程中听书
8点半起床(仍然处于放假状态)
7:20-8:00 转移 宿舍→实验室(含早饭) 10点到实验室
8:00-11:15 工作 专注时长3h15m 今日战绩、酷家乐
11:20-12:00 转移 实验室→宿舍(含午饭)
12:00-12:40 整理 洗衣服+整理内务/营业,过程中听书。
12:50-13:20 午休 午睡不超过30m,醒来后喝水
13:30-14:00 转移 宿舍→实验室
14:00-17:00 工作 专注时长3h
17:00-18:00 休息 吃晚饭(水果\鸡蛋\喝水)
18:00-21:00 工作 专注时长3h,如果不运动就工作到22:30
21:00-21:30 转移 实验室→宿舍
21:30-22:20 运动 跑步半小时\Keep
22:20-23:20 尾声 洗漱+总结


反思

  1. 其实什么时候起床 和放不放假没有关系,主要是情绪在作祟。

开心

  1. 昨天是真真的放假了,好久没有这样一整天都不去实验室,在宿舍浪了,感觉自己浪得还可以,浪得很彻底。睡了懒觉、看了电影、吃了火鸡面、和姐妹们唠嗑了至少三小时、做了一直想做没有做的事儿,说了一直想说没有说的话,和玉儿爬了培儿的被窝,躺一排自拍睡觉的臭样儿,下午还出公差两小时,回到研一时顶着大太阳扫马路,拔草捡树叶的日子。晚饭间隙和培儿去逛了“摆地摊”活动,等着玉儿去东门取黄焖鸡的外卖回来,还有雪糕。晚上看了《宸汐缘》,唱了三小时的歌,还教培儿练声“啊啊啊啊啊啊啊啊啊~ ” ,又和姐妹们唠嗑到12点半 ……

输入

  1. 得到App

To-do list (10.5h)

Finished list

明日计划

养成

内容 计划 实际
使用英文 >20% 40%
课外阅读 >10% 10%
工作时端坐 >80% 50%
不跷二郎腿 >80% 50%
保持眼屏距离,多变焦 >80% 40%

打卡

项目 是否执行 连续徽章 描述
早起(7点以前) 0
深睡眠>1.5h 0 忘带手环了
称体重 37 +0.7 不慌不慌,先吃为上
空腹喝水 68
吃沙漠果 0
午休起床后喝水 16
护肤(面膜或者霜) 0
泡热水脚 0
睡前50个卷腹 0
早睡 (23:30以前) 0

清零之后有种置之死地而后生的感觉。


7月战绩清单

完成时间 战绩 成果 时长
0701 6月总结【0701】 [揣着情怀,发着光 | 2020-06] (https://www.jianshu.com/p/c8fe29e45f75)
0705 CASA论文终稿提交【0624】
0706 读论文《Feature Space Regularization for Person Re-Identification with One Sample》 CSDN博客【FSR】Feature Space Regularization for Person Re-Identification with One Sample
0707 读论文《Pesudo label refinery for unsupervised domain adaptation on person Re-identificaion》 1. 读论文流程标准
2. CSDN博客【MMT】ICLR 2020: MMT(Mutual Mean-Teaching)方法,无监督域适应在Person Re-ID上性能再创新高
0709 ZHG 任务场景部分综述 , 把Person re-ID 部分写出来 《基于视觉任务的小样本学习方法综述-re》3.3小节
0712 作息规划 0712版作息表
0713 改yml的论文初稿 《Progressive Unsupervised Domain Adaptation \ for Image-based Person Re-Identification》论文成稿 4h
0714 xyy 曲线参数提取实验 曲线参数结果表格 4h 46m
0718 准备《Generalizing from a Few Examples: A Survey on Few-Shot Learning》的报告 《Generalizing from a Few Examples: A Survey on Few-Shot Learning》报告PPT 29h 53m
0722 读论文《Deep Mutual Learning》 CSDN博客 【DML】Deep Mutual Learning 4h
0723 读论文《Distilling the Knowledge in a Neural Network》 CSDN博客 Distilling the Knowledge in a Neural Network 2.1h