2021-03-10 Speech-Transformer项目精简参数规模训练

一、通过修改训练配置,进行新一轮训练

train.py 
--train-json dump/train/deltafalse/data.json 
--valid-json dump/dev/deltafalse/data.json 
--dict data/lang_1char/train_chars.txt 
--LFR_m 7                # 叠加帧数,比如单帧输入维度 [320,80],此时维度[320,560]
--LFR_n 6                # 跳过帧数,相当于采样频率除以6,降低计算量,提高训练效率
--d_input 80             # 此参数与 fbank 特征提取结果有关,默认80
--n_layers_enc 6         # encoder 个数,原论文默认为6
--n_head 4               # 多头注意力,默认为8,此处改为4
--d_k 64                 # k 向量维度 64
--d_v 64                 # v 向量维度 64
--d_model 320            # 模型维度,默认512,此处改为320
--d_inner 1280           # 全连接层(FeedForward),默认2048,此处改为1280,通常为4*dmodel
--dropout 0.1            # Dropout有效缓解过拟合的发生,默认为0.1       
--pe_maxlen 5000         # Positional Encoding 最大长度设置,和数据集语音有关 ? 默认5000
--d_word_vec 320         # 词向量维度,与d_model必须一致,否则训练报错
--n_layers_dec 6         # decoder 个数,原论文默认为6
--tgt_emb_prj_weight_sharing 1     # share decoder embedding with decoder projection,默认1
--label_smoothing 0.1    # 标签平滑策略:降低正确分类样本的置信度,提升模型的自适应能力 默认0.1
--epochs 30              # 数据集遍历次数,默认为150,此前训练20左右loss大幅下降,此处设置为30
--shuffle 1              # 每个epoch都重新排序一遍数据
--batch-size 16          # 批量处理数
--batch_frames 0         # 批量处理帧数,此值为0,batch_size生效,大于0,batch_size失效
--maxlen-in 800          # 输入语音最大长度,默认800,与数据集语音相关
--maxlen-out 150         # 输出语音最大长度,默认150,与数据集语音相关
--num-workers 4          # 装载batch数据时,使用的CPU核心
--k 0.2                  # 学习率变化的缩放因子,默认0.2,等于1时与预热学习率公式一致
--warmup_steps 4000      # 预热训练步骤默认为4000,即前4000步学习率缓慢上升至较大值,然后逐渐降低,最终稳定
--save-folder exp/train_m7_n6_in80_elayer6_head4_k64_v64_model320_inner1280_drop0.1_pe5000_emb320_dlayer6_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k0.2_warm4000 
--checkpoint 0           # 是否每个epoch都保存一次模型
--continue-from ""       # 可以接着从已训练的epoch开始继续训练
--print-freq 10          # 打印步长
--visdom 0               # 是否开启visdom可视化绘图功能
--visdom_lr 0            # 是否将学习率开启可视化
--visdom_epoch 0         # 是否每个epoch 均绘制可视化窗口
--visdom-id "Transformer Training"     # 可视化窗口名称显示
训练集 epoch 30
开发集 epoch 30

预测之后的结果:




正确率:87% 词错误率:13.7%

Args: Namespace(LFR_m=7, LFR_n=6, batch_frames=0, batch_size=16, checkpoint=0, continue_from='', d_inner=1280, d_input=80, d_k=64, d_model=320, d_v=64, d_word_vec=320, dict='data/lang_1char/train_chars.txt', dropout=0.1, epochs=30, k=0.2, label_smoothing=0.1, maxlen_in=800, maxlen_out=150, model_path='final.pth.tar', n_head=4, n_layers_dec=6, n_layers_enc=6, num_workers=4, pe_maxlen=5000, print_freq=10, save_folder='exp/train_m7_n6_in80_elayer6_head4_k64_v64_model320_inner1280_drop0.1_pe5000_emb320_dlayer6_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k0.2_warm4000', shuffle=1, tgt_emb_prj_weight_sharing=1, train_json=None, valid_json=None, visdom=0, visdom_epoch=0, visdom_id='Transformer training', visdom_lr=0, warmup_steps=4000)
Model total parameters: 17321344

模型总参数量: 17321344

二、通过修改训练配置,进行新一轮训练

train.py 
--train-json dump/train/deltafalse/data.json 
--valid-json dump/dev/deltafalse/data.json 
--dict data/lang_1char/train_chars.txt 
--LFR_m 7 
--LFR_n 6 
--d_input 80 
--n_layers_enc 4             #  6 变为 4
--n_head 4               
--d_k 64 
--d_v 64 
--d_model 256                # 320 变为 256
--d_inner 1024               # 1280 变为 1024
--dropout 0.1 
--pe_maxlen 5000 
--d_word_vec 256             # 320 变为 256
--n_layers_dec 4             # 6 变为 4
--tgt_emb_prj_weight_sharing 1 
--label_smoothing 0.1 
--epochs 30 
--shuffle 1 
--batch-size 16 
--batch_frames 0 
--maxlen-in 800 
--maxlen-out 150 
--num-workers 4
--k 1                         # 0.2 变为 1
--warmup_steps 4000 
--save-folder exp/train_m7_n6_in80_elayer4_head4_k64_v64_model256_inner1024_drop0.1_pe5000_emb256_dlayer4_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k1_warm4000 
--checkpoint 0 
--continue-from "" 
--print-freq 10 
--visdom 0 
--visdom_lr 0 
--visdom_epoch 0 
--visdom-id "Transformer Training" 
训练集 epoch 30

开发集 epoch 30

预测之后的结果:





识别错误太多

错误率达97.8%

Args: Namespace(LFR_m=7, LFR_n=6, batch_frames=0, batch_size=16, checkpoint=0, continue_from='', d_inner=1024, d_input=80, d_k=64, d_model=256, d_v=64, d_word_vec=256, dict='data/lang_1char/train_chars.txt', dropout=0.1, epochs=30, k=1.0, label_smoothing=0.1, maxlen_in=800, maxlen_out=150, model_path='final.pth.tar', n_head=4, n_layers_dec=4, n_layers_enc=4, num_workers=4, pe_maxlen=5000, print_freq=10, save_folder='exp/train_m7_n6_in80_elayer4_head4_k64_v64_model256_inner1024_drop0.1_pe5000_emb256_dlayer4_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k1_warm4000', shuffle=1, tgt_emb_prj_weight_sharing=1, train_json=None, valid_json=None, visdom=0, visdom_epoch=0, visdom_id='Transformer training', visdom_lr=0, warmup_steps=4000)
Model total parameters: 8600576

模型总参数量 8600576

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 161,192评论 4 369
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,186评论 1 303
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 110,844评论 0 252
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,471评论 0 217
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,876评论 3 294
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,891评论 1 224
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,068评论 2 317
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,791评论 0 205
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,539评论 1 249
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,772评论 2 253
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,250评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,577评论 3 260
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,244评论 3 241
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,146评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,949评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,995评论 2 285
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,812评论 2 276

推荐阅读更多精彩内容