# -*- coding: utf-8 -*- # @Time : 2020/5/19 21:44 # @Author : xiangjing # ####################rec_train_options 参数说明########################## # 识别训练参数 # base_lr:初始学习率 # fine_tune_stage: # if you want to freeze some stage, and tune the others. # ['backbone', 'neck', 'head'], 所有参数都参与调优 # ['backbone'], 只调优backbone部分的参数 # 后续更新: 1、添加bn层freeze的代码 # optimizer 和 optimizer_step: # 优化器的配置, 成对 # example1: 'optimizer':['SGD'], 'optimizer_step':[],表示一直用SGD优化器 # example2: 'optimizer':['SGD', 'Adam'], 'optimizer_step':[160], 表示前[0,160)个epoch使用SGD优化器, # [160,~]采用Adam优化器 # lr_scheduler和lr_scheduler_info: # 学习率scheduler的设置 # ckpt_save_type作用是选择模型保存的方式 # HighestAcc:只保存在验证集上精度最高的模型(还是在训练集上loss最小) # FixedEpochStep: 按一定间隔保存模型 ### from addict import Dict config = Dict() config.exp_name = 'CRNN' config.train_options = { # for train 'resume_from': '', # 继续训练地址 'third_party_name': '', # 加载paddle模型可选 'checkpoint_save_dir': f"./output/{config.exp_name}/checkpoint", # 模型保存地址,log文件也保存在这里 'device': 'cuda:0',# 不建议修改 'epochs': 200, 'fine_tune_stage': ['backbone', 'neck', 'head'], 'print_interval': 10, # step为单位 'val_interval': 625, # step为单位 'ckpt_save_type': 'HighestAcc', # HighestAcc:只保存最高准确率模型 ;FixedEpochStep:每隔ckpt_save_epoch个epoch保存一个 'ckpt_save_epoch': 4, # epoch为单位, 只有ckpt_save_type选择FixedEpochStep时,该参数才有效 } config.SEED = 927 config.optimizer = { 'type': 'Adam', 'lr': 0.001, 'weight_decay': 1e-4, } config.lr_scheduler = { 'type': 'StepLR', 'step_size': 60, 'gamma': 0.5 } config.model = { 'type': "RecModel", 'backbone': {"type": "ResNet", 'layers': 18}, 'neck': {"type": 'PPaddleRNN'}, 'head': {"type": "CTC", 'n_class': 11}, 'in_channels': 3, } config.loss = { 'type': 'CTCLoss', 'blank_idx': 0, } # for dataset # ##lable文件 ### 存在问题,gt中str-->label 是放在loss中还是放在dataloader中 config.dataset = { 'alphabet': r'torchocr/datasets/alphabets/digit.txt', 'train': { 'dataset': { 'type': 'RecLmdbDataset', 'file': r'path/lmdb/train', # LMDB 数据集路径 'input_h': 32, 'mean': 0.5, 'std': 0.5, 'augmentation': False, }, 'loader': { 'type': 'DataLoader', # 使用torch dataloader只需要改为 DataLoader 'batch_size': 16, 'shuffle': True, 'num_workers': 1, 'collate_fn': { 'type': 'RecCollateFn', 'img_w': 120 } } }, 'eval': { 'dataset': { 'type': 'RecLmdbDataset', 'file': r'path/lmdb/eval', # LMDB 数据集路径 'input_h': 32, 'mean': 0.5, 'std': 0.5, 'augmentation': False, }, 'loader': { 'type': 'RecDataLoader', 'batch_size': 4, 'shuffle': False, 'num_workers': 1, } } } # 转换为 Dict for k, v in config.items(): if isinstance(v, dict): config[k] = Dict(v)