在damo/config/paths_catalog.py
进行修改
在configs/damoyolo_tinynasL25_S.py
进行如下两块修改
右侧的base.py在damo/config/base.py
self.train.batch_size = 2 # 训练时的batchsize
self.train.total_epochs = 300 # 训练的总轮数
# self.train.finetune_path = '' # 如果要加上预训练权重,就下载了然后指明位置
self.test.batch_size = 4 # 是训练时候的2倍,但是我在想在训练完之后进行测试时,是不是应该改为1
self.miscs.num_workers = 0 # windows下设置为0
self.miscs.output_dir = './workdirs' # 训练完后保存的目录
self.miscs.exp_name = 'DAMO-YOLOs' # 自定义文件名
python -m torch.distributed.launch --nproc_per_node=1 tools/train.py -f configs/damoyolo_tinynasL25_S.py
绝对路径
,肯定不会出现找不到配置文件的错误-m torch.distributed.launch --nproc_per_node=1
是用来设置多卡训练的,必须要带上才能正常运行起来,因此我在调试的时候多有不便,亲测这个博客很有用,如果有需要可以参考:Pycharm 调试debug torch.distributed.launch
官方示例:
python -m torch.distributed.launch --nproc_per_node=1 tools/eval.py -f configs/damoyolo_tinynasL25_S.py --ckpt /path/to/your/damoyolo_tinynasL25_S.pth
解决方法:会出现这个错,是因为在Windows
上跑的,那么只要在tools/train.py
中定位到backend='nccl'
,然后把nccl
改为gloo
即可
解决方法:会出现这报错,是因为程序没有根据找到damo
包的位置,其实就是代码写得有点奇怪然后没有找到路径。只要把tools/train.py
复制到根目录
下,然后运行就可以了