图像分类的大部分经典神经网络已经全部介绍完,并且已经作了测试
代码已经全部上传到资源,根据文章名或者关键词搜索即可
LeNet :pytorch 搭建 LeNet 网络对 CIFAR-10 图片分类
AlexNet :?pytorch 搭建AlexNet 对花进行分类
Vgg :?pytorch 搭建 VGG 网络
GoogLeNet :?pytorch 搭建GoogLeNet
ResNet :?ResNet 训练CIFAR10数据集,并做图片分类
关于轻量级网络
MobileNet 系列:
ShuffleNet 系列:
EfficientNet 系列:
Swin-Transformer :Swin-Transformer 在图像识别中的应用
本章将根据?Swin-Transformer 网络对图像分类ending,包括如何获取数据集,训练网络、预测图像等等。
本文从头实现对Marvel superhero 进行分类记录,项目下载在后面
代码尽量简单,小白均可运行,不需要定义复杂的变量
网络精度高,采用迁移学习
文件目录如下所示:
注:项目的文件夹和代码不可更改,要不然会报错,至于超参数的更改下面会介绍!!
inference 是预测的文件夹,将预测的图像放在该文件夹下,可以实现批预测
my_dataset_from_net 爬虫脚本,可以自动从网络上下载图片
run_results? 网络训练之后生成的信息,包括类别json文件、loss和accuracy精度曲线、学习率衰减曲线、训练过程日志、已经训练集和测试集的混淆矩阵
weights 下面存放的是Swin-Transformer 的预训练权重
py 文件:
详细的可以参考README 文件
当然最开始要配置好环境和requirements.txt 文件
获取数据集在 my_dataset_from_net 文件下,运行文件下的main.py 可以得到:
脚本会自动在该文件下生成download_images文件目录,然后会根据关键词生成子文件夹
批下载的话,可以新建txt文件,按照这样操作就行:
按照下面操作:
选中baidu API ,load file就是刚刚新建的txt文件
Max number per keywords 就是每个关键词下载的图像个数,Threads 最好设定小一点,否则可能会漏下载
下载过程如下:
下载完成如下:
代码是 process_data.py 文件,因为代码用中文可能报错,这里要将文件夹改成英文
该脚本会自动删除那些 PIL 打不开的文件
代码会自动将每个子文件夹下按照 0.2比例划分测试集?
运行?process_data.py 结果如下:
代码会在主目录下生成数据
训练代码是 train.py 文件
超参数如下:
关于--freeze-layers,设定为True,只会训练MLP权重。False会训练全部网络
parser = argparse.ArgumentParser()
parser.add_argument('--epochs', type=int, default=100)
parser.add_argument('--batch-size', type=int, default=32)
parser.add_argument('--lr', type=float, default=0.0001)
parser.add_argument('--lrf', type=float, default=0.1)
parser.add_argument('--freeze-layers', type=bool, default=False) # 是否冻结权重
至于分类的个数啊、对应标签json文件等等,这里使用 datasets.ImageFolder,代码会自动生成,不需要设定!!
只需要更改上面超参数就行!!
将train这部分代码放开,可以查看网络训练图像信息
如下:
训练过程:
代码会自动计算分类的类别个数
训练结果:
生成的结果全部保存在run_results目录下:
json 文件:
loss-accuracy-curve:
学习率衰减曲线:
训练集和测试集的混淆矩阵:
训练日志:
预测脚本在 inference 中,predict.py 会预测该目录下所有图片
不需要任何更改!!
运行 predict.py结果如下:
结果展示:
完整项目下载:图像识别完整项目之Swin-Transformer,从获取关键词数据集到训练的完整过程
爬虫下载图片的时候,下载的数目往往和设定的不一致,这个只需要将数目调大就行。事实上,本项目每个类别仅有200多张图片仍能有不错的表现
爬虫下载的图片有时候会出现不能打开的错误,但是在process_data脚本处理的时候,是没有报错的。
训练过程也没有出现错误,可能是process_data脚本的问题
如果不放心,可以手动删除,
预测的时候,因为预处理train mean和train std的原因,会计算的很慢,如果将项目部署的话,可以手动设定