更多项目见主页,不得不看的文章:https://blog.csdn.net/ALiLiLiYa/article/details/133969223?spm=1001.2014.3001.5502
这是基于《野外动物姿势》所做的工作。
它包含了动物姿态数据集的介绍、标注文件和代码。
动物姿态数据集是第一个用于通用动物姿势估计的大规模数据集。它包含了来自23个动物家族和54个物种的10,015张图像,具有高质量的关键点标注。
我们还包含了约50,000张带有家族和物种标签的图像。该数据集可用于监督学习、跨领域迁移学习、家族内和家族间领域等。它还可用于自监督学习、半监督学习等。标注文件采用COCO风格提供
具体定义如下:
步骤 0. 从官方网站下载并安装Miniconda。
步骤 1. 创建并激活一个conda环境。
conda create --name openmmlab python=3.8 -y
conda activate openmmlab
步骤 2. 安装PyTorch,按照官方说明进行操作,例如:
在GPU平台上:
conda install pytorch torchvision -c pytorch
此命令将自动安装最新版本的PyTorch和cudatoolkit,请检查它们是否与您的环境匹配。
在CPU平台上:
conda install pytorch torchvision cpuonly -c pytorch
我们建议用户按照我们的最佳实践安装MMPose。然而,整个过程是高度可定制的。请查看“自定义安装”部分以获取更多信息。
步骤 0. 使用MIM安装MMCV。
pip install -U openmim
mim install mmcv-full
请从下载部分下载数据集,并将其解压缩到data文件夹下,例如:
mkdir data
unzip ap-10k.zip -d data/
mv data/ap-10k data/ap10k
解压后的数据集应该如下所示:
AP-10K
├── mmpose
├── docs
├── tests
├── tools
├── configs
|── data
│── ap10k
│-- annotations
│ │-- ap10k-train-split1.json
│ |-- ap10k-train-split2.json
│ |-- ap10k-train-split3.json
│ │-- ap10k-val-split1.json
│ |-- ap10k-val-split2.json
│ |-- ap10k-val-split3.json
│ |-- ap10k-test-split1.json
│ |-- ap10k-test-split2.json
│ |-- ap10k-test-split3.json
│-- data
│ │-- 000000000001.jpg
│ │-- 000000000002.jpg
│ │-- ...
可以从HRNet-w32、HRNet-w48、ResNet-50、ResNet-101下载检查点。
python tools/test.py <CONFIG_FILE> <DET_CHECKPOINT_FILE>
bash tools/dist_train.sh <CONFIG_FILE> <GPU_NUM>
例如,要在1个GPU上训练HRNet-w32模型,请运行:
bash tools/dist_train.sh configs/animal/2d_kpt_sview_rgb_img/topdown_heatmap/ap10k/hrnet_w32_ap10k_256x256.py 1
数据集的创建旨在促进动物姿势估计领域的研究。在更多来自不同物种的训练数据可用的情况下,有必要研究一些具有挑战性的问题,比如:
1)不同代表性人体姿势模型在动物姿势估计任务上的性能如何?
2)深度模型的表征能力是否受益于在具有不同物种的大规模数据集上的训练?
3)在具有不同物种的大规模数据集的背景下,预训练(例如在ImageNet数据集或人体姿势估计数据集上的预训练)的影响如何?
4)在使用来自特定物种或家族的数据训练的模型中,模型的家族内和家族间泛化能力如何?
然而,先前用于动物姿势估计的数据集包含有限数量的动物物种。因此,使用现有数据集无法研究这些问题,因为它们包含的最多只有5种物种,这远远不足以得出可靠的结论。相比之下,数据集包含23个家族和54个物种,因此可以帮助研究人员研究这些问题。
我们使用aHash算法检测相似图像并进行手动检查,删除了重复的图像。手动删除了有重叠和标志的图像。清理后的图像被分类到不同的物种和家族中。
看不到请升级浏览器