现有的教程在配置基于python的airsim环境过程中,都要求执行完整的编译步骤。然而,在linux和windows上的编译过程中会遇到诸多问题,大概需要半天左右时间。
如果你只是想采集一些数据,测试一下虚拟数据的效果,那么解决这些bug所需要的时间非常不值得。
本文将从快速创建一个环境着手,分割、检测、去雾、深度估计、多传感器融合等方向的从业者可以快速采集一些数据,用于训练、测试自己的模型。
请注意,如果你是从传统深度学习时代入门的,你可能对于虚拟数据不屑一顾。但是我在目前的多个diffsion、Transformer模型的测试结果上看,虚拟数据集是非常有效的。
具体python代码:
import airsim #pip install airsim
import numpy as np
import random
# for car use CarClient()
client = airsim.MultirotorClient()
png_image = client.simGetImage("0", airsim.ImageType.Scene)
# do something with image
responses = client.simGetImages([
# png format
airsim.ImageRequest(camera_name=0, image_type=airsim.ImageType.Scene, pixels_as_float=False, compress=True),
# uncompressed RGB array bytes
airsim.ImageRequest(0, airsim.ImageType.Infrared, pixels_as_float=False, compress=True),
# 深度视差图,每个像素值是浮点型
airsim.ImageRequest(0, airsim.ImageType.DisparityNormalized, pixels_as_float=False, compress=True),
# 深度视差图,每个像素值是浮点型
airsim.ImageRequest(0, airsim.ImageType.DepthPerspective, pixels_as_float=False, compress=True),
# 深度视差图,每个像素值是浮点型
airsim.ImageRequest(0, airsim.ImageType.DepthVis, pixels_as_float=False, compress=True),
# 深度视差图,每个像素值是浮点型
airsim.ImageRequest(0, airsim.ImageType.DepthPlanar, pixels_as_float=False, compress=True)
])
详细api参考官方文档。
例程:https://github.com/microsoft/AirSim/blob/main/PythonClient/airsim/client.py
如果pip安装无效,可以手动下载,本地安装。