本文主要涉及GEC6818开发板V4L2的使用,用具体的实例展示了使用一个USB摄像头的使用,其中前面详细讲解了V4L2的相关函数的使用,如果已经知道的可以直接看最后的完整代码。
V4L2(Video4Linux2)是Linux操作系统中用于处理视频设备的内核框架。V4L2提供了一个统一的API
,允许开发者在不同的硬件平台上编写通用的应用程序,从而访问、配置和操作视频设备,如摄像头、USB视频捕获卡等。
以下是有关V4L2摄像头在Linux中的一些关键点和概念:
设备文件:
/dev/videoX
,其中X是一个数字,代表摄像头的索引。/dev/video0
,第二个则可能是/dev/video1
,以此类推。主要结构和概念:
基本操作流程:
/dev/video0
)。v4l2_capability
结构体在C语言中的定义如下:
struct v4l2_capability {
__u8 driver[16]; // 驱动名称或标识符
__u8 card[32]; // 设备名称或描述
__u8 bus_info[32]; // 设备连接到的总线信息
__u32 version; // V4L2驱动版本
__u32 capabilities; // 设备的功能标志位掩码
__u32 reserved[4]; // 保留字段
};
这个结构体为了节省内存使用了
__u8
和__u32
这样的类型,它们通常是无符号整数类型,但确切的大小和类型可能会根据系统架构和编译器而有所不同。
v4l2_capability
结构是用于V4L2(Video4Linux2)API中的一个关键结构,用于查询和描述设备的能力。通过查询这个结构,应用程序可以了解特定摄像头或视频设备支持的功能和特性。
以下是 v4l2_capability
结构中的一些主要字段及其解释:
char driver[16]:
驱动名称
或标识符
。char card[32]:
设备的名称或描述
。__u32 bus_info[32]:
总线信息
。__u32 version:
版本号
。__u32 capabilities:
视频捕获
。视频输出
。视频覆盖
。视频流
。__u32 reserved[4]:
当应用程序想要知道摄像头或视频设备的能力时,它会使用ioctl(fd, VIDIOC_QUERYCAP, &cap)
系统调用查询该结构。查询结果将填充v4l2_capability
结构的字段,应用程序可以基于这些信息进行决策或配置。
例如,如果应用程序需要捕获视频,但摄像头不支持视频捕获功能(即V4L2_CAP_VIDEO_CAPTURE
标志未设置),那么应用程序可能会选择一个不同的摄像头或采取其他行动。
v4l2_format
结构体用于描述和设置视频格式,例如视频的帧大小、像素格式等。在V4L2编程中,会经常使用这个结构体来告诉摄像头或视频设备你希望的数据格式
。
以下是 v4l2_format
结构体的定义和相关参数的详细解释:
struct v4l2_format {
__u32 type; // 数据流类型 (例如:V4L2_BUF_TYPE_VIDEO_CAPTURE 或 V4L2_BUF_TYPE_VIDEO_OUTPUT)
union {
struct v4l2_pix_format pix; // 像素格式相关的信息
// 更多的联合字段可以添加到这里,每个字段表示不同类型的数据流格式
} fmt;
};
其中,union
中的 v4l2_pix_format
结构体用于描述像素格式相关的信息:
struct v4l2_pix_format {
__u32 width; // 帧的宽度
__u32 height; // 帧的高度
__u32 pixelformat; // 像素格式 (例如:V4L2_PIX_FMT_YUYV 或 V4L2_PIX_FMT_MJPEG)
__u32 field; // 采样格式 (例如:V4L2_FIELD_NONE 或 V4L2_FIELD_INTERLACED)
__u32 bytesperline; // 每行的字节数
__u32 sizeimage; // 帧大小(以字节为单位)
__u32 colorspace; // 颜色空间 (例如:V4L2_COLORSPACE_SRGB)
__u32 priv; // 预留字段(私有数据,可能由特定的驱动程序使用)
__u32 flags; // 标志位,例如 V4L2_PIX_FMT_FLAG_CONTINUOUS_BYTE_STREAM
__u32 ycbcr_enc; // YCbCr 编码规范
__u32 quantization; // 量化范围
__u32 xfer_func; // 传输函数
};
这些字段的具体含义和值会根据所使用的设备和驱动程序而有所不同。当想要设置或查询视频格式时,会使用这些结构体和相关的系统调用,如 ioctl()
。
v4l2_buffer
结构体用于描述视频缓冲区的信息,包括缓冲区的状态、数据的位置等。在V4L2编程中,会用这个结构体来管理视频数据的传输和接收。
以下是 v4l2_buffer
结构体的定义及相关参数的详细解释:
struct v4l2_buffer {
__u32 index; // 缓冲区的索引号,用于标识特定的缓冲区
enum v4l2_buf_type type; // 缓冲区的类型 (例如:V4L2_BUF_TYPE_VIDEO_CAPTURE)
__u32 bytesused; // 缓冲区中实际使用的字节数
__u32 flags; // 标志位,例如 V4L2_BUF_FLAG_TIMESTAMP_MONOTONIC
enum v4l2_field field; // 采样的字段 (例如:V4L2_FIELD_NONE 或 V4L2_FIELD_INTERLACED)
struct timeval timestamp; // 时间戳,记录帧的时间信息
struct v4l2_timecode timecode; // 时间码,用于视频同步和编辑
__u32 sequence; // 用于同步帧的顺序,例如丢帧后恢复顺序
__u32 memory; // 缓冲区的内存类型 (例如:V4L2_MEMORY_MMAP 或 V4L2_MEMORY_USERPTR)
union {
__u32 offset; // 内存映射类型 (V4L2_MEMORY_MMAP) 下的偏移量
unsigned long userptr; // 用户指针类型 (V4L2_MEMORY_USERPTR) 下的指针
} m;
__u32 length; // 缓冲区的长度(以字节为单位)
__u32 input; // 输入设备的索引号,用于多路复用的设备
__u32 reserved; // 保留字段,未使用
};
其中,type
和 memory
字段是两个重要的字段,它们分别指定了缓冲区的类型和内存分配方式:
type
: 这是一个枚举值,表示缓冲区的类型,例如视频捕获、视频输出等。
memory
: 这也是一个枚举值,表示缓冲区的内存类型,例如通过内存映射 (V4L2_MEMORY_MMAP
) 或用户指针 (V4L2_MEMORY_USERPTR
) 进行管理。
在V4L2(Video4Linux2)中,v4l2_buffer
结构体用于描述视频缓冲区的属性和状态。其中,enum v4l2_buf_type type;
字段用于指定缓冲区的类型。以下是一些常用的缓冲区类型:
V4L2_BUF_TYPE_VIDEO_CAPTURE:
V4L2_BUF_TYPE_VIDEO_OUTPUT:
V4L2_BUF_TYPE_VIDEO_OVERLAY:
V4L2_BUF_TYPE_VIDEO_OUTPUT_OVERLAY:
V4L2_BUF_TYPE_VIDEO_CAPTURE_MPLANE:
V4L2_BUF_TYPE_VIDEO_OUTPUT_MPLANE:
这些只是V4L2中可用的一些缓冲区类型。实际上,V4L2提供了更多的缓冲区类型和子类型,以满足不同应用和设备的需求。选择合适的缓冲区类型非常关键,因为它决定了如何配置和使用缓冲区,以及如何处理视频数据。
ioctl
(Input/Output Control)是Linux系统中的一个系统调用,主要用于设备驱动程序与用户空间应用程序之间进行交互。通过 ioctl
,用户空间程序可以发送特定的命令和参数给设备驱动程序,从而控制或查询设备的状态、配置和功能。
ioctl
的基本使用方式ioctl
的函数原型如下:
int ioctl(int fd, unsigned long request, ...);
fd
: 是一个打开的文件描述符,通常是对应于某个设备文件的。request
: 是一个无符号长整型值,表示要执行的操作或查询。...
: 是可选的参数,用于传递与特定命令相关的数据。假设我们要使用 ioctl
查询一个V4L2设备的能力。
打开设备:首先,我们需要打开设备文件,并获取其文件描述符。
int fd_v4l2 = open("/dev/video7", O_RDWR);
if (fd_v4l2 == -1) {
perror("Failed to open device");
exit(EXIT_FAILURE);
}
查询设备能力:使用 ioctl
和 VIDIOC_QUERYCAP
命令来查询设备的能力。
struct v4l2_capability cap = {};
if (ioctl(fd_v4l2, VIDIOC_QUERYCAP, &cap) == -1) {
perror("ioctl VIDIOC_QUERYCAP failed");
close(fd_v4l2);
exit(EXIT_FAILURE);
}
在这个例子中,我们使用了 VIDIOC_QUERYCAP
命令来查询设备的基本信息和能力,并将结果存储在 cap
结构体中。
处理查询结果:根据 cap
结构体中的信息,我们可以知道设备是否支持视频捕获、视频输出等功能,并据此进行相应的处理。
if (cap.capabilities & V4L2_CAP_VIDEO_CAPTURE) {
printf("Device supports video capture.\n");
}
这只是一个简单的例子,实际的应用场景可能涉及更多的 ioctl
命令和参数,以及复杂的设备配置和操作。
ioctl
提供了一个强大的接口,允许用户空间程序与设备驱动程序进行灵活的交互,从而实现设备的配置、控制和数据传输等功能。
首先需要确定自己的设备的名称是什么,可以通过SecureCRT进行查看。在目录/dev下面,通过命令ls /dev/video*
,通过拔插检测插入自己的摄像头的时候,多出来的设备是哪一个,比如我的就是"videos7".
在Linux中一切皆是文件,所以可以通过open()函数,打开这个设备。
// 打开摄像头
int fd_v4l2 = open("/dev/video7", O_RDWR); // 根据secureCRT确定设备
if (fd_v4l2 == -1)
{
perror("open error");
exit(-1);
}
使用V4L2(Video4Linux2) API查询视频设备(如摄像头)的能力(capabilities)。
// 获取功能参数
struct v4l2_capability cap = {};
int res = ioctl(fd_v4l2, VIDIOC_QUERYCAP, &cap);
if (res == -1)
{
perror("ioctl cap");
exit(-1);
}
// 先确定摄像头功能可以使用
if (cap.capabilities & V4L2_CAP_VIDEO_CAPTURE)
{
printf("is a capture device!\n");
}
else
{
printf("is not a capture device!\n");
exit(-1);
}
目的:
代码解析:
struct v4l2_capability cap = {};
:
cap
的v4l2_capability
结构体实例。该结构体用于存储从设备查询到的能力信息。int res = ioctl(fd_v4l2, VIDIOC_QUERYCAP, &cap);
:
ioctl
系统调用向fd_v4l2
描述的视频设备发送VIDIOC_QUERYCAP
命令。&cap
参数是一个指向v4l2_capability
结构体的指针,表示该结构体将用于接收设备的能力信息。res
变量将存储ioctl
调用的返回值,通常为0表示成功,-1表示失败。if (res == -1)
:
ioctl
调用是否成功。如果res
为-1,表示ioctl
调用失败。perror("ioctl cap");
:
ioctl
调用相关的错误消息。在这里,如果ioctl
调用失败,它将打印一个描述错误的消息。exit(-1);
:
ioctl
调用失败,则程序会提前退出。参数说明:
fd_v4l2
:这是一个文件描述符,用于打开和访问V4L2设备(例如摄像头)。这里fd_v4l2
已经是一个有效的、已经打开的设备描述符。VIDIOC_QUERYCAP
:这是一个命令常量,表示要查询设备的能力。&cap
:这是一个指向v4l2_capability
结构体的指针,用于存储从设备查询到的能力信息。这段代码的目的是通过ioctl
调用查询并获取视频设备(如摄像头)的能力信息,并将这些信息存储在v4l2_capability
结构体中。
// 获取摄像头支持的格式
struct v4l2_fmtdesc fmt = {};
fmt.index = 0;
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; // 获取摄像头格式
while ((res = ioctl(fd_v4l2, VIDIOC_ENUM_FMT, &fmt)) == 0)
{
printf("pixformat = %c %c %c %c,description = %s\n",
fmt.pixelformat & 0xff,lcd_p
(fmt.pixelformat >> 8) & 0xff,
(fmt.pixelformat >> 16) & 0xff,
(fmt.pixelformat >> 24) & 0xff,
fmt.description);
fmt.index++;
}
这段代码用于获取摄像头支持的视频格式。以下是详细的解释:
目的:
查询
并列出摄像头支持的所有视频格式。代码解析:
struct v4l2_fmtdesc fmt = {};
:
v4l2_fmtdesc
类型的结构体fmt
,用于描述摄像头支持的视频格式。fmt.index = 0;
:
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
:
while ((res = ioctl(fd_v4l2, VIDIOC_ENUM_FMT, &fmt)) == 0)
:
ioctl
系统调用查询摄像头的视频格式。VIDIOC_ENUM_FMT
是一个请求命令,用于获取指定类型的视频格式。printf
打印每种视频格式的描述信息:
fmt.pixelformat & 0xff
:提取四个字节中的第一个字节,即低位字节。(fmt.pixelformat >> 8) & 0xff
:提取四个字节中的第二个字节。(fmt.pixelformat >> 16) & 0xff
:提取四个字节中的第三个字节。(fmt.pixelformat >> 24) & 0xff
:提取四个字节中的第四个字节,即高位字节。fmt.description
:视频格式的描述信息。参数说明:
fd_v4l2
:摄像头设备文件描述符。VIDIOC_ENUM_FMT
:用于查询摄像头支持的视频格式的ioctl
请求命令。fmt
:一个v4l2_fmtdesc
类型的结构体,用于存储和描述视频格式的详细信息。fmt.index
:视频格式的索引,从0开始逐个增加以获取所有格式。fmt.type
:指定要查询的视频类型,此处为视频捕获类型。总结:这段代码用于查询摄像头支持的所有视频格式,并逐一打印每种格式的描述信息。
// 设置采集通道
int index = 0; // 使用通道0
res = ioctl(fd_v4l2, VIDIOC_S_INPUT, &index);
if (res == -1)
{
perror("ioctl_s_input");
exit(-1);
}
具体来说:
VIDIOC_S_INPUT
是一个 ioctl
命令,用于设置视频输入通道。&index
是传递给 ioctl
的参数,表示要设置的输入通道的索引。在这里,索引为 0
表示设置为第一个视频输入通道。此外,如果 ioctl
调用失败(返回值为 -1
),代码会输出一个错误消息,并退出程序。
简而言之,这段代码的作用是设置摄像头的视频输入通道为第一个通道。
// 设置摄像头采集格式V4L2_PIX_FMT_YUYV格式
struct v4l2_format format = {};
format.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;//指定了要设置的视频流类型为视频捕获
format.fmt.pix.width = 640;
format.fmt.pix.height = 480;
format.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; // YUYV
format.fmt.pix.field = V4L2_FIELD_NONE;//设置视频的字段顺序为无,这意味着视频数据不分为上半部分和下半部分,而是连续的完整帧。
res = ioctl(fd_v4l2, VIDIOC_S_FMT, &format);//调用来设置摄像头的视频格式。VIDIOC_S_FMT是设置格式的命令。
if (res == -1)
{
perror("ioctl s_fmt");
exit(-1);
}
上面的视频格式为YUYV格式的。YUYV是一种常见的YUV 4:2:2格式,其中Y表示亮度,U和V表示色度,而“YUYV”表示这些组件的排列方式。
// 设置摄像头采集格式--24位RGB图
struct v4l2_format format = {};
format.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
format.fmt.pix.width = 640;
format.fmt.pix.height = 480;
format.fmt.pix.pixelformat = V4L2_PIX_FMT_RGB24; // 设置为RGB24
format.fmt.pix.field = V4L2_FIELD_NONE;
res = ioctl(fd_v4l2, VIDIOC_S_FMT, &format);
if (res == -1)
{
perror("ioctl s_fmt");
exit(-1);
}
除开上面举例的两种格式,其实还有很多其他的格式:
V4L2(Video4Linux2)框架支持多种像素格式,具体取决于摄像头硬件和驱动的支持。YUYV(也称为YUV 4:2:2)是其中的一种常见格式,但还有其他的格式可以选择。
以下是一些常见的V4L2像素格式:
此外,还有许多其他的格式,如YUV422、YUV411、YUV410等,具体可根据需求和硬件支持进行选择。
在使用VIDIOC_ENUM_FMT
命令查询摄像头支持的所有格式时,可以看到摄像头支持哪些格式。
主要涉及与V4L2(Video4Linux2)子系统的交互,用于在Linux上捕获视频流。
申请缓存空间:
struct v4l2_requestbuffers req = {};
req.count = 4;
req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory = V4L2_MEMORY_MMAP;
res = ioctl(fd_v4l2, VIDIOC_REQBUFS, &req);
if (res == -1)
{
perror("ioctl reqbufs");
exit(-1);
}
// 申请临时缓冲区
current.start = malloc(max_len);
if (current.start == NULL)
{
perror("malloc");
exit(-1);
}
v4l2_requestbuffers
结构体来请求缓冲区。count = 4
:请求4个缓冲区,通常是为了连续地处理视频帧。type
:请求的缓冲区类型为视频捕获。memory
:请求使用内存映射I/O (MMAP) 方式管理缓冲区。分配映射入队:
size_t i, max_len = 0;
for (i = 0; i < 4; i++)
{
struct v4l2_buffer buf = {};
buf.index = i;
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
res = ioctl(fd_v4l2, VIDIOC_QUERYBUF, &buf);
if (res == -1)
{
perror("ioctl querybuf");
exit(-1);
}
// 判读并记录最大长度,以适配各个图帧
if (buf.length > max_len)
max_len = buf.length;
// 映射
buffer[i].length = buf.length;
buffer[i].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE, MAP_SHARED, fd_v4l2, buf.m.offset);
if (buffer[i].start == MAP_FAILED)
{
perror("mmap");
exit(-1);
}
// 入队
res = ioctl(fd_v4l2, VIDIOC_QBUF, &buf);
if (res == -1)
{
perror("ioctl qbuf");
exit(-1);
}
}
VIDIOC_QUERYBUF
命令会为每个缓冲区返回其信息,如长度和偏移。mmap
函数映射设备内存到用户空间。这使得用户空间程序可以直接访问设备内存,这在处理视频流时非常有用。VIDIOC_QBUF
命令将缓冲区加入到驱动的输入队列中,等待被填充数据。总的来说,这段代码的目标是为V4L2捕获视频流准备缓冲区,并将这些缓冲区映射到用户空间,以便应用程序可以直接读取或写入这些缓冲区的内容。
// 启动摄像头
enum v4l2_buf_type buf_type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
res = ioctl(fd_v4l2, VIDIOC_STREAMON, &buf_type);
if (res == -1)
{
perror("ioctl streamon");
exit(-1);
}
// 延时
sleep(1);
启动摄像头数据流,并在启动后延迟1秒。
VIDIOC_STREAMON
: 这是一个ioctl
操作,用于开始摄像头的数据流。一旦这个操作被调用,摄像头开始从物理硬件捕获图像数据。
sleep(1)
: 这是一个简单的延时操作,使得程序暂停1秒。
在摄像头启动后延迟1秒可能是为了确保摄像头开始稳定工作,或者为了某种初始化操作。
如果应用中有特定的原因需要延迟1秒,那么这是一个合适的做法。如果没有,可能可以考虑移除这个延时或者根据实际需求调整延时时间。
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <fcntl.h>
#include <sys/stat.h>
#include <sys/types.h>
#include <unistd.h>
#include <sys/ioctl.h>
#include <sys/mman.h>
#include <linux/videodev2.h>
#include <netinet/in.h> // TCP/IP协议所需头文件
#include <sys/socket.h>
typedef struct
{
char *start;
size_t length;
} buffer_t;
buffer_t buffer[4]; // 映射所需的素材缓存在数组中
buffer_t current; // 保存当前输出的一帧
int *plcd; // 用于存储屏幕缓冲区的首地址,以便后续对屏幕进行读写操作
int *lcd_p; // 指向屏幕缓冲区的特定位置
int lcd_fd; // 用于存储屏幕设备文件的文件描述符
void *lcd_init()
{
lcd_fd = open("/dev/fb0", O_RDWR);
if (lcd_fd == -1)
{
perror("open lcd_file error\n");
return MAP_FAILED;
}
plcd = (int *)mmap(NULL, 800 * 480 * 4, PROT_READ | PROT_WRITE, MAP_SHARED, lcd_fd, 0);
return plcd;
}
int uninit_lcd()
{
close(lcd_fd);
if (munmap(lcd_p, 800 * 480 * 4) == -1)
{
return -1;
}
return 0;
}
unsigned int sign3 = 0;
//YUYV转rgb
int yuyv2rgb(int y, int u, int v)
{
unsigned int pixel24 = 0;
unsigned char *pixel = (unsigned char *)&pixel24;
int r, g, b;
static int ruv, guv, buv;
if (sign3)
{
sign3 = 0;
ruv = 1159 * (v - 128);
guv = 380 * (u - 128) + 813 * (v - 128);
buv = 2018 * (u - 128);
}
r = (1164 * (y - 16) + ruv) / 1000;
g = (1164 * (y - 16) - guv) / 1000;
b = (1164 * (y - 16) + buv) / 1000;
if (r > 255)
r = 255;
if (g > 255)
g = 255;
if (b > 255)
b = 255;
if (r < 0)
r = 0;
if (g < 0)
g = 0;
if (b < 0)
b = 0;
pixel[0] = r;
pixel[1] = g;
pixel[2] = b;
return pixel24;
}
//YUYV转rgb(调用yuyv2rgb函数)
int yuyv2rgb0(unsigned char *yuv, unsigned char *rgb, unsigned int width, unsigned int height)
{
unsigned int in, out;
int y0, u, y1, v;
unsigned int pixel24;
unsigned char *pixel = (unsigned char *)&pixel24;
unsigned int size = width * height * 2;
for (in = 0, out = 0; in < size; in += 4, out += 6)
{
y0 = yuv[in + 0];
u = yuv[in + 1];
y1 = yuv[in + 2];
v = yuv[in + 3];
sign3 = 1;
pixel24 = yuyv2rgb(y0, u, v);
rgb[out + 0] = pixel[0];
rgb[out + 1] = pixel[1];
rgb[out + 2] = pixel[2];
pixel24 = yuyv2rgb(y1, u, v);
rgb[out + 3] = pixel[0];
rgb[out + 4] = pixel[1];
rgb[out + 5] = pixel[2];
}
return 0;
}
int main()
{
lcd_init();
// 打开摄像头
int fd_v4l2 = open("/dev/video7", O_RDWR); // 根据secureCRT确定设备
if (fd_v4l2 == -1)
{
perror("open error");
exit(-1);
}
// 获取功能参数
struct v4l2_capability cap = {};
int res = ioctl(fd_v4l2, VIDIOC_QUERYCAP, &cap);
if (res == -1)
{
perror("ioctl cap");
exit(-1);
}
// 先确定摄像头功能可以使用
if (cap.capabilities & V4L2_CAP_VIDEO_CAPTURE)
{
printf("is a capture device!\n");
}
else
{
printf("is not a capture device!\n");
exit(-1);
}
// 获取摄像头支持的格式
struct v4l2_fmtdesc fmt = {};
fmt.index = 0;
fmt.type = V4L2_BUF_TYPE_VIDEO_CAPTURE; // 获取摄像头格式
while ((res = ioctl(fd_v4l2, VIDIOC_ENUM_FMT, &fmt)) == 0)
{
printf("pixformat = %c %c %c %c,description = %s\n",
fmt.pixelformat & 0xff,lcd_p
(fmt.pixelformat >> 8) & 0xff,
(fmt.pixelformat >> 16) & 0xff,
(fmt.pixelformat >> 24) & 0xff,
fmt.description);
fmt.index++;
}
// 设置采集通道
int index = 0; // 使用通道0
res = ioctl(fd_v4l2, VIDIOC_S_INPUT, &index);
if (res == -1)
{
perror("ioctl_s_input");
exit(-1);
}
// 设置摄像头采集格式
struct v4l2_format format = {};
format.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
format.fmt.pix.width = 640;
format.fmt.pix.height = 480;
format.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV; // YUYV
format.fmt.pix.field = V4L2_FIELD_NONE;
res = ioctl(fd_v4l2, VIDIOC_S_FMT, &format);
if (res == -1)
{
perror("ioctl s_fmt");
exit(-1);
}
// 申请缓存空间
struct v4l2_requestbuffers req = {};
req.count = 4;
req.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
req.memory = V4L2_MEMORY_MMAP;
res = ioctl(fd_v4l2, VIDIOC_REQBUFS, &req);
if (res == -1)
{
perror("ioctl reqbufs");
exit(-1);
}
// 分配映射入队
size_t i, max_len = 0;
for (i = 0; i < 4; i++)
{
struct v4l2_buffer buf = {};
buf.index = i; // 0~3展现4帧图片
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
res = ioctl(fd_v4l2, VIDIOC_QUERYBUF, &buf);
if (res == -1)
{
perror("ioctl querybuf");
exit(-1);
}
// 判读并记录最大长度,以适配各个图帧
if (buf.length > max_len)
max_len = buf.length;
// 映射
buffer[i].length = buf.length;
buffer[i].start = mmap(NULL, buf.length, PROT_READ | PROT_WRITE, MAP_SHARED, fd_v4l2, buf.m.offset);
if (buffer[i].start == MAP_FAILED)
{
perror("mmap");
exit(-1);
}
// 入队
res = ioctl(fd_v4l2, VIDIOC_QBUF, &buf);
if (res == -1)
{
perror("ioctl qbuf");
exit(-1);
}
}
// 申请临时缓冲区
current.start = malloc(max_len);
if (current.start == NULL)
{
perror("malloc");
exit(-1);
}
// 启动摄像头
enum v4l2_buf_type buf_type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
res = ioctl(fd_v4l2, VIDIOC_STREAMON, &buf_type);
if (res == -1)
{
perror("ioctl streamon");
exit(-1);
}
// 延时
sleep(1);
// RGB缓冲区
char rgb[640 * 480 * 3];
// 采集数据
while (1)
{
struct v4l2_buffer buf = {};
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
// 出队
res = ioctl(fd_v4l2, VIDIOC_DQBUF, &buf);
if (res == -1)
{
perror("ioctl dqbuf");
}
// 拷贝数据
memcpy(current.start, buffer[buf.index].start, buf.bytesused);
current.length = buf.bytesused;
// 入队
res = ioctl(fd_v4l2, VIDIOC_QBUF, &buf);
if (res == -1)
{
perror("ioctl qbuf");
}
// YUYV转RGB
yuyv2rgb0(current.start, rgb, 640, 480);
// 显示LCD
int x, y;
for (y = 0; y < 480; y++)
{
for (x = 0; x < 640; x++)
{
*(plcd + y*800 + x) = rgb[3 * (y*640 + x)] << 16 | rgb[3 * (y*640 + x) + 1] << 8 | rgb[3 * (y*640 + x) + 2];
}
}
}
// 关闭摄像头采集
buf_type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
res = ioctl(fd_v4l2, VIDIOC_STREAMOFF, &buf_type);
if (res == -1)
{
perror("ioctl streamoff");
exit(-1);
}
// 解除映射
for (i = 0; i < 4; i++)
{
munmap(buffer[i].start, buffer[i].length);
}
free(current.start);
sleep(1); // 延时一下
close(fd_v4l2);
uninit_lcd();
return 0;
}
这之前的代码与前面的雷同,只是不需要YUYV转换RGB的两个函数了
// 设置摄像头采集格式
struct v4l2_format format = {};
format.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
format.fmt.pix.width = 640;
format.fmt.pix.height = 480;
format.fmt.pix.pixelformat = V4L2_PIX_FMT_RGB24; // 设置为RGB24
format.fmt.pix.field = V4L2_FIELD_NONE;
res = ioctl(fd_v4l2, VIDIOC_S_FMT, &format);
if (res == -1)
{
perror("ioctl s_fmt");
exit(-1);
}
...//与上面YUYV的代码雷同
// 采集数据
while (1)
{
struct v4l2_buffer buf = {};
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
// 出队
res = ioctl(fd_v4l2, VIDIOC_DQBUF, &buf);
if (res == -1)
{
perror("ioctl dqbuf");
}
// 拷贝数据
memcpy(current.start, buffer[buf.index].start, buf.bytesused);
current.length = buf.bytesused;
// 入队
res = ioctl(fd_v4l2, VIDIOC_QBUF, &buf);
if (res == -1)
{
perror("ioctl qbuf");
}
// 直接显示LCD (假设摄像头已经输出24位RGB数据)
memcpy(plcd, current.start, current.length); // 直接将数据拷贝到LCD缓冲区
}