通常情况下,我们必须用摄像机捕捉实时画面。提供了一个非常简单的界面。让我们从摄像头捕捉一段视频(我使用的是我笔记本电脑内置的网络摄像头) ,将其转换成灰度视频并显示出来。只是一个简单的任务开始。
要捕获视频,你需要创建一个 VideoCapture 对象。它的参数可以是设备索引或视频文件的名称。设备索引就是指定摄像头的编号(索引)。正常情况下,一个摄像头会被连接(as in my case)。所以我简单地传0(或-1)。你可以通过传递1来选择第二个相机,以此类推。在此之后,你可以逐帧捕获,但是在最后,不要忘记释放 Capture 对象。
示例代码:
import numpy as np
import cv2 as cv
cap = cv.VideoCapture(0)
while(True):
# 一帧一帧捕捉
ret, frame = cap.read()
# 我们对帧的操作在这里
gray = cv.cvtColor(frame, cv.COLOR_BGR2GRAY)
# 显示返回的每帧
cv.imshow('frame',gray)
if cv.waitKey(1) & 0xFF == ord('q'):
break
# 当所有事完成,释放 VideoCapture 对象
cap.release()
cv.destroyAllWindows()
cap.read() 返回一个 bool 值(True/False)。如果加载成功,它会返回True。因此,你可以通过这个返回值判断视频是否结束。
有时,cap 可能没有初始化 capture。在这种情况下,此代码显示错误。你可以通过该方法 cap.isOpened() 检查它是否初始化。如果它是 True,那么是好的,否则用 cap.open() 打开在使用。
你也可以通过使用 cap.get(propId) 函数获取一些视频的特征,这里的 propld 是一个 0-18 的数字,每个数字代表视频的一个特征 (如果这个视频有),或者使用 cv::VideoCapture::get() 获取全部细节。它们中有些值可以使用 cap.set(propId, value) 修改,Value 就是你想要的新值。
例如:我可以用 cap.get(cv.CAP_PROP_FRAME_WIDTH) 获得宽, cap.get(cv.CAP_PROP_FRAME_HEIGHT) 获得高。它返回的是 640x480,但是我想把它修改为 320x240。仅使用 ret = cap.set(cv.CAP_PROP_FRAME_WIDTH,320) 和 ret = cap.set(cv.CAP_PROP_FRAME_HEIGHT,240)
Note * 如果给你报错了,确保用任意其他的相机程序 (如 Linux 下的 Cheese 程序) 可以正常工作。
我们捕获视频,逐帧处理然后保存下来。对于图像来说,是非常的简单,就用 cv.imwrite()。这里需要做更多的工作。
这次我们创建一个 VideoWriter 对象。我们应该指定输出文件的名字 (例如:output.avi)。然后我们应该指定 FourCC 码 (下一段有介绍)。然后应该传递每秒帧数和帧大小。最后一个是 isColor flag。如果是 True,编码器期望彩色帧,否则它适用于灰度帧。
FourCC 是用于指定视频解码器的 4 字节代码。这里 fourcc.org 是可用编码的列表。它取决于平台,下面编码就很好。
对于 MJPG, FourCC 的代码作为 **cv.VideoWriter_fourcc(‘M’,‘J’,‘P’,‘G’) **或 **cv.VideoWriter_fourcc(*‘MJPG’) **传递。
下面的代码从相机捕获,在垂直方向翻转每一帧然后保存它。
示例代码:
import numpy as np
import cv2 as cv
cap = cv.VideoCapture(0)
# 声明编码器和创建 VideoWrite 对象
fourcc = cv.VideoWriter_fourcc(*'XVID')
out = cv.VideoWriter('output.avi',fourcc, 20.0, (640,480))
while(cap.isOpened()):
ret, frame = cap.read()
if ret==True:
frame = cv.flip(frame,0)
# 写入已经翻转好的帧
out.write(frame)
cv.imshow('frame',frame)
if cv.waitKey(1) & 0xFF == ord('q'):
break
else:
break
# 释放已经完成的工作
cap.release()
out.release()
cv.destroyAllWindows()
它和从相机捕获一样,只需要用视频文件名更改相机索引。同时显示 frame,为 cv.waitKey() 设置合适的时间。如果它太小,视频将非常快,如果太大,视频将很慢 (嗯,这就是显示慢动作)。正常情况下,25 毫秒就可以了。
示例代码:
import numpy as np
import cv2 as cv
cap = cv.VideoCapture('vtest.avi')
while(cap.isOpened()):
ret, frame = cap.read()
gray = cv.cvtColor(frame, cv.COLOR_BGR2GRAY)
cv.imshow('frame',gray)
if cv.waitKey(1) & 0xFF == ord('q'):
break
cap.release()
cv.destroyAllWindows()
Note * 确保 ffmpeg 和 gstreamer 安装合适的版本。有时,使用 Video Capture 是比较头痛的,主要是因为错误的安装 ffmpeg 或 gstreamer。
对于不知道怎么处理图片的可以看我上一篇博文
【OpenCV学习笔记02】- 图像入门