1 实时流
实时流编码时,我们一般不进行b帧编码,但是文件存储时为了减小大小,会增加b帧,实时流只带了I,P帧,那就会好很多
2 普通文件
很多文件带了b帧,所以要使用解码时间去同步,如果使用pts,很多人一定会被其时间搞混。
我们可以正确使用AVFrame 的pts 和pkt-dts 去保存正常的时间,如果不给其正确赋值,那么值就如下所示,是novalue。
那么获取pts和dts 去赋值给avframe就行了,注意时间基。如果不进行时间延时,那么文件会被cpu 快速读完,这就看cpu有多强了,当然,为了仅仅是测试,当然可以直接使用帧率,间隔时间延时就行,如果做播放器就不能这样了,我们要严格掐时间,按照秒表去对。
int main()
{
c_test test;
std::thread t([&test]() {
// 在这里编写你的匿名函数的代码
std::cout << "Hello from the new thread!" << std::endl;
test.func_init("G:/record/A1_.mp4");
test.Start();
});
while (1)
{
AVFrame* f = test.GetData();
if (f != NULL)
{
int h = f->height;
int w = f->width;
cv::Mat mat(h, w, CV_8UC3,f->data[0]);
cv::Mat matBGR;
cv::cvtColor(mat, matBGR,cv::COLOR_RGB2BGR/* cv::COLOR_BGR2YUV_I420*/);
cv::imshow("show", matBGR);
std::cout << "the pts is :" << f->pts<<std::endl;
av_freep(&f->data[0]);
av_frame_free(&f);
}
if (cv::waitKey(30) == 'q')
break;
}
test.Stop();
std::cout << "end of this thread" << std::endl;
//test.func_seek(10);
t.join();
}
以上代码的RGB到BGR的转化其实没有必要使用, 实际播放的时候,我们直接渲染RGB24,RGBA,甚至YUV,NV12 都可以,这里为了方便,把这个转化成了BGR24,不过是想让opencv 直接渲染,由于opencv 中 bgr的rgb的颜色交换,播放时看起来不舒服,所以转化一下更符合实际,不转化也没什么。如果不想转化,甚至直接使用nv12,yuv420,rgb24,为了方便演示可以使用sdl去播放,如果对opengl熟悉,自己就写一段代码去播放。文章可以到我其他的文章里面找,我应该都写过。
获取时间基
AVRational time_base = input_ctx->streams[video_stream]->time_base;
AVRational time_base_q = { 1,AV_TIME_BASE }; // AV_TIME_BASE_Q;
要正确播放,一定要使用dts,也就是解码时间,而非pts,对于带b帧的视频来说一定是如此。
if (v_isrealtime == false && video_stream == packet.stream_index)
{
//这里需要更加精确的计算
if (v_starttime == -1)
v_starttime = av_gettime();
//av_usleep(30 * 1000);
int64_t pts_time = av_rescale_q(packet.dts, time_base, time_base_q);
if (v_startptstime == -1)
v_startptstime = pts_time;
int64_t N = av_gettime() - v_starttime;
int64_t S = pts_time - v_startptstime;
if (S > N)
{
av_usleep(S-N);
std::cout << "sleep:" << S - N << std::endl;
}
}
播放测试的时候可以使用pc上有秒表卡住时间,没有就使用手机也可以,两个相差一直是同样的描述,持续时间长一点
同步时一定要使用系统时间和播放时间相对应,如果文件有跳帧拖拉进度条和快放的需求,更加要注意,其实以上代码已经包含了跳帧和快放的基本需求,研究一下就知道了。