从摄像头采集图像,FFmpeg推流(RTSP/RTMP)---开发总结
我的一篇博文《如何用FFmpeg API采集摄像头视频和麦克风音频。。。》已经介绍了如何从视音频采集设备获取数据,并且编码、保存文件到本地。但是,有些应用并不是把流保存成文件,而是需要发送到网络的,比如现在很典型的一种应用场景:把流推送到RTSP、RTMP、HLS服务器,由服务器转发给其他用户观看。很多开发者也是调用FFmpeg API来实现推流的,用FFmpeg 做一个推流器很简单,调用流程跟输出文件的基本相同,基于前面博文的例子稍微修改就可以做出一个采集+编码+推流的软件。这里,我先假设读者已经会用FFmpeg API保存或录制文件,但没有实现过推流功能,我将给大家说一下做推流跟录制文件的区别,还有说一下要注意的几个问题,希望能帮助大家在开发推流功能时减少一些问题的出现。
首先,做推流和录制文件都需要调用到封装器对象的接口,我们需要定义一个封装器(或叫混合器):
AVFormatContext* m_outputAVFormatCxt;
创建封装器对象,根据输入的协议类型生成对应的封装器。
比如,对于RTSP,我们生成如下的推流封装器:
res = avformat_alloc_output_context2(&m_outputAVFormatCxt, NULL, "rtsp", m_outputUrl.c_str());
对于RTMP,生成封装器的代码如下:
res = avformat_alloc_output_context2(&m_outputAVFormatCxt, NULL, "flv", m_outputUrl.c_str());
其中,上面的m_outputUrl是推流地址。
然后,向封装器添加要发送的流(视频、音频),设置每个流的属性。假如我们要推送的流来源于一个文件,那就要先把文件的流枚举出来,获得每个流的信息,然后把这几个流“插入”到封装器里面,这样封装器才能识别这些流的格式。下面是从文件提取流的信息并添加到封装器的代码:
AVOutputFormat* fmt = m_outputAVFormatCxt->oformat;
// fmt->video_codec = AV_CODEC_ID_H264;
// fmt->audio_codec = AV_CODEC_ID_AAC;
for (int i = 0; i < m_inputAVFormatCxt->nb_streams; i++)
{
AVStream *in_stream = m_inputAVFormatCxt->streams[i];
if(in_stream->codec->codec_type != AVMEDIA_TYPE_VIDEO && in_stream->codec->codec_type != AVMEDIA_TYPE_AUDIO) //忽略掉不是视频和音频的流
{
continue;
}
AVStream *out_stream = avformat_new_stream(m_outputAVFormatCxt, in_stream->codec->codec);
if (!out_stream)
{
TRACE("can not new out stream");
}
res = avcodec_copy_context(out_stream->codec, in_stream->codec);
if (res < 0)
{
string strError = "can not copy context, filepath: " + m_filePath + ",errcode:" + to_string(res) + ",err msg:" + av_make_error_string(m_tmpErrString, AV_ERROR_MAX_STRING_SIZE, res);
TRACE("%s \n", strError.c_str());
}
out_stream->codec->codec_tag = 0;
if (m_outputAVFormatCxt->oformat->flags & AVFMT_GLOBALHEADER)
{
out_stream->codec->flags |= CODEC_FLAG_GLOBAL_HEADER;
}
}
我们调用avformat_new_stream生成一个新的流,然后调用avcodec_copy_context将文件的视频流或音频流的上下文属性拷贝到新流的目标上下文中,这样新的流就具有了和输入流同样的属性了(编码格式、分辨率、采样率等)。
发送数据到网络可能因为网络阻塞而发送超时,超时有可能发生在连接或中间数据传输的时候,如果连接超时,用户程序就会很久阻塞在连接函数里。解决这个问题的方法是:我们设置一个回调函数,FFmpeg在发送数据或连接超时会调用到该回调,如果超过某个时间,我们在回调里返回某个标志,让IO函数马上返回,用户的程序就不会一直卡在IO函数里。设置回调函数的代码如下:
m_outputAVFormatCxt->flags |= AVFMT_FLAG_NONBLOCK;
av_dump_format(m_outputAVFormatCxt, 0, m_outputUrl.c_str(), 1);
if (!(fmt->flags & AVFMT_NOFILE))
{
AVIOInterruptCB icb = {interruptCallBack,this};
m_dwStartConnectTime = GetTickCount();
// res = avio_open(&m_outputAVFormatCxt->pb, m_outputUrl.c_str(), AVIO_FLAG_WRITE);
res = avio_open2(&m_outputAVFormatCxt->pb, m_outputUrl.c_str(), AVIO_FLAG_WRITE, &icb, NULL);
if (res < 0)
{
string strError = "can not open output io, URL:" + m_outputUrl;
TRACE("%s \n", strError.c_str());
return FALSE;
}
}
用户定义的回调函数如下所示:
static int interruptCallBack(void *ctx)
{
FileStreamPushTask * pSession = (FileStreamPushTask*) ctx;
//once your preferred time is out you can return 1 and exit from the loop
if(pSession->CheckTimeOut(GetTickCount()))
{
return 1;
}
//continue
return 0;
}
BOOL FileStreamPushTask::CheckTimeOut(DWORD dwCurrentTime)
{
if(dwCurrentTime < m_dwLastSendFrameTime) //CPU时间回滚
{
return FALSE;
}
if(m_stop_status)
return TRUE;
if(m_bInited)
{
if(m_dwLastSendFrameTime > 0)
{
if((dwCurrentTime - m_dwLastSendFrameTime) > 15000) //发送过程中超时
{
return TRUE;
}
}
}
else
{
if((dwCurrentTime - m_dwStartConnectTime) > 5000) //连接超时
{
TRACE("Connect timeout! \n");
m_stop_status = true;
return TRUE;
}
}
return FALSE;
}
接着,就开始连接服务器,并与服务器进行握手交互。
AVDictionary* options = NULL;
if(bIsRTSP)
av_dict_set(&options, "rtsp_transport", "tcp", 0);
av_dict_set(&options, "stimeout", "8000000", 0); //设置超时时间
res = avformat_write_header(m_outputAVFormatCxt, &options);
TRACE("avformat_write_header() return: %d\n", res);
if (res < 0)
{
string strError = "can not write outputstream header, URL:" + m_outputUrl + ",errcode:" + to_string(res);
TRACE("%s \n", strError.c_str());
m_bInited = FALSE;
return FALSE;
}
m_bInited = TRUE;
如果执行到这一步而没有错误,表示已经成功连接服务器,并可以向服务器推流了。
而发送数据就简单了,流程跟输出文件的一样。我们调用av_interleaved_write_frame 函数往封装器写入一个帧,让封装器打包数据和发送到服务器。但是,有个地方要注意,就是从文件读出来的帧(输入帧)的时间戳要转换为封装器对应输出流的时基。比如对于视频流,我们需要这样处理:
if(in_stream->codec->codec_type == AVMEDIA_TYPE_VIDEO) //视频
{
if(pkt.pts == AV_NOPTS_VALUE) //没有时间戳
{
AVRational time_base1 = out_stream->time_base;
//Duration between 2 frames (us)
int64_t calc_duration =(double)AV_TIME_BASE/av_q2d(in_stream->r_frame_rate);
pkt.pts = (double)(nVideoFramesNum*calc_duration)/(double)(av_q2d(time_base1)*AV_TIME_BASE);
pkt.dts = pkt.pts;
pkt.duration = (double)calc_duration/(double)(av_q2d(time_base1)*AV_TIME_BASE);
}
else
{
pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
pkt.pos = -1;
}
nVideoFramesNum++;
}
// write the compressed frame to the output format
int nError = av_interleaved_write_frame(m_outputAVFormatCxt, &pkt);
推流完毕,我们要关闭推流器,其实是关闭封装器对象,我们一般会这样关闭:
int res = av_write_trailer(m_outputAVFormatCxt);
if (!(m_outputAVFormatCxt->oformat->flags & AVFMT_NOFILE))
{
if(m_outputAVFormatCxt->pb)
{
avio_close(m_outputAVFormatCxt->pb);
m_outputAVFormatCxt->pb = nullptr;
}
}
但是这样写还不完善。经测试,如果前面的连接握手失败了,则强行调用av_write_trailer会出错的。所以,还需要加个标志变量判断一下连接是否已经初始化成功(我用布尔变量m_bInited表示),修改后的代码如下:
if (m_outputAVFormatCxt)
{
if(m_bInited)
{
int res = av_write_trailer(m_outputAVFormatCxt);
}
if (!(m_outputAVFormatCxt->oformat->flags & AVFMT_NOFILE))
{
if(m_outputAVFormatCxt->pb)
{
avio_close(m_outputAVFormatCxt->pb);
m_outputAVFormatCxt->pb = nullptr;
}
}
avformat_free_context(m_outputAVFormatCxt);
m_outputAVFormatCxt = nullptr;
}
下一篇: Storm目录贴