C#实现语音视频录制-附demo源码
在很多语音视频软件系统中,经常有将实时的音频或视频录制为文件保存到磁盘的需求,比如,视频监控系统中录制监控到的视频、视频会议系统中录制整个会议的过程、语音通话系统中录制完整的对话内容、等等。
mfile组件(oraycn.mfile.dll)是傲瑞实用组件之一,它可以将原始的语音数据和视频数据按照指定的格式进行编码,并将它们写入到视频文件(如.mp4)中。
一.缘起
最近正在做的一个网络招聘平台的项目,其中有一个模块是这样的,应聘者可以通过该系统的客户端录制自己的视频(自我介绍)上传到服务器,而后,招聘者会在合适的时候浏览这些应聘者的视频。该模块涉及到的主要技术就是语音视频录制技术,它需要把从麦克风采集到的语音数据和从摄像头采集到的视频数据编码并写到.mp4文件中。
要完成这些功能,具体来说,需要解决如下几个技术问题:
(1)麦克风数据采集
(2)摄像头数据采集
(3)音频数据编码
(4)视频数据编码
(5)将编码后的数据按.mp4文件格式写入到文件容器中。
(6)保证音频视频播放的同步。
二.demo实现
如果要从头开始一步步解决这些问题,将是非常艰难的挑战。幸运的是,我们可以通过已有组件的组合来实现这些功能,语音视频数据的采集我们可以借助omcs框架完成,后续的语音视频编码并生成mp4文件,我们可以借助mfile组件完成。为了更方便地讲解,这里我们将给出一个具体的demo,它可以录制从本地摄像头和本地麦克风采集的数据并生成mp4文件。demo运行的截图如下所示:
接下来,我们来说说在这个demo中是如何一个个解决上述问题的。
1.语音数据采集
我们可以使用omcs的microphoneconnector组件连接到自己的麦克风设备,这样,扬声器就会播放采集到的语音,而且,我们可以通过通过imultimediamanager暴露的audioplayed事件,来捕获正在播放的语音数据。
2.视频数据采集
同样的,我们可以使用cameraconnector控件连接到自己的摄像头设备,然后,定时器每隔100ms(假设帧频为10fps)调用其getcurrentimage方法获得正在绘制的bitmap。
3.后续步骤
后续的4步都可以交由mfile组件搞定,我们大概看一下mfile组件中videofilemaker类的签名,就知道怎么做了:
mfile 结构
对于使用者而言,mfile组件中的主要类的结构图如下所示:
其中,audiofilemaker用于生成音频文件、silencevideofilemaker用于生成无声的视频文件、而videofilemaker用于生成既有声音又有图像的普通视频文件。这三个类都从基类basemaker继承,它们的使用方式也是一致的。接下来,我们仅仅详细讲解videofilemaker类的使用,silencevideofilemaker 和 audiofilemaker的使用方法可以类推之。
下面是videofilemaker类的public方法的签名
代码如下:
public class videofilemaker :idisposable { /// <summary> /// 初始化视频文件。 /// </summary> /// <param name="filepath">文件路径</param> /// <param name="videocodec">视频编码格式</param> /// <param name="videowidth">视频宽度</param> /// <param name="videoheight">视频高度</param> /// <param name="videoframerate">帧频</param> /// <param name="audiocodec">音频编码格式</param> /// <param name="audiosamplerate">音频采样率。【注:采样位数必须为16位】</param> /// <param name="audiochannelcount">声道数</param> /// <param name="autosynctoaudio">如果是实时录制,则可传入true,以音频为基准进行同步。</param> void initialize(string filepath, videocodectype videocodec, int videowidth, int videoheight, int videoframerate, audiocodectype audiocodec, int audiosamplerate, int audiochannelcount, bool autosynctoaudio); /// <summary> /// 添加音频帧。 /// </summary> void addaudioframe(byte[] audioframe); /// <summary> /// 添加视频帧。如果autosynctoaudio开启,则自动同步到音频。 /// </summary> void addvideoframe(bitmap frame); /// <summary> /// 添加视频帧。 /// </summary> /// <param name="frame">视频帧</param> /// <param name="timestamp">离开始时的时间长度</param> void addvideoframe(bitmap frame, timespan timestamp); /// <summary> /// 关闭视频文件。 /// </summary> /// <param name="waitfinished">如果还有帧等待写入文件,是否等待它们全部写入文件。</param> void close(bool waitfinished); }
首先调用initialize方法完成初始化,然后,循环调用addaudioframe和addvideoframe方法,当完成视频录制时,则调用close方法,即可。很简单,不是吗?
4.主要代码
首先,我们以aa01用户登录到omcs服务器,然后,在拖拽一个cameraconnector控件和一个microphoneconnector组件到主窗体上,然后,让它们都连到自己的摄像头和麦克风。
this.multimediamanager = multimediamanagerfactory.getsingleton(); this.multimediamanager.initialize("aa01", "", "127.0.0.1", 9900); this.cameraconnector1.beginconnect("aa01"); this.microphoneconnector1.beginconnect("aa01");
接下来,我们初始化videofilemaker组件:
this.videofilemaker.initialize("test.mp4", videocodectype.h264, this.multimediamanager.cameravideosize.width, this.multimediamanager.cameravideosize.height, 10, audiocodectype.aac, 16000, 1, true); this.timer = new system.threading.timer(new system.threading.timercallback(this.callback), null ,0, 100); this.multimediamanager.audioplayed += new esbasic.cbgeneric<byte[]>(multimediamanager_audioplayed);
参数中设定,使用h.264对视频进行编码,使用aac对音频进行编码,并生成mp4格式的文件。然后,我们可以通过omcs获取实时的音频数据和视频数据,并将它们写到文件中。
void multimediamanager_audioplayed(byte[] audio) { this.videofilemaker.addaudioframe(audio); } private void callback(object state) { bitmap bm = this.cameraconnector1.getcurrentimage(); this.videofilemaker.addvideoframe(bm); }
当想结束录制时,则调用close方法:
this.videofilemaker.close(true);
这样录制生成的test.mp4文件就可以直接用我们的qq影音或暴风影音来播放了。
更多细节,请查看demo源码。
三.demo下载
2014.11.26 现在录制本地的语音、视频、屏幕的最好的方案是mcapture + mfile,而不是通过omcs绕一大圈,相应的demo源码下载:oraycn.recorddemo.rar 。
当然,如果是远程录制语音、视频、屏幕,最好的方案是omcs + mfile。
以上就是本文针对c#实现语音视频录制-附demo源码的全部内容,希望大家喜欢。
上一篇: Java如何实现HTTP断点续传功能
下一篇: 寒性的蔬菜有哪些