FFmpeg有什么用?

FFmpeg有什么用?,第1张

FFmpeg有非常强大的功能包括视频采集功能、视频格式转换、视频抓图、给视频加水印等,核心功能作用如下。

视频采集功能

ffmpeg视频采集功能非猜做仿常强大,不仅可以采集视频采集卡或USB摄像头的图像,还可

以进行屏幕录制,同时还支持以RTP方式将视频流传送给支持RTSP的流媒体服务器,支持直播应用。

ffmpeg在Linux下的视频采集

在Linux平台上,ffmpeg对V4L2的视频设备提供了很好的支持,如:

./ffmpeg -t 10 -f video4linux2 -s 176*144 -r 8 -i /dev/video0 -vcodec h263 -f rtp rtp://192.168.1.105:5060 >/tmp/ffmpeg.sdp

以上命令表示:采集10秒钟视频,对video4linux2视频设备进行采集,采集QCIF(176*144)的视频,每秒8帧,视频设备为/dev/video0,视频编码为h263,输出格式为RTP,后面定义了IP地址及端口(WWW.PC841.COM 百事网),将该码流所对应的SDP文件重定向到/tmp/ffmpeg.sdp中,将此SDP文件上传到流媒体服务器就可以实现直播了。

ffmpeg在windows下的视频采集

在windows下关于ffmpeg视频采集的资料非常少,但是ffmpeg还是支持windows下视频采集的。ffmpeg支持windows下video for windows(VFW)设备的视频采集,不过VFW设备已经过时穗纤,正在被WDM的视频设备所取代,但是ffmpeg还没有支持WDM的计划,不过好像有胡闷将WDM转为VFW的工具,因此ffmpeg还是可以在windows下进行视频采集的。

视频格式转换功能

ffmpeg视频转换功能。视频格式转换,比如可以将多种视频格式转换为flv格式,可不是视频信号转换 。

ffmpeg可以轻易地实现多种视频格式之间的相互转换(wma,rm,avi,mod等),例如可以将摄录下的视频avi等转成视频网站所采用的flv格式。

视频截图功能

对于选定的视频,截取指定时间的缩略图。视频抓图,获取静态图和动态图,不提倡抓gif文件因为抓出的gif文件大而播放不流畅。

给视频加水印功能

使用ffmpeg 视频添加水印(logo)。

开发环境:

WINDOWS7 32bit

MINGW

eclipse juno cdt

1、首先你要编译好FFMPEG,

a) 方法一:可以去官网下载源码,用MINGW编译(编译时记得支持H264,当然,事先得下载并编译好libx264,视频技术论坛里有很多介绍)

b) 方法二:更加省心省力的方法是,下载别人已经编译好的资源,如ZeranoeFFmpeg的,下载他的dev版本,包含了头文件,链接库等必须的东袜前西,当州派然,这东西已经是支持H264的了。

2、以下的就是代码部分了:

a) 先声明必要的变量:

AVFormatContext *fmtctx

AVStream *video_st

AVCodec *video_codec

const int FPS = 25/* 25 images/s */

const char *RDIP = “127.0.0.1”

unsigned int RDPORT = 5678

const unsigned int OUTWIDTH = 720

const unsigned int OUTHEIGHT = 480;

av_register_all()

avformat_network_init()

b) 初始化AV容器

fmtctx = avformat_alloc_context()

c) 获得输出格式,这里是RTP网络流

fmtctx->oformat = av_guess_format("rtp", NULL, NULL)

d)打开网络流

snprintf(fmtctx->filename, sizeof(fmtctx->filename),"rtp://%s:%d",RDIP,RDPORT)

avio_open(&fmtctx->pb,fmtctx->filename, AVIO_FLAG_WRITE)

e) 开始添加H264视频流

video_st = NULLvideo_st = add_video_stream(fmtctx, &video_codec, AV_CODEC_ID_H264)

其中,add_video_stream函数为:

add_video_stream(AVFormatContext *oc,AVCodec **codec, enum AVCodecID codec_id)

{

AVCodecContext *c

AVStream *st

/* find the video encoder */

*codec = avcodec_find_encoder(codec_id)

st = avformat_new_stream(oc, *codec)

c = st->codec

avcodec_get_context_defaults3(c, *codec)

c->codec_id = codec_id

c->width = OUTWIDTH

c->height = OUTHEIGHT

c->time_base.den = FPS

c->time_base.num = 1

c->pix_fmt = PIX_FMT_YUV420P

if(oc->册好贺oformat->flags &AVFMT_GLOBALHEADER)

c->flags|= CODEC_FLAG_GLOBAL_HEADER

av_opt_set(c->priv_data, "preset", "ultrafast", 0)

av_opt_set(c->priv_data, "tune","stillimage,fastdecode,zerolatency",0)

av_opt_set(c->priv_data, "x264opts","crf=26:vbv-maxrate=728:vbv-bufsize=364:keyint=25",0)return st}

// OPEN THE CODE

avcodec_open2(video_st->codec, video_codec, NULL)

/* Write the stream header, if any. */

avformat_write_header(fmtctx, NULL)

f) 现在,就可以不断的编码数据,并发生数据了

AVFrame* m_pYUVFrame = avcodec_alloc_frame()

while(1) //这里设置成无限循环,你可以设置成250,或其他数进行测试,观看结果

{

fill_yuv_image(m_pYUVFrame, video_st->codec->frame_number,OUTWIDTH, OUTHEIGHT)

/* encode the image */

AVPacket pkt

int got_output = 0

av_init_packet(&pkt)

pkt.data = NULL // packet data will be allocated by the encoder

pkt.size = 0

pkt.pts = AV_NOPTS_VALUE

pkt.dts =AV_NOPTS_VALUE

m_pYUVFrame->pts = video_st->codec->frame_number

ret = avcodec_encode_video2(c, &pkt,frame, &got_output)

if (ret <0) {fprintf(stderr, "Error encoding video frame: %s\n", av_err2str(ret))

exit(1)

}

/* If size is zero, it means the image was buffered. */

if (got_output)

{

if (c->coded_frame->key_frame)pkt.flags |= AV_PKT_FLAG_KEY

pkt.stream_index = st->index

if (pkt.pts != AV_NOPTS_VALUE )

{

pkt.pts = av_rescale_q(pkt.pts,video_st->codec->time_base, video_st->time_base)

}

if(pkt.dts !=AV_NOPTS_VALUE )

{

pkt.dts = av_rescale_q(pkt.dts,video_st->codec->time_base, video_st->time_base)

}

/* Write the compressed frame to the media file. */

ret = av_interleaved_write_frame(oc,&pkt)

}

else {

ret = 0

}

}

g) Fill_yuv_image函数:

/* Prepare a dummy image. */

static void fill_yuv_image(AVPicture *pict,int frame_index,int width, int height)

{

int x, y, i

i = frame_index

/* Y */

for (y = 0y <heighty++)

for (x = 0x <widthx++)

pict->data[0][y * pict->linesize[0] +x] = x + y + i * 3

/* Cb and Cr */

for (y = 0y <height / 2y++)

{

for (x = 0x <width / 2x++)

{

pict->data[1][y * pict->linesize[1] +x] = 128 + y + i * 2

pict->data[2][y * pict->linesize[2] +x] = 64 + x + i * 5

}

}

}

h) 打印sdp信息,仅需一次,打印的sdp信息,用在VLC播放器结束网络视频流时用到

//打印sdp信息

char sdp[2048]

av_sdp_create(&fmtctx,1, sdp, sizeof(sdp))

printf("%s\n",sdp)

fflush(stdout)

i)最后,做一些清理工作

avcodec_free_frame(&m_pYUVFrame)

av_write_trailer(fmtctx)

/* Free the streams. */

for (unsigned int i = 0i<fmtctx->nb_streamsi++)

{

av_freep(&fmtctx->streams->codec)

av_freep(&fmtctx->streams)

}

if(!(fmtctx->oformat->flags&AVFMT_NOFILE))

/* Close the output file. */

avio_close(fmtctx->pb)

/*free the stream */

av_free(fmtctx)

3、编译代码,记得添加库文件,运行一次代码,不用死循环,设置不用循环,因为是要让他打印出sdp文件的信息。得到sdp信息,比如我精简成如下:

c=IN IP4 127.0.0.1

m=video 56782 RTP/AVP 96

a=rtpmap:96 H264/90000

a=framerate:25

a=fmtp:96 packetization-mode=1

把这些信息保存到一个文本文件,并改名为sdp后缀,如mySDP.sdp。

4、从官网下载VLC播放器,重新运行上述的代码,这一次要循环,具体循环多久,你自己决定,这一次是正式测试了。代码跑起来后,把刚刚的sdp文件用VLC打开,直接把sdp文件拖到VLC播放器中就行了。等待缓冲,就可以看到效果了。

5、代码中剩掉了出错检查部分,请自行添加。

6、关于IP地址,这里是127.0.0.1,是供本机测试,可以改成制定的接受数据的电脑IP地址,或者广播地址IP地址。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/8198467.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-14
下一篇 2023-04-14

发表评论

登录后才能评论

评论列表(0条)

保存