视频压缩标准如下:
1、H.261
H.261标准是为ISDN设计,主要针对实时编码和解码设计,压缩和解压缩的信号延时不超过150ms,码率px64kbps(p=1~30)。
H.261标准主要采用运动补偿的帧间预测、DCT变换、自适应量化、熵编码等压缩技术。只有I帧和P帧,没有B帧,运动估计精度只精确到像素级。支持两种图像扫描格式:QCIF和CIF。
2、H.263
H.263标准是甚低码率的图像编码国际标准,它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:半像素精度的运动估计、PB帧预测等,使它性能优于H.261。
H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。H.263支持多种分辨率:SQCIF(128x96)、 QCIF、CIF、4CIF、16CIF。
3、H.264/AVC
视频压缩国际标准主要有由ITU-T制定的H.261、H.262、H.263、H.264和由MPEG制定的MPEG-1、MPEG-2、MPEG-4,其中H.262/MPEG-2和H.264/MPEG-4 AVC由ITU-T与MPEG联合制定。
从简单来说H.264就是一种视频编码技术,与微软的WMV9都属于同一种技术也就是压缩动态图像数据的“编解码器”程序。
一般来说,如果动态图像数据未经压缩就使用的话,数据量非常大,容易造成通信线路故障及数据存储容量紧张。
因此,在发送动态图像时、或者把影像内容保存在DVD上时、以及使用存储介质容量较小的数码相机或相机手机拍摄映像时,就必须使用编解码器。虽然编解码器有许多种类,但DVD-Video与微波数字电视等使用的主要是MPEG2,数码相机等摄像时主要使用MPEG4。
既然作为压缩视频编码技术,H.264最大的作用对视频的压缩了。我们熟悉的MPEG2也就是最常用的DVD视频编码技术已经比较落后。
MPEG-4
MPEG-4标准并非是MPEG-2的替代品,它着眼于不同的应用领域。MPEG-4的制定初衷主要针对视频会议、可视电话超低比特率压缩(小于64Kb/s)的需求。在制定过程中,MPEG组织深深感受到人们对媒体信息,特别是对视频信息的需求由播放型转向基于内容的访问、检索和 *** 作。
MPEG-4与前面提到的JPEG、MPEG-1/2有很大的不同,它为多媒体数据压缩编码提供了更为广阔的平台,它定义的是一种格式、一种框架,而不是具体算法,它希望建立一种更自由的通信与开发环境。
于是MPEG-4新的目标就是定义为:支持多种多媒体的应用,特别是多媒体信息基于内容的检索和访问,可根据不同的应用需求,现场配置解码器。编码系统也是开放的,可随时加入新的有效的算法模块。应用范围包括实时视听通信、多媒体通信、远地监测/监视、VOD、家庭购物/娱乐等。
MPEG-4视频压缩算法相对于MPEG-1/2在低比特率压缩上有着显著提高,在CIF(352*288)或者更高清晰度(768*576)情况下的视频压缩,无论从清晰度还是从存储量上都比MPEG1具有更大的优势,也更适合网络传输。另外MPEG-4可以方便地动态调整帧率、比特率,以降低存储量。
MPEG-4由于系统设计过于复杂,使得MPEG-4难以完全实现并且兼容,很难在视频会议、可视电话等领域实现,这一点有点偏离原来地初衷。
1、Microsoft RLE
一种8位的编码方式,只能支持到256色。压缩动画或者是计算机合成的图像等具有大面积色块的素材可以使用它来编码,是一种无损压缩方案。
2、Microsoft Video 1
是微软早期开发的一种压缩器,是一种有损压缩方案,最高仅达到256色,由于颜色少,所以品质很低,但在需要大分辨率同时又要求体积超小的特殊情况下,就非常有用,比如远程桌面传输等用途。
3、Microsoft H.261和H.263 Video Codec
用于视频会议的Codec,其中H.261适用于ISDN、DDN线路,H.263适用于局域网,不过一般机器上这种Codec是用来播放的,不能用于编码。
4、Intel Indeo Video R3.2
所有的Windows版本都能用Indeo video 3.2播放AVI编码。它压缩率比Cinepak大,但需要回放的计算机要比Cinepak的快。
5、Intel Indeo Video 4和5
常见的有4.5和5.10两种,质量比Cinepak和R3.2要好,可以适应不同带宽的网络,但必须有相应的解码插件才能顺利地将下载作品进行播放。适合于装了Intel公司MMX以上CPU的机器,回放效果优秀。如果一定要用AVI的话,推荐使用5.10,在效果几乎一样的情况下,它有更快的编码速度和更高的压缩比。
6、Intel IYUV Codec
使用该方法所得图像质量极好,因为此方式是将普通的RGB色彩模式变为更加紧凑的YUV色彩模式。如果你想将AVI压缩成MPEG-1的话,用它得到的效果比较理想,只是它的生成的文件太大了
7、Microsoft MPEG-4 Video codec
常见的有1.0、2.0、3.0三种版本,当然是基于MPEG-4技术的,其中3.0并不能用于AVI的编码,只能用于生成支持“视频流”技术的ASF文件。
8、DivX- MPEG-4 Low-Motion/Fast-Motion
实际与Microsoft MPEG-4 Video code是相当的东西,只是Low-Motion采用的固定码率,Fast-Motion采用的是动态码率,后者压缩成的AVI几乎只是前者的一半大,但质量要差一些。Low-Motion适用于转换DVD以保证较好的画质,Fast-Motion用于转换VCD以体现MPEG-4短小精悍的优势。
9 、DivX
实际上就是DivX,是目前最为流行和出色的编码器之一。原来DivX是为了打破Microsoft的ASF规格而开发的,开发组摇身一变成了Divxnetworks公司,不断推出新的版本,成就了今天的地位。DivX最大的特点是它对硬件进行了彻底的优化,编码效率非常高,此外,它的画面质量也非常优秀,最大限度地让编码速度和画面质量完美兼得。在编码程序中还支持1-pass和2-pass的设置,2-pass相当于两次编码,这样可以最大限度地在画面质量与文件体积中取得最大的平衡,也就是以较小的体积获得较高的质量,方便网络共享。
//第一步:注册组件->编码器、解码器等等…
av_register_all()
//第二步:初始化封装格式上下文->视频编码->处理为视频压缩数据格式
AVFormatContext *avformat_context = avformat_alloc_context()
//注意事项:FFmepg程序推测输出文件类型->视频压缩数据格式类型
const char *coutFilePath = [outFilePath UTF8String]
//得到视频压缩数据格式类型(h264、h265、mpeg2等等...)
AVOutputFormat *avoutput_format = av_guess_format(NULL, coutFilePath, NULL)
//指定类型
avformat_context->oformat = avoutput_format
//第三步:打开输出文件
//参数一:输出流
//参数二:输出文件
//参数三:权限->输出到文件中
if (avio_open(&avformat_context->pb, coutFilePath, AVIO_FLAG_WRITE) <0) {
NSLog(@"打开输出文件失败")
return
}
//第四步:创建输出码流->创建了一块内存空间->并不知道他是什么类型流->希望他是视频流
AVStream *av_video_stream = avformat_new_stream(avformat_context, NULL)
//第五步:查找视频编码器
//1、获取编码器上下文
AVCodecContext *avcodec_context = av_video_stream->codec
//2、设置编解码器上下文参数->必需设置->不可少
//目标:设置为是一个视频编码器上下文->指定的是视频编码器
//上下文种类:视频解码器、视频编码器、音频解码器、音频编码器
//2.1 设置视频编码器ID
avcodec_context->codec_id = avoutput_format->video_codec
//2.2 设置编码器类型->视频编码器
//视频编码器->AVMEDIA_TYPE_VIDEO
//音频编码器->AVMEDIA_TYPE_AUDIO
avcodec_context->codec_type = AVMEDIA_TYPE_VIDEO
//2.3 设置读取像素数据格式->编码的是像素数据格式->视频像素数据格式->YUV420P(YUV422P、YUV444P等等...)
//注意:这个类型是根据你解码的时候指定的解码的视频像素数据格式类型
avcodec_context->pix_fmt = AV_PIX_FMT_YUV420P
//2.4 设置视频宽高->视频尺寸
avcodec_context->width = 640
avcodec_context->height = 352
//2.5 设置帧率->表示每秒25帧
//视频信息->帧率 : 25.000 fps
//f表示:帧数
//ps表示:时间(单位:每秒)
avcodec_context->time_base.num = 1
avcodec_context->time_base.den = 25
//2.6 设置码率
//2.6.1 什么是码率?
//含义:每秒传送的比特(bit)数单位为 bps(Bit Per Second),比特率越高,传送数据速度越快。
//单位:bps,"b"表示数据量,"ps"表示每秒
//目的:视频处理->视频码率
//2.6.2 什么是视频码率?
//含义:视频码率就是数据传输时单位时间传送的数据位数,一般我们用的单位是kbps即千位每秒
//视频码率计算如下?
//基本的算法是:【码率】(kbps)=【视频大小 - 音频大小】(bit位) /【时间】(秒)
//例如:Test.mov时间 = 24,文件大小(视频+音频) = 1.73MB
//视频大小 = 1.34MB(文件占比:77%) = 1.34MB * 1024 * 1024 * 8 = 字节大小 = 468365字节 = 468Kbps
//音频大小 = 376KB(文件占比:21%)
//计算出来值->码率 : 468Kbps->表示1000,b表示位(bit->位)
//总结:码率越大,视频越大
avcodec_context->bit_rate = 468000
//2.7 设置GOP->影响到视频质量问题->画面组->一组连续画面
//MPEG格式画面类型:3种类型->分为->I帧、P帧、B帧
//I帧->内部编码帧->原始帧(原始视频数据)
// 完整画面->关键帧(必需的有,如果没有I,那么你无法进行编码,解码)
// 视频第1帧->视频序列中的第一个帧始终都是I帧,因为它是关键帧
//P帧->向前预测帧->预测前面的一帧类型,处理数据(前面->I帧、B帧)
// P帧数据->根据前面的一帧数据->进行处理->得到了P帧
//B帧->前后预测帧(双向预测帧)->前面一帧和后面一帧
// B帧压缩率高,但是对解码性能要求较高。
//总结:I只需要考虑自己 = 1帧,P帧考虑自己+前面一帧 = 2帧,B帧考虑自己+前后帧 = 3帧
// 说白了->P帧和B帧是对I帧压缩
//每250帧,插入1个I帧,I帧越少,视频越小->默认值->视频不一样
avcodec_context->gop_size = 250
//2.8 设置量化参数->数学算法(高级算法)->不讲解了
//总结:量化系数越小,视频越是清晰
//一般情况下都是默认值,最小量化系数默认值是10,最大量化系数默认值是51
avcodec_context->qmin = 10
avcodec_context->qmax = 51
//2.9 设置b帧最大值->设置不需要B帧
avcodec_context->max_b_frames = 0
//第二点:查找编码器->h264
//找不到编码器->h264
//重要原因是因为:编译库没有依赖x264库(默认情况下FFmpeg没有编译进行h264库)
//第一步:编译h264库
AVCodec *avcodec = avcodec_find_encoder(avcodec_context->codec_id)
if (avcodec == NULL) {
NSLog(@"找不到编码器")
return
}
NSLog(@"编码器名称为:%s", avcodec->name)
//第六步:打开h264编码器
//缺少优化步骤?
//编码延时问题
//编码选项->编码设置
AVDictionary *param = 0
if (avcodec_context->codec_id == AV_CODEC_ID_H264) {
//需要查看x264源码->x264.c文件
//第一个值:预备参数
//key: preset
//value: slow->慢
//value: superfast->超快
av_dict_set(¶m, "preset", "slow", 0)
//第二个值:调优
//key: tune->调优
//value: zerolatency->零延迟
av_dict_set(¶m, "tune", "zerolatency", 0)
}
if (avcodec_open2(avcodec_context, avcodec, ¶m) <0) {
NSLog(@"打开编码器失败")
return
}
//第七步:写入文件头信息
avformat_write_header(avformat_context, NULL)
//第8步:循环编码yuv文件->视频像素数据(yuv格式)->编码->视频压缩数据(h264格式)
//8.1 定义一个缓冲区
//作用:缓存一帧视频像素数据
//8.1.1 获取缓冲区大小
int buffer_size = av_image_get_buffer_size(avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1)
//8.1.2 创建一个缓冲区
int y_size = avcodec_context->width * avcodec_context->height
uint8_t *out_buffer = (uint8_t *) av_malloc(buffer_size)
//8.1.3 打开输入文件
const char *cinFilePath = [inFilePath UTF8String]
FILE *in_file = fopen(cinFilePath, "rb")
if (in_file == NULL) {
NSLog(@"文件不存在")
return
}
//8.2.1 开辟一块内存空间->av_frame_alloc
//开辟了一块内存空间
AVFrame *av_frame = av_frame_alloc()
//8.2.2 设置缓冲区和AVFrame类型保持一直->填充数据
av_image_fill_arrays(av_frame->data,
av_frame->linesize,
out_buffer,
avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1)
int i = 0
//9.2 接收一帧视频像素数据->编码为->视频压缩数据格式
AVPacket *av_packet = (AVPacket *) av_malloc(buffer_size)
int result = 0
int current_frame_index = 1
while (true) {
//8.1 从yuv文件里面读取缓冲区
//读取大小:y_size * 3 / 2
if (fread(out_buffer, 1, y_size * 3 / 2, in_file) <= 0) {
NSLog(@"读取完毕...")
break
}else if (feof(in_file)) {
break
}
//8.2 将缓冲区数据->转成AVFrame类型
//给AVFrame填充数据
//8.2.3 void * restrict->->转成->AVFrame->ffmpeg数据类型
//Y值
av_frame->data[0] = out_buffer
//U值
av_frame->data[1] = out_buffer + y_size
//V值
av_frame->data[2] = out_buffer + y_size * 5 / 4
av_frame->pts = i
//注意时间戳
i++
//总结:这样一来我们的AVFrame就有数据了
//第9步:视频编码处理
//9.1 发送一帧视频像素数据
avcodec_send_frame(avcodec_context, av_frame)
//9.2 接收一帧视频像素数据->编码为->视频压缩数据格式
result =avcodec_receive_packet(avcodec_context, av_packet)
//9.3 判定是否编码成功
if (result == 0) {
//编码成功
//第10步:将视频压缩数据->写入到输出文件中->outFilePath
av_packet->stream_index = av_video_stream->index
result =av_write_frame(avformat_context, av_packet)
NSLog(@"当前是第%d帧", current_frame_index)
current_frame_index++
//是否输出成功
if (result <0) {
NSLog(@"输出一帧数据失败")
return
}
}
}
//第11步:写入剩余帧数据->可能没有
flush_encoder(avformat_context, 0)
//第12步:写入文件尾部信息
av_write_trailer(avformat_context)
//第13步:释放内存
avcodec_close(avcodec_context)
av_free(av_frame)
av_free(out_buffer)
av_packet_free(&av_packet)
avio_close(avformat_context->pb)
avformat_free_context(avformat_context)
fclose(in_file)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)