如何将wireshark抓到的包,RTP的payload 为AMR编码转为。AMR文件或者其他类型的音频文件,以便播放器播放?

如何将wireshark抓到的包,RTP的payload 为AMR编码转为。AMR文件或者其他类型的音频文件,以便播放器播放?,第1张

我一般是直接用winpcap开发库 *** 纵,把rtp负载提取出来(可以消除乱序、重复),然后用一些转换工具把原始码流的amr转换成其他格式的。一般使用诸如ffmpeg或者mencoder之类的,也许mplayer能直接播放。

视频同步是指音视频的rtp时间戳同步. audio/video rtp 时间戳不能自己同步,需要audio/video rtcp同步。

发送端以一定的频率发送RTCP SR(Sender Report)这个包,SR分为视频SR和音频SR,SR包内包含一个RTP时间戳和对应的NTP时间戳,可以用<ntp,rtp>对做音视频同步.(同步过程在后面)

Rtcp sr 格式

例如:一个音频包打包20ms的数据.采样率48k.对应的采样数为 48000 * 20 / 1000 = 960,也就是说每个音频包里携带960个音频采样,因为1个采样对应1个时间戳,那么相邻两个音频RTP包的时间戳之差就是960。

视频采样率是帧率,视频时间戳的单位为1/90k秒.比如: 25帧,每帧40ms.40ms有多少时间戳的基本单位呢? 40除以1/90k等于3600.

扩展内容:

Single Nalu:如果一个视频帧包含1个NALU,可以单独打包成一个RTP包,那么RTP时间戳就对应这个帧的采集时间;

FU-A:如果一个视频帧的NALU过大(超过MTU)需要拆分成多个包,可以使用FU-A方式来拆分并打到不同的RTP包里,那么这几个包的RTP时间戳是一样的;

STAP-A:如果某帧较大不能单独打包,但是该帧内部单独的NALU比较小,可以使用STAP-A方式合并多个NALU打包发送,但是这些NALU的时间戳必须一致,打包后的RTP时间戳也必须一致

NTP时间戳是从1900年1月1日00:00:00以来经过的秒数.

rtp是相对时间,ntp是绝对时间.rtp时间戳和ntp时间戳表示的意义是相同的. 可以互相转换,rtp=f(ntp) 类似中文名张三,英文名zhangjohn.

rtp时间戳如何转换成pts即显示时间的呢? pts= rtp 时间戳 *timebase.

例如:flv封装格式的time_base为{1,1000},ts封装格式的time_base为{1,90000}.

flv: pkt_pts=80,pkt_pts_time=80/1000=0.080000

pkt_pts=120,pkt_pts_time=0.120000

pkt_pts=160,pkt_pts_time=0.160000

pkt_pts=200,pkt_pts_time=0.200000

ts: pkt_pts=7200,pkt_pts_time=7200/90000=0.080000

pkt_pts=10800,pkt_pts_time=0.120000

pkt_pts=14400,pkt_pts_time=0.160000

pkt_pts=18000,pkt_pts_time=0.200000

总结:ntp,rtp,pts表示的是同一帧的时间.ntp是绝对时间,rtp是相对时间,pts是播放时间.rtp是用频率表示,pts是用秒表示.

如果音视频都从0同步开始,rtp等于pts.

如果不是同步开始,pts需要rtp 同步加减一个offer.具体实例看下文. rtp和pts是编解码时间即播放时间,不是传输时间,传输延时与rtp时间戳没关系.

音视频时间戳增长rtp增量是不同的,所以需要换算成ntp时间同步.

音视频同时编码,而且视频播放频率始终不变. 使用rtp时间戳同步就行.

因为音视频被映射到同一个时间轴上了,音频和视频帧间的相对关系很清楚.

同时RTP规范要求时间戳的初始值应该是一个随机值,那么假设音频帧时间戳的初始值是随机值1234,视频帧时间戳的初始值是随机值5678,看起来应该是下面这样

2.1 音视频不是同时产生

RTP规范并没有规定第一个视频帧的时间戳和第一个音频帧的时间戳必须或者应该对应到绝对时间轴的同一个点上 。

也就是说开始的一小段时间内可能只有音频或者视频,比如开始摄像头没有开,只有音频没有视频.也可能的开始网络丢包,同时视频的降低帧率,有可能出现这样的时间戳序列:0,丢包+降帧率,16200,... 第一个视频帧rtp timestamp 是16200,就无法映射到绝对时间轴上.

实际情况如下图:

音视频同步应用分成两种:一种是用于传输,一种是用于播放器.

1 用于传输

传输本来可以不用同步直接转给播放器处理,但是给第三方库的时候需要同步,比如将流转给ffmpeg。ffmpeg 要求转入的流的第一帧,必须audio,video 是同步的. 不能audio从0ms开始,video从1ms开始,那样送流给ffmpeg一定音视频不同步.所以给ffmpeg之前,需要做音视频同步.根据上面的方法就可以实现。

notes: ffmpeg源码要求第一帧同步开始: https://www.jianshu.com/p/67d3e6a1d72e

2 播放器的同步播放

播放器在上面同步的基础上,还需要增加缓存. 缓存设计分成两种情况,视频快于音频和音频快于视频.

i) 视频快于音频那么扩大视频缓冲区,缩短音频缓冲区,让视频帧等一等音频帧。

ii) 音频快于视频那么扩大音频缓冲区,缩短视频缓冲区,让音频帧等一等音频帧

QA1:什么情况会出现不同步,为什么要同步?

比如视频第1ms才有数据,但是在第0ms播放,其他帧都是提前1ms,变成音视频不同步.

QA2:什么时候同步,需要多少次同步?

第一帧开始同步。根据上面的算法,第几个rtcp包都能同步,从哪里开始同步后面就跟着全同步了.

播放当然需要从开始同步哈,所以都是从第一帧同步。

只需要同步一次,后面就是对于基准0的播放时间了。

QA3: 音视频同步与帧率的关系?

动态帧率与时间戳同步没关系,播放器会根据fps读取正确的ts。帧率不同只是视频包多少不同,每个包的time stamp和ntp时间都是一一对应的.

QA4: 传输延时与rtp时间戳有没有关系?

ats:20,40,60,...

vts: 41,82,123....

会不会出现这种时间序列,累计造成时间戳不同步。

这个数列是不对.

40ms肯定能编解码完成,不是编解码要41ms。而是开始第一帧发送的晚造成41ms.

数列应该是41,81,121...

QA5: 两个不同的主播合流,如果有一个主播的时间戳不准确如何同步?

比如:第一个13:00:00: 编码:40ms第一帧

第二个在13:00:00:30ms开始编码,但是它的时间有问题,显示0:0:0:0开始

如何将13:00:00:30ms map 0:0:0:0.

没有实际经验。原理应该和音视频同步类似,同步到其中一个主播时间轴即可。

哪位网友有经验欢迎补充

uint32_t ntp_compact_audio = get_compact_ntp_time( ntp_audio )

uint32_t ntp_compact_video = get_compact_ntp_time( ntp_video )

//v_sr_ts is rtp ts

base_timestamp_video = v_sr_ts - diff_ts


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/8091186.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-13
下一篇 2023-04-13

发表评论

登录后才能评论

评论列表(0条)

保存