DSP程序里面用于延时的循环语句怎么计算延时时间?求高人解答。。。。

DSP程序里面用于延时的循环语句怎么计算延时时间?求高人解答。。。。,第1张

我认为就是一个简单的CPU空转。如果要算它具体消耗大谈了多少时间,大概应该可以这么初略的这么估计时间

2000*count*单条指令执行周期时间(在不考虑执行跳转指令的延迟间迹仿轮隙、内层循环计数器复位、外层循环计数器姿信累加的情况下)。

单条指令执行周期时间也就是你所使用的DSP处理器主频的倒数。

直接在定时中断中设置一个LoopCount,然后不停的LoopCount++,然后数核再在主程序里的循环里不停的查链毕宏询LoopCount,达到你要的值就去执行你要的代码,否则就接着循棚册环。你用10Mhz的时钟,想达到非常高的精度本身就不是件容易的事。真想要特别高的精度,可以看看F2812和F28335,150MHz。精度一定能满足你


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/12374975.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-25
下一篇 2023-05-25

发表评论

登录后才能评论

评论列表(0条)

保存