DSP程序里面用于延时的循环语句怎么计算延时时间?求高人解答。。。。

DSP程序里面用于延时的循环语句怎么计算延时时间?求高人解答。。。。,第1张

我认为就是一个简单的CPU空转。如果要算它具体消耗了多少时间,大概应该可以这么初略的这么估计时间

2000*count*单条指令执行周期时间(在不考虑执行跳转指令的延迟间隙、内层循环计数器复位、外层循环计数器累加的情况下)。

单条指令执行周期时间也就是你所使用的DSP处理器主频的倒数。

main()

{

int i

unsigned int * px

unsigned int * py

unsigned int * pz

px=(unsigned int *)0x80000

py=(unsigned int *)0x80100

//-----请按实验要求将程序补充完整-----//

while(1)

{

for(i=0i<16i++)

{

scanf("%d",(px+i))

*(py+i)=0

}

printf("\n")

pz=px

px=py

py=pz

for(i=0i<16i++)

printf("%d",(py+i))

printf("\n")

}

// 在此加软件断点

}


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/11406839.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-15
下一篇 2023-05-15

发表评论

登录后才能评论

评论列表(0条)

保存