编码程序的一种变式。
CPU在执行语句的时候也是需要耗时的,只是CPU运行速度太快,我们没办法看清楚,所以如果CPU执行语句越多,所需要的时间就越多,根据这个原理,就可以通过让CPU随便执行语句,起到延时的效果,这被称为“软件延时”,CPU执行一条指令耗时近似1us,就可以通过这种办法加上循环就可以实现延时效果。
程序在不同主频下延时不一样,但这里面一定是个比例关系。打个比方,你的代码是在主频为1GHz下的延时,这个参数你延时是5S。但换到2GHZ下,程序不改动的话,延时是2.5秒。
在汇编代码中获取到当前的主频,那么就可以做成自适应的效果,自动按比例改变延时程序内部的计数量。
若是高级语言,比如VS,就能用GetTickCount()来精确延时5s了。其实只要能读出当前时间的精确值,比如直接读BIOS时间,那么就能实现比较精确的5s延时了。不同的CPU在读精确时间的函数上是一样的。
DELAY:MOVR7,#200
;1us
DELAY1:DJNC
R7,DELAY1
;2us
RET
;2us
T=1+200*2+2=4003us,如果200改为199会更接近些,调整循环次数就能调整延时精度。
DEL:MOV
R7,#10;1us
DEL1:MOV
R6,#104
;1us
DEL2:DJNC
R6,DEL2
;2us
DJNC
R7,DEL1
;2us
RET
;2us
T=1+10*1+10*104*2+10*2+2=2113us,如果104改为99会更接近些。
(1)你的两个延时程序都对。
(2)延时不超过513us的延时程序这应该是最简单的方法了。
(3)其中#200,#10,#104不是随便设的,不能大过255,同时也要尽可能满足精度要求。
你的时间算法是对的。
还想请问一下2113和2200是否允许要看你的系统精度来定,一般不说,你这里将近10%的误差是比较大的。
首先明确机器执行一条指令耗时大概是1us那么延时10ms的程序如下:MOV AX,50L1:MOV BX,100L2:DEC BX JNZ L2DEC AXJNZ L1执行完之后时间大约为10ms多一点
根据具体问题类型,进行步骤拆解/原因原理分析/内容拓展等。
具体步骤如下:/导致这种情况的原因主要是??
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)