用C语言编程如何计算延时时间

用C语言编程如何计算延时时间,第1张

那样子你的调用系统的API来获得调用此函数之前的系统时间,还有调用此函数返回之后的系统时间进行比较。

#include <windowsh>

#include <stdioh>

voidmain()

{

SYSTEMTIME sys;

GetLocalTime( &sys );

int start=syswMilliseconds;//获取开始时的毫秒数

//下面调用你的函数

delay(uint型变量);//这里面的参数你必须自己看着办

GetLocalTime( &sys );

int end=syswMilliseconds;//获取调用delay函数之后的秒数

printf("调用delay函数消耗了%d毫秒!\n",end-start);

printf("注意:此程序只能处理1秒以内的延迟毫秒数!");

}

void delay(uint z)

{

uint x,y;

for(x=z;x>0;x--)

for(y=125;y>0;y--);

}

delay 延时

ms 解释为毫秒

毫秒和秒的换算率为1000。

因此,Delayms(1000) 实则是延时1 秒

5000则是5秒

10000则是10秒。

类似的函数有 Sleep(1000) c++里所有的时间单位,都是以毫秒计算的。

以上就是关于用C语言编程如何计算延时时间全部的内容,包括:用C语言编程如何计算延时时间、计算C程序中的延时问题、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/9487530.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-28
下一篇 2023-04-28

发表评论

登录后才能评论

评论列表(0条)

保存