189 8069 5689

c语言中计时到微妙的函数,c语言中计时到微妙的函数是什么

C语言里有没有精确到毫秒的时间函数

用clock就到毫秒了. 它是直接返回毫秒.

创新互联建站致力于互联网网站建设与网站营销,提供成都网站设计、网站建设、外贸网站建设、网站开发、seo优化、网站排名、互联网营销、成都微信小程序、公众号商城、等建站开发,创新互联建站网站建设策划专家,为不同类型的客户提供良好的互联网应用定制解决方案,帮助客户在新的全球化互联网环境中保持优势。

#include stdio.h

#include stdlib.h

#include time.h

int main()

{

clock_t start, finish;

double elapsed_time;

start=clock();

finish=clock();

elapsed_time = finish-start;

}

求一个C语言的微秒级延时函数

c语言,微秒级延时

void Delay_us (unsigned char time_us)

{

unsigned long int  TM_LODAE;

TR2   = 0;                          // Stop timer

TF2H  = 0;                          // Clear timer overflow flag

TM_LODAE = 65535-(UINT)(SYSCLK/1000000) * (UINT)(time_us);

// TMR2  = -( (UINT)(SYSCLK/1000000) * (UINT)(time_us) );

TMR2H =  TM_LODAE8;

TMR2L =  TM_LODAE0x00FF;

TR2   = 1;                          // Start timer

while (!TF2H);                      // Wait till timer overflow occurs

TR2   = 0;                          // Stop timer

}

程序分析:

前面一起住航分析一下该代码,

unsigned long int  TM_LODAE;  声明一个长整型数据,

TR2   = 0;    定时器2停止计时

TF2H  = 0;      清除定时器2中断标志

TM_LODAE = 65535-(UINT)(SYSCLK/1000000) * (UINT)(time_us);    计算定时器初值。 SYSCLK是系统的晶振频率,SYSCLK/1000000是系统 1uS 执行的指令。 (UINT)(SYSCLK/1000000) * (UINT)(time_us)就是系统 time_us执行的指令数。 65535-(UINT)(SYSCLK/1000000) * (UINT)(time_us)定时器需要 TM_LODAE指令周期才会溢出。

该单片机的一个指令周期就是一个时钟周期.TMR2H =  TM_LODAE8;  TMR2L =  TM_LODAE0x00FF;置定时器寄存器的初值、

TR2   = 1;   启动单片机计时  while (!TF2H);  等待定时器2寄存器溢出。TR2   = 0;停止计时,在这段代码注释中已经说明了应该有50nS的误差,这个是函数调用产生的。

c语言如何计时

C语言中提供了许多库函数来实现计时功能

下面介绍一些常用的计时函数

1. time()

头文件:time.h

函数原型:time_t time(time_t * timer)

功能:返回以格林尼治时间(GMT)为标准,从1970年1月1日00:00:00到现在的时此刻所经过的秒数

用time()函数结合其他函数(如:localtime、gmtime、asctime、ctime)可以获得当前系统时间或是标准时间。

用difftime函数可以计算两个time_t类型的时间的差值,可以用于计时。用difftime(t2,t1)要比t2-t1更准确,因为C标准中并没有规定time_t的单位一定是秒,而difftime会根据机器进行转换,更可靠。

说明:C标准库中的函数,可移植性最好,性能也很稳定,但精度太低,只能精确到秒,对于一般的事件计时还算够用,而对运算时间的计时就明显不够用了。

2. clock()

头文件:time.h

函数原型:clock_t clock(void);

功能:该函数返回值是硬件滴答数,要换算成秒,需要除以CLK_TCK或者 CLK_TCKCLOCKS_PER_SEC。比如,在VC++6.0下,这两个量的值都是1000。

说明:可以精确到毫秒,适合一般场合的使用。

3. timeGetTime()

头文件:Mmsystem.h  引用库: Winmm.lib

函数原型:DWORD timeGetTime(VOID);

功能:返回系统时间,以毫秒为单位。系统时间是从系统启动到调用函数时所经过的毫秒数。注意,这个值是32位的,会在0到2^32之间循环,约49.71天。

说明:该函数的时间精度是五毫秒或更大一些,这取决于机器的性能。可用timeBeginPeriod和timeEndPeriod函数提高timeGetTime函数的精度。如果使用了,连续调用timeGetTime函数,一系列返回值的差异由timeBeginPeriod和timeEndPeriod决定。

4. GetTickCount()

头文件:windows.h

函数原型:DWORD WINAPI GetTickCount(void);

功能:返回自设备启动后的毫秒数(不含系统暂停时间)。

说明:精确到毫秒。对于一般的实时控制,使用GetTickCount()函数就可以满足精度要求。

5. QueryPerformanceCounter()、QueryPerformanceFrequency()

头文件:windows.h

函数原型:BOOLQueryPerformanceCounter(LARGE_INTEGER *lpPerformanceCount);

BOOLQueryPerformanceFrequency(LARGE_INTEGER *lpFrequency);

功能:前者获得的是CPU从开机以来执行的时钟周期数。后者用于获得你的机器一秒钟执行多少次,就是你的时钟周期。

补充:LARGE_INTEGER既可以是一个8字节长的整型数,也可以是两个4字节长的整型数的联合结构, 其具体用法根据编译器是否支持64位而定:

在进行定时之前,先调用QueryPerformanceFrequency()函数获得机器内部定时器的时钟频率,然后在需要严格定时的事件发生之前和发生之后分别调用QueryPerformanceCounter()函数,利用两次获得的计数之差及时钟频率,计算出事件经历的精确时间。

说明:这种方法的定时误差不超过1微秒,精度与CPU等机器配置有关,一般认为精度为透微秒级。在Windows平台下进行高精度计时的时候可以考虑这种方法。

6. gettimeofday()

Linux C函数。

头文件:sys/time.h

函数原型:int gettimeofday(struct timeval *tv,struct timezone *tz);

说明:其参数tv是保存获取时间结果的结构体,参数tz用于保存时区结果(若不使用则传入NULL即可)。

timeval的定义为:

struct timeval {  

long tv_sec; // 秒数

long tv_usec; //微秒数

}

可见该函数可用于在linux中获得微秒精度的时间。

说明:使用这种方式计时,精度可达微秒。经验证,在arm+linux的环境下此函数仍可使用。

单片机C语言中怎么实现微秒级延时?

可以用_nop_( )函数来实现微秒级的延时。

_nop_();            // 直接当成一条语句使用,产生一条NOP指令

NOP指令为单周期指令,可由晶振频率算出延时时间,对于12M晶振,延时1uS。

注:使用该函数时,需要将头文件#includeintrins.h包含进源文件中。

C语言中有没有用于计时的函数?怎么用?

clock()函数:

clock()是c/c++中的计时函数,而与其相关的数据类型是clock_t。在msdn中,查得对clock函数定义如下:

clock_t

clock(void)

;

这个函数返回从“开启这个程序进程”到“程序中调用clock()函数”时之间的cpu时钟计时单元(clock

tick)数,在msdn中称之为挂钟时间(wal-clock);若挂钟时间不可取,则返回-1。其中clock_t是用来保存时间的数据类型,在time.h文件中,我们可以找到对它的定义:

#ifndef

_clock_t_defined

typedef

long

clock_t;

#define

_clock_t_defined

#endif

很明显,clock_t是一个长整形数。在time.h文件中,还定义了一个常量clocks_per_sec,它用来表示一秒钟会有多少个时钟计时单元,其定义如下:

#define

clocks_per_sec

((clock_t)1000)

可以看到每过千分之一秒(1毫秒),调用clock()函数返回的值就加1。下面举个例子,你可以使用公式clock()/clocks_per_sec来计算一个进程自身的运行时间:

void

elapsed_time()

{

printf("elapsed

time:%u

secs.\n",clock()/clocks_per_sec);

}

当然,你也可以用clock函数来计算你的机器运行一个循环或者处理其它事件到底花了多少时间:

#include

#include

#include

int

main(void)

{

long

i

=

10000000l;

clock_t

start,

finish;

double

duration;

/*

测量一个事件持续的时间*/

printf(

"time

to

do

%ld

empty

loops

is

",

i)

;

start

=

clock();

while(

i--

);

finish

=

clock();

duration

=

(double)(finish

-

start)

/

clocks_per_sec;

printf(

"%f

seconds\n",

duration

);

system("pause");

}

在笔者的机器上,运行结果如下:

time

to

do

10000000

empty

loops

is

0.03000

seconds

上面我们看到时钟计时单元的长度为1毫秒,那么计时的精度也为1毫秒,那么我们可不可以通过改变clocks_per_sec的定义,通过把它定义的大一些,从而使计时精度更高呢?通过尝试,你会发现这样是不行的。在标准c/c++中,最小的计时单位是一毫秒。

time_t

time(

time_t

*timer

);

返回值是1970年到现在的秒数

用long型接就可以了

参数也是同样意义

long

time_s

=

0;

time_s

=

time(

null

);

//

time_s就是1970年到现在的秒数

或者

long

*

time_s

=

null;

time(time_s);

//

*time_s就是1970年到现在的秒数

要计算前后一段时间的话之前取一次time,之后取一次相减就知道用了多少秒了


网站名称:c语言中计时到微妙的函数,c语言中计时到微妙的函数是什么
当前地址:http://jkwzsj.com/article/hcodde.html

其他资讯