当前位置: 首页 > 面试题库 >

具有C ++和Linux的高分辨率计时器?

傅新
2023-03-14
问题内容

在Windows下,有一些方便的功能,如QueryPerformanceCounterfrom
mmsystem.h可以创建高分辨率计时器。Linux有类似的东西吗?


问题答案:

在此之前ows-queryperformancecounter-on-osx)有人问过它-但是基本上,您可以使用boostptime函数,或者可以基本实现相同目的的POSIX clock_gettime()函数。



 类似资料:
  • 问题内容: 我想用Java模拟TCP。 为此,我有多个线程,例如每个TCP连接的发送者和接收者线程。 我的问题是,我想暂停(如Thread.sleep())线程数微秒的时间间隔。这样我就可以模拟流控制,发送者线程将在发送下一个数据包之前阻塞几微秒,同时接收和数据处理线程可以使用CPU。但是我找不到任何执行sleep()或wait()的方法来获得微秒或纳秒分辨率。如何以微秒或纳秒分辨率阻塞(暂停)J

  • 我想用Java模拟TCP。 我找到了System.nanotime()方法,但是没有方法可以在指定的微秒或纳秒内阻塞线程。如果有这样的方法,那么请让我知道。system.nanotime()只是给出了以纳秒为单位的相对时间间隔。 我可以使用System.nanotime()在使用busy-loop的线程中执行纳秒级延迟,但这将浪费CPU时间,而CPU本来可以用于接收数据线程或处理线程。 另一个令人

  • 好的,这里有一个奇怪的问题,我有问题(用gcc btw编译) 下面是用于命令提示的Mandelbrot分形生成器的源代码。我以前做过这项工作,我想加快自己的测试速度,看看我能以多快的速度生成命令提示符中实际生成Mandelbrot分形所需的代码。我经常这样做是为了给自己找点乐子 不管怎样,我遇到了一个新问题,我不太明白问题是什么。当分形呈现时,无论我设置了多少次迭代或什么转义值,它都将始终显示为椭

  • 我正在开发一个模拟器,我不知道如何将计时库测得的运行时间与固定的数字进行比较,例如(

  • 问题内容: 我正在尝试比较GPU与CPU的性能。对于NVIDIA GPU,我一直在使用这些类型来获得非常精确的时间。 对于CPU,我一直在使用以下代码: 显然,这段代码只有在您数秒的情况下才是好的。而且,结果有时出来很奇怪。 有谁知道在Linux中创建高分辨率计时器的某种方法? 问题答案: 签出,这是高分辨率计时器的POSIX接口。 如果已经阅读手册页,留给你想知道的区别和,看到CLOCK_REA