今天,我做了一些快速基准测试来测试System.nanoTime()
and的速度性能System.currentTimeMillis()
:
long startTime = System.nanoTime();
for(int i = 0; i < 1000000; i++) {
long test = System.nanoTime();
}
long endTime = System.nanoTime();
System.out.println("Total time: "+(endTime-startTime));
结果如下:
System.currentTimeMillis(): average of 12.7836022 / function call
System.nanoTime(): average of 34.6395674 / function call
为什么运行速度差异如此之大?
基准系统:
Java 1.7.0_25
Windows 8 64-bit
CPU: AMD FX-6100
从这个Oracle博客中:
System.currentTimeMillis()
使用GetSystemTimeAsFileTime方法实现该方法,该方法本质上只是读取Windows维护的低分辨率日期时间值。读取此全局变量自然非常快-
根据报告的信息,大约需要6个周期。
System.nanoTime()
使用QueryPerformanceCounter/ QueryPerformanceFrequency API
(如果可用,则返回currentTimeMillis*10^6)
。QueryPerformanceCounter(QPC)
)实现,具体取决于运行的硬件。
采用不同的方式实现。通常,它将使用可编程间隔计时器(PIT)或ACPI电源管理计时器(PMT),或CPU级别的时间戳计数器(TSC)。访问PIT /
PMT需要执行慢速的I / O端口指令,因此QPC的执行时间约为微秒。大约100个时钟周期(从芯片读取TSC并将其转换为基于工作频率的时间值)。
也许这回答了问题。两种方法使用不同数量的时钟周期,因此导致后一种方法的速度较慢。
在该博客的结论部分中进一步:
如果您对测量/计算经过时间感兴趣,请始终使用System.nanoTime()。在大多数系统上,它将给出微秒级的分辨率。但是请注意,在某些平台
上执行此调用也可能需要 几 微秒的 时间。
问题内容: Accuracy Vs. Precision 我想知道的是在更新对象在游戏中的位置时应该使用System.currentTimeMillis()还是System.nanoTime()?他们的运动变化与自上次通话以来经过的时间成正比,我想尽可能地精确。 我已经读到不同操作系统之间存在一些严重的时间分辨率问题(即Mac / Linux的分辨率几乎为1毫秒,而Windows的分辨率为50毫秒
问题内容: 根据java.lang.System API currentTimeMillis()返回当前时间(以毫秒为单位) nanoTime()返回正在运行的Java虚拟机的高分辨率时间源的当前值,以纳秒为单位。 严格来说,纳秒为1e-9,毫秒为1e-3。因此,以纳秒为单位的持续时间必须是以毫秒为单位的相同持续时间的1e6的倍数。实际上不是这种情况,这是什么原因? 问题答案: 有一个任意的起点;
令人惊讶的是,我发现比中的 操作中的 和< code>__contains__之间添加测试结果:
我最近用Java写了一个计算密集型算法,然后把它翻译成C++。令我吃惊的是,C++的执行速度要慢得多。我现在已经编写了一个更短的Java测试程序,以及一个相应的C++程序-参见下面。我的原始代码具有大量的数组访问功能,测试代码也是如此。C++的执行时间要长5.5倍(请参阅每个程序末尾的注释)。 以下1st21条评论后的结论... null null Java代码: C++代码:
在运行一个数字积分器时,我注意到根据我在字典中提取字段值的方式,速度有明显的不同 在我的系统上,我注意到以下差异(使用 iPython) 相比于 这似乎是一个很小的差异,但是对于某些阵列来说,这种差异甚至更大。是什么导致了这种行为,有什么方法可以改变我对< code>get()函数的使用吗?
2)在火花中: 同样的,在Spark中需要30秒,在Python中需要1秒。 我的Spark比纯Python慢得多的几个可能原因: