为了快速测试一段代码,在Python中进行两次比较的正确方法是什么?我尝试阅读API文档。我不确定我是否了解timedelta。
到目前为止,我有以下代码:
from datetime import datetime
tstart = datetime.now()
print t1
# code to speed test
tend = datetime.now()
print t2
# what am I missing?
# I'd like to print the time diff here
datetime.timedelta
只是两个日期时间之间的差异…所以就像一段时间,以天/秒/微秒为单位
>>> import datetime
>>> a = datetime.datetime.now()
>>> b = datetime.datetime.now()
>>> c = b - a
>>> c
datetime.timedelta(0, 4, 316543)
>>> c.days
0
>>> c.seconds
4
>>> c.microseconds
316543
请注意,它c.microseconds
仅返回timedelta的微秒部分!出于计时目的,请始终使用c.total_seconds()
。
您可以使用datetime.timedelta进行各种数学运算,例如:
>>> c / 10
datetime.timedelta(0, 0, 431654)
不过,查看CPU时间而不是墙上时钟时间可能更有用……尽管它取决于操作系统,但在类Unix系统下,请检查“ time”命令。
奔腾家族的处理器内部有一个64位的时钟计数器,通过RDTSC(read time stamp counter,读时间戳计数器)指令可以把它的值读到EDX:EAX寄存器中。 这对于确切测试一块代码用掉的时钟数十分有用。 下面的代码对测试一块代码花去的时钟数很有用。 程序执行要测的代码片段,测试10次,以10个时钟为一个单位,保存用掉的单位数。 这段代码可以在PPlain和PMMX上的16位或32位模
我有一个神经网络,它对3个输出进行分类。我的数据集非常小,我有340张火车图像和60张测试图像。我构建了一个模型,当我编译时,我的结果是: 纪元97/100 306/306 [==============================] - 46s 151ms/阶跃损失: 0.2453-精度: 0.8824-val_loss: 0.3557-val_accuracy: 0.8922纪元98/10
以下步骤将演示如何执行速度测试: 使用第10章EAP作为指南安装和配置JRadius Simulator。 通过增加请求线程和每线程请求的值来测试FreeRADIUS的响应时间,观察FreeRADIUS达到饱和点的值。 测试在FreeRADIUS服务器上完成典型事务的持续时间。 例如,如果您是Eduroam的一部分,您可以记录您支持的各种EAP方法的持续时间。 您还可以测试计费请求的速度。 刚刚发
我在代码中使用倒计时。问题是,倒计时不准确。onTick方法并不总是每秒执行一次,它可能需要几毫秒的时间。当试图基于millisUntilFinished执行某项任务时,这会成为一个问题。当我的20秒计时器超过10秒时,我正在尝试登录: 以下是相关代码: 这里出现了一个问题,因为countDownTimer可能永远不会有millisUntilFinished==10000,它可能等于1001,因此
问题内容: 我已经阅读了一些有关此的文章,并认为我有一些有效的代码。如果两个值之间的差小于1秒,则显示的毫秒是正确的。 如果差异超过一秒,它仍然只显示毫米的差异。 如下。 正确: 错误-应该是2000 + 76? 问题答案: 您的微秒不包括过去的秒数
问题内容: 我通过传递ipAddress来对方法进行调用,它会返回ipAddress的位置,例如国家/地区,城市等。因此,我试图查看每个调用花费的时间。因此,我在调用方法之前设置了start_time,在调用之后设置了end_time。 所以有时候我得到的差为0 。并且resp包含有效的响应。 因此,这意味着有时需要0毫秒才能恢复响应。任何建议将不胜感激。 问题答案: 试试这个