当前位置: 首页 > 面试题库 >

高精度的MySQL NOW()函数

胡沈义
2023-03-14
问题内容

我正在使用通过远程MySQL数据库存储其数据的C ++应用程序

功能之一是尽可能保持远程数据的最新状态。为此,我使用NOW()函数获取上次更新时间,并且在更新记录时,将last_changed字段设置为NOW()。

现在可以正常工作,但问题是它的最大精度可达一秒。导致数十个重复条目,这浪费带宽,并且必须手动删除它们。

为了限制大部分膨胀,我希望有一个大于此精度的精度,最好是一个微秒(例如unix
gettimeofday())。但是,我在文档中找不到与此有关的任何信息。我发现,NOW()函数使用的是变量类型,能够存储高达微秒的精度(source)。但是使用它时,秒之后的所有精度均为零。

有没有一种方法可以强制Mysql服务器使用更高精度的计时器(并理所当然地考虑潜在的性能)?还是实现这一目标的另一种方法?


问题答案:

因此,在获得技巧后研究MySQL用户定义的函数,我能够使它起作用。

在Code :: Blocks中,我编写了这个简单的库文件

#include <stdlib.h>
#include <stdio.h>
#include <string.h>
typedef long long longlong;    
#include <mysql.h>
#include <ctype.h>    
#include <sys/time.h>
#include <unistd.h>
static pthread_mutex_t LOCK_hostname;
extern "C" longlong PreciseNow(UDF_INIT *initid, UDF_ARGS *args, char *is_null, char *error);
extern "C" my_bool PreciseNow_init(UDF_INIT *initid, UDF_ARGS *args, char *message);
extern "C" void PreciseNow_deinit(UDF_INIT *initid);
my_bool PreciseNow_init(UDF_INIT *initid, UDF_ARGS *args, char *message)
{
 return 0; //optional
}
void PreciseNow_deinit(UDF_INIT *initid)
{ //optional
}

longlong PreciseNow(UDF_INIT *initid, UDF_ARGS *args, char *is_null, char *error)
{
   struct timeval start;
   long mtime, seconds, useconds;
   gettimeofday(&start, NULL);
   return start.tv_sec * 1000000 + start.tv_usec;
}

它唯一要做的就是返回当前系统时间。我将lib文件放在’/ usr / lib / mysql / plugin /’中。其次,在数据库中,执行以下查询:

创建函数PreciseNow返回整数SONAME’libhrt.so’

最后,我将时间戳列转换为bigint(8字节整数)。也许这不是必需的,但是看到C函数返回相同的对象类型,为什么不呢?

现在,当运行SQL查询“ SELECT PreciseNow()”时,我获得了内置的“
NOW()”的微秒级精确版本!由于我对MySQL的了解非常有限,因此我认为这是对我的问题的完全合法和有效的解决方案?



 类似资料:
  • 我有一个神经网络,它对3个输出进行分类。我的数据集非常小,我有340张火车图像和60张测试图像。我构建了一个模型,当我编译时,我的结果是: 纪元97/100 306/306 [==============================] - 46s 151ms/阶跃损失: 0.2453-精度: 0.8824-val_loss: 0.3557-val_accuracy: 0.8922纪元98/10

  • 我试图用Python中的多项式根来近似Julia集合。特别是,我想找出多项式q(z)=z^2-0.5的第n次迭代的根。换句话说,我想找到n次组成的q(q(q))的根。为了得到许多采样点,我需要计算次多项式的根 我尝试过使用numpy的内置多项式类(它有一个根函数)和sympy的函数解算器来解决这个问题。在第一种情况下,当我选择大于100的度数时,精度会损失。复杂的计算需要很长时间。以下是我的代码:

  • 问题内容: 有没有一种方法可以用Python高精度地测量时间-比一秒更精确?我怀疑是否存在跨平台的方法;我对Unix上的高精度时间很感兴趣,尤其是在Sun SPARC计算机上运行的Solaris。 timeit似乎可以进行高精度的时间测量,但是我想直接访问时间值,而不是测量代码段要花多长时间。 问题答案: 标准功能提供亚秒级的精度,尽管该精度因平台而异。对于Linux和Mac,精度为1微秒或0.0

  • 什么是高精度算法?它是处理大数字的数学计算方法。在一般的科学计算中,会经常算到小数点后几百位或者更多,当然也可能是几千亿几百亿的大数字。一般这类数字我们统称为高精度数。但近几年的CSPJ/S复赛貌似从未单独考过高精度算法,但有时会和其他算法一起考。所以还是有学习的必要。 一、高精度计算 高精度计算是指参与运算的数的范围大大超出了标准数据类型能表示的范围的运算。如100位数字和100位数字的加减乘除

  • 问题内容: 文档的内容如下(强调我的意思)。 此方法只能用于测量经过的时间,与系统或挂钟时间的任何其他概念无关。返回的值表示自某个固定但任意时间以来的纳秒(也许是将来的时间,因此值可能为负)。 此方法提供纳秒精度,但不一定提供纳秒精度。 无法保证值更改的频率。 如我所见,这可以用两种不同的方式解释: 在句子中 大胆 上面是指个人的返回值。然后,将在数字意义上理解精度和准确性。也就是说,精度是指有效

  • 我试图在java中进行Mandelbrot分形缩放,但当缩放增加时,双精度不够,图像像素化,我不能缩放更多。我想提高精度或使用另一种数据类型,允许我这样做。谢谢你。