您可以通过添加JAR和创建临时函数来利用Hive中的UDFs,如第一个链接所述。
add file GeoIP.dat;
add jar geo-ip-java.jar;
add jar hive-udf-geo-ip-jtg.jar;
create temporary function geoip as 'com.jointhegrid.hive.udf.GenericUDFGeoIP';
您可以将函数名更改为您喜欢的任何名称,只需将“临时函数”后面的单词从“geoip”替换为您想要的任何名称。
添加链接到的数据库只需将其下载到unix服务器,然后使用gzip解压缩即可。一旦它是geoip.dat格式,将它和您下载的JAR移动到您的/users/(您的用户名)/目录中,然后按照上面的指示运行代码。这些文件必须在顶部目录中,否则在添加文件和添加jar语句期间显式地针对这些文件。我的意思是,不是添加文件geoip.dat;
,而是添加文件/users/wertz/downloads/geoip.dat;
。
我在java中开发了一个工作正常的配置单元udf,我的函数返回输入与配置单元表中列之间的最佳匹配,因此它有以下简化的伪代码: 我的问题是,如果这个函数是由Hive调用的,为什么我需要在代码中连接到Hive?我可以使用使用我的功能的用户所连接的当前连接吗?
添加/home/cloudera/date.jar到类路径添加资源:/home/cloudera/date.jar 请有人帮帮我,因为我是新来蜂巢的。有人能告诉我要遵循的步骤吗
请告诉我如何在udf中使用hive conf变量,以及如何在hive udf中访问hive配置?
我使用Hortonworks Hadoop HDP-2.3.2.0-2950 Hive over Tez引擎 下面2个查询来自Java代码。 ——运行良好 ——失败并出现错误 我的代码:
我们正试图在Linux服务器上启动hive元存储,但我们面临一个问题。如果我们尝试使用以下命令启动配置单元元存储服务: sudo hive服务转移 我们会遇到很多这样的错误: 原因:java.sql。SQLException:拒绝用户“hive”@“sandbox.hortonworks的访问。com“(使用密码:YES)在com.mysql.jdbc.SQLError.createSQLExce
我们有配置了FreeIPA的HDP-2.2集群。但当我们试图通过knox访问HiveJDBC时,我们面临着一个问题。以下是我们正在使用的JDBC URI: jdbc: hive2://xxxxxxxxx: 8443/; ssl=true; sslTrustStore=/var/lib/Knox/data/Security/keystore/gateway.jks; Trust StorePassw