我们有配置了FreeIPA的HDP-2.2集群。但当我们试图通过knox访问HiveJDBC时,我们面临着一个问题。以下是我们正在使用的JDBC URI:
jdbc: hive2://xxxxxxxxx: 8443/; ssl=true; sslTrustStore=/var/lib/Knox/data/Security/keystore/gateway.jks; Trust StorePassword=xxxxxxxxxx?hive.server2.transport.mode=超文本传输协议;hive.server2.thrift.http.path=网关/默认/蜂巢
下面是我们得到的错误:_
密钥库被篡改,或密码不正确(状态=08S01,代码=0)
看起来trustStore的密码与JDBCURI中提到的密码不匹配。我们尝试更改Knox主密码,但ambari不允许更改密码。我们可以通过他们的方式更改信任库密码并创建新的knox master吗?如果更改主密钥密码,是否会影响其他服务?
除此之外,如果在Ranger中使用相同的URI创建配置单元存储库,则会出现“连接失败”错误。ranger中是否使用相同的JDBCURI为配置单元创建存储库?
注意:如果我们将hive传输模式设置为“二进制”而不是“HTTP”,那么我们可以在ranger中创建存储库,但在这种情况下,hive over Knox将无法工作,因为它需要“HTTP”模式
希望这有助于:
>
检查gateway.jks位置、权限和密钥库密码。
停止Knox,从${KNOX_HOME}/安全/密钥库中删除*. jceks,并再次删除stark Knox。
我使用Hortonworks Hadoop HDP-2.3.2.0-2950 Hive over Tez引擎 下面2个查询来自Java代码。 ——运行良好 ——失败并出现错误 我的代码:
我试图从以下链接执行示例: http://www.cloudera.com/content/cloudera/en/documentation/CDH4/v4-2-0/CDH4-installation-guide/CDH4IG_Topic_19_6.html $hcatjar=$hcat_home/share/hcatalog/hcatalog-core-0.11.0.jar $hcatpigj
我正在将 Azure 数据砖与数据砖运行时 5.2 和 Spark 2.4.0 配合使用。我以两种不同的方式设置了外部 Hive 表: - 数据砖增量表,其中数据存储在 Azure 数据湖存储 (ADLS) 第 2 代中,该表是使用位置设置创建的,该位置设置指向 ADLS 第 2 代中的已装载目录。- 一个常规的数据帧,作为表保存到 ADLS Gen 2,这次不使用挂载,而是使用我使用 spark
我是hdp和诺克斯的新手。 我的HDP环境说明: 问题: 我正试着通过直线连接到蜂巢。连接字符串为“!connect jdbc:hive2:/:8443/;transportmode=http;httppath=gateway//hive”。用户名:admin,密码:admin-password。它抛出一个错误:“18/06/18 08:17:39[main]:错误jdbc.hiveConnect
我正在遵循doc:http://docs.aws.amazon.com/elasticmapreduce/latest/releaseguide/emr-dev-create-matchore-outside.html并尝试使用AWSCLI==1.10.38创建emr集群。 我使用文档中提到的以下命令: 但是它说“AWS:error:valid json argument for option--
错误: hive-site.xml