import org.apache.spark.SparkContext
import org.apache.spark.sql._
import org.apache.phoenix.spark._
// Load INPUT_TABLE
object MainTest2 extends App {
val sc = new SparkContext("local", "phoenix-test")
val sqlContext = new SQLContext(sc)
val df = sqlContext.load("org.apache.phoenix.spark", Map("table" -> "INPUT_TABLE",
"zkUrl" -> "localhost:3888"))
}
name := "spark-to-hbase"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.hadoop" % "hadoop-mapreduce-client-core" % "2.3.0",
"org.apache.phoenix" % "phoenix-core" % "4.11.0-HBase-1.3",
"org.apache.spark" % "spark-core_2.11" % "2.1.1",
"org.apache.spark" % "spark-sql_2.11" % "2.1.1",
"org.apache.phoenix" % "phoenix-spark" % "4.11.0-HBase-1.3"
)
线程“main”java.lang.noClassDefounderror:org.apache.phoenix.query.configurationFactory$configurationFactory.java:49)在org.apache.phoenix.query.configurationFactory$configurationFactory$configurationFactory.java:46)在org.apache.phoenix.util.phoenixContextExecutor.call(phoenixContextExecutor.java:76)在在org.apache.phoenix.jdbc.phoenix.jdbc.phoenixDriver.InitializeConnectionCache(PhoenixDriver.java:151)在org.apache.phoenix.jdbc.phoenixDriver.phoenixDriver.phoenixDriver.(phoenxDriver.java:142)在org.apache.phoenix.jdbc.phoenixDriver.(phoenxDriver.java:69)在在org.apache.spark.sql.execution.datasources.logicalRelation.(logicalRelation.scala:40)在org.apache.spark.sql.sparksession.baserelationtoDataFrame(Sparksession.scala:389)在org.apache.spark.sql.dataframe.load(DataframeReader.scala:146)在org.apache.spark.sql.dataframeReader.load(DataframeReader.scala:125)在maintest2$1(maintest2.scala:9)在maintest2$delayedinit$body.apply(maintest2.scala:6)在scala.function0$class.apply$mcv$sp(function0.scala:34)在scala.runtime.abstractfunction0.apply$mcv$sp(abstractfunction0.scala:12)在scala.app$$anonfunin$main$1.apply(app.scala:76)在scala.app$$anonfunt$main$1在ableforwarder.scala:35)位于scala.app$class.main(app.scala:76),位于maintest2$.main(maintest2.scala:6),位于maintest2.main(maintest2.scala),原因如下:java.lang.ClassNotFoundException:org.apache.hadoop.hbase.hbaseConfiguration在java.net.urlClassLoader.findClass(urlClassLoader.java:381)在java.lang.ClassLoader.loadClass(classLoader.java:424)在sun.misc.launcher$appClassLoader.loadClass(launcher.java:331)在java.lang.ClassLoader.loadClass(classLoader.java:357)...26多个
我已经尝试更改hadoop-env.sh中的HADOOP_CLASSPATH,就像上一篇文章中所说的那样。
我能做些什么来克服这个问题?
我找到了解决问题的办法。正如异常所说,我的编译器无法找到类HBaseConfiguration。HBaseConfiguration在org.apache.hadoop.hbase库中使用,因此需要进行编译。我注意到,HBaseConfiguration类并不像我想象的那样存在于org.apache.Hadoop库中。对于安装在我的PC计算机上的hbase 1.3.1版本,我设法在位于我的hbase_home/lib文件夹中的hbase-common-1.3.1 jar中找到了这个类。
然后在构建中包含此依赖项。sbt:
“org.apache.hbase”%“hbase-公共”%“1.3.1”
当我调用hibernate save时,我会面临这个异常,我不知道如何解决这个问题。在我的例子中,我将join列从PrimaryKey更改为另一列,因此我面临这个异常。我不想保存客户与承销商和我只想保存外键。 我的域模型是:
本文向大家介绍Silverlight文件上传下载实现方法(下载保存),包括了Silverlight文件上传下载实现方法(下载保存)的使用技巧和注意事项,需要的朋友参考一下 search了非常多的文章,总算勉强实现了。有许多不完善的地方。 在HCLoad.Web项目下新建目录Pics复制一张图片到根目录下。 图片名:Bubble.jpg 右击->属性->生成操作:Resource UC_UpDown
在尝试从cpp类调用java中的函数以在memmory中保存布尔值时,出现以下错误。我正在使用一个名为MyAdapter的类。cpp调用MyAdapterJni函数。cpp。我用MyAdapterJni编写了以下函数。清洁石油产品 我在myManager中有以下功能。java类 我在我的logcat上得到以下日志 12-14 12:06:32.024: W/dalvikvm(9575):异常Lja
我有几个问题: > 在local docker runner for web console中,我看不到监控,那只是专门针对联机工具: 对于联机控制台,我下载了java代码并尝试运行LoadCaches,但是得到了很多错误: [09:13:51,089][Serial][MGMT-#47%ImportedCluster1%][GridTaskWorker]无法从ComputeTask.result
当我将hbase-site.xml中的hbase.rootdir配置设置为本地文件系统(如file:/hbase_root_dir_path)时,hbase工作正常,但当我将其更改为hdfs:/localhost:9000/hbase时,hbase开始时也正常。但过了一小段时间(通常是几秒钟),它就不起作用了。我发现HMaster用jps命令停止了。当然,我无法打开localhost:60010网