我使用hadoop 2.7.2,hbase 1.4.9,火花2.2.0,scala 2.11.8和java 1.8的hadoop集群是由一个主和两个从。
当我在启动集群后运行spark shell时,它工作正常。我正试图通过以下教程使用scala连接到hbase:[https://www.youtube.com/watch?v=gGwB0kCcdu0][1] .
但当我试图像他那样通过添加那些类似罐子的论点来运行spark shell时,我有一个错误:
hbase-annotations-1.4.9.jarhbase-common-1.4.9.jarhbase-protocol-1.4.9.jarhtrace-core-3.1.0-incubating.jarzookeeper-3.4.6.jarhbase-client-1.4.9.jarhbase-hadoop2-compat-1.4.9.jarmetrics-json-3.1.2.jarhbase-server-1.4.9.jar
<console>:14: error: not found: value spark
import spark.implicits._
^
<console>:14: error: not found: value spark
import spark.sql
^
在那之后,即使我注销并再次运行spark shell,我也会遇到同样的问题。有谁能告诉我是什么原因以及如何解决它吗。
在您的导入语句中,火花
应该是Spark会话
类型的对象。该对象应该是以前为您创建的。或者您需要自己创建它(请阅读火花文档)。我没有看你的教程视频。
关键是它不必被称为spark
。例如,它可以被称为sparkSession
,然后您可以执行导入sparkSession。含蓄的_
我刚从Spark开始。我已经用Spark安装了CDH5。然而,当我尝试使用sparkcontext时,它给出了如下错误 我对此进行了研究,发现了错误:未找到:值sc 并试图启动火花上下文。/Spark-shell。它给错误
我正试着用这本手册开始tensorflowhttps://www.tensorflow.org/install/install_windows 所有安装都成功完成,我正在使用python 3.5.2和最新版本的pip,遇到这个错误,有人告诉我应该怎么做吗? 在swig\parth\AppData\Local\Programs\Python35\lib\site-p tensorflow\Pytho
我搜索了一个小时来找到问题的解决方案,我使用maven to pom.xml来查找这个导入的库org.springframework.jdbc.core.jdbctemplate 我的pom.xml 结果是:-
我试着构建应用程序,但一直在获取/Users/gouravkarwasara/Desktop/News2/app/build/generated/source/kapt/debug/com/gourav/news/DataBinderMapperImpl。java:9:错误:找不到符号导入com。古拉夫。消息数据绑定。ActivityDetailBindingImpl;^符号:类ActivityD
我已将google AdMob添加到项目中,并发现以下错误:错误:找不到符号导入com。谷歌。Androidgms。ads.alad;^符号:class Interstitalad位置:package com。谷歌。Androidgms。广告
我正在尝试将代码从bitbucket部署到AWS Elastic beanstalk。从bitbucket部署代码时,我面临导入boto3问题。 但在我以前的docker形象中,工作很好。 旧Docker文件 在Python2.7中,一切正常。当我将python版本从2.7升级到3.7时,出现了这个导入错误。 Docker文件 Python脚本 当我运行这个脚本文件时,我得到了 导入boto3重要