我们在Azure中运行HDInsight集群,但它不允许在集群创建时向上旋转边缘/网关节点。所以我创建这个边缘/网关节点的方法是安装
echo 'deb http://private-repo-1.hortonworks.com/HDP/ubuntu14/2.x/updates/2.4.2.0 HDP main' >> /etc/apt/sources.list.d/HDP.list
echo 'deb http://private-repo-1.hortonworks.com/HDP-UTILS-1.1.0.20/repos/ubuntu14 HDP-UTILS main' >> /etc/apt/sources.list.d/HDP.list
echo 'deb [arch=amd64] https://apt-mo.trafficmanager.net/repos/azurecore/ trusty main' >> /etc/apt/sources.list.d/azure-public-trusty.list
gpg --keyserver pgp.mit.edu --recv-keys B9733A7A07513CAD
gpg -a --export 07513CAD | apt-key add -
gpg --keyserver pgp.mit.edu --recv-keys B02C46DF417A0893
gpg -a --export 417A0893 | apt-key add -
apt-get -y install openjdk-7-jdk
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
apt-get -y install hadoop hadoop-hdfs hadoop-yarn hadoop-mapreduce hadoop-client openssl libhdfs0 liblzo2-2 liblzo2-dev hadoop-lzo phoenix hive hive-hcatalog tez mysql-connector-java* oozie oozie-client sqoop flume flume-agent spark spark-python spark-worker spark-yarn-shuffle
然后我复制了/usr/lib/python2.7/dist-packages/hdinsight_common/
/usr/share/java/
/usr/lib/hdinsight-datalake/
/etc/spark/conf/
/etc/hadoop/conf/
但是当我运行spark-shell
时,我得到以下错误
java.io.IOException: No FileSystem for scheme: wasb
这里是完整的堆栈https://gist.github.com/anonymous/ebb6c9d71865c9c8e125aadbbdd6a5bc
我不确定这里缺少了哪个包/罐子。
在spark-shell中设置Azure存储(wasb和wasbs文件)的另一种方法是:
>
使用参数-jars运行spark-shell[一个逗号分隔的列表,包含到这些jars的路由]示例:
$ bin/spark-shell --master "local[*]" --jars jars/hadoop-azure-2.7.0.jar,jars/azure-storage-2.0.0.jar
向Spark上下文添加以下行:
sc.hadoopConfiguration.set("fs.azure", "org.apache.hadoop.fs.azure.NativeAzureFileSystem")
sc.hadoopConfiguration.set("fs.azure.account.key.my_account.blob.core.windows.net", "my_key")
sc.textFile("wasb://my_container@my_account_host/myfile.txt").count()
我正在尝试建立hadoop和Azure存储之间的联系。我已经在这里提到的core-site.xml中添加了属性:Link,仍然得到错误 Scheme:wasb没有文件系统 感谢任何帮助!
我已经将Spark2.0 shell配置为与datastax cassandra连接器一起运行。
我试图将一些测试数据从我的本地笔记本电脑上用Java保存到S3上,得到以下错误: 下面是我的代码 我搜索了一下,但没有得到答案。有什么想法吗?提前道谢。 更新: null
我在加载存储在我的资产文件夹中的html文件时遇到了麻烦。我已经搜索了2天,似乎找不到原因。 我已经确保将它包括在pubspec.yaml中,有适当的缩进和所有构建都很好。我加载的图像资产pubspec.yaml加载没有问题,所以我知道这部分应该一切正常。 我也试着用一个测试仪来测试它。txt文件,具体示例代码如下:https://api.flutter.dev/flutter/dart-io/F
我试图在AWS EMR控制台(Amazon Web Services)上运行一个Spark应用程序。我在jar中编译的Scala脚本将SparkConf设置作为参数或字符串: 但是,我不知道如何在上传和设置集群时将Master-URL参数和其他参数传递给jar。明确地说,我知道如果我在运行Spark-Shell,我会用另一种方法来完成,但我是一个Windows用户,根据当前的设置和我所做的工作,在
下面是我的 我不会用这个名字在我的项目中的任何地方使用这个文件!!不过,在我的项目中还有许多其他的png文件。