我想转换火花数据框架以使用以下代码添加:
from pyspark.mllib.clustering import KMeans
spark_df = sqlContext.createDataFrame(pandas_df)
rdd = spark_df.map(lambda data: Vectors.dense([float(c) for c in data]))
model = KMeans.train(rdd, 2, maxIterations=10, runs=30, initializationMode="random")
详细的错误消息是:
---------------------------------------------------------------------------
AttributeError Traceback (most recent call last)
<ipython-input-11-a19a1763d3ac> in <module>()
1 from pyspark.mllib.clustering import KMeans
2 spark_df = sqlContext.createDataFrame(pandas_df)
----> 3 rdd = spark_df.map(lambda data: Vectors.dense([float(c) for c in data]))
4 model = KMeans.train(rdd, 2, maxIterations=10, runs=30, initializationMode="random")
/home/edamame/spark/spark-2.0.0-bin-hadoop2.6/python/pyspark/sql/dataframe.pyc in __getattr__(self, name)
842 if name not in self.columns:
843 raise AttributeError(
--> 844 "'%s' object has no attribute '%s'" % (self.__class__.__name__, name))
845 jc = self._jdf.apply(name)
846 return Column(jc)
AttributeError: 'DataFrame' object has no attribute 'map'
有人知道我在这里做错了吗?谢谢!
您无法map
使用数据框,但可以将数据框转换为RDD并通过映射将其映射spark_df.rdd.map()
。在Spark
2.0之前,spark_df.map
别名为spark_df.rdd.map()
。使用Spark 2.0,您必须先明确调用.rdd
。
当我尝试使用时,出现此错误。用于拉出列的数据帧的ix属性,例如。 这个脚本今天早上还能用,但是今天下午我在一个新的Linux环境中运行了它,安装了新的熊猫。以前有人见过这个错误吗?我找遍了这里和其他地方,但没找到。
下面的代码以前对我有用,但现在不行了。我得到了错误: AttributeError:“DataFrame”对象没有属性“to df”
我只是想按特定的列订购dask数据帧。 代码1-如果我叫它,它显示为确实是一个ddf 产出1 代码2 产出2 尝试解决方案 这是官方dask文档中的一个示例 仅熊猫-数据帧对象没有属性“sort\u values” 仅熊猫-“DataFrame”对象没有属性“sort” DASK答案-https://stackoverflow.com/a/40378896/10270590 我不想将其设置为索引,
问题内容: 我如何解决此错误,我是从GitHub下载此代码的。 引发错误 请帮我解决这个问题! 我用了: 我得到这个错误。有人帮我,我只想让它工作为什么这么难? 问题答案: 我怀疑您从中复制代码的地方启用了急切执行功能,即在程序开始时调用了该位置。 您也可以这样做。希望能有所帮助。 更新:请注意,默认情况下,TensorFlow 2.0中启用了急切执行。因此,以上答案仅适用于TensorFlow
问题内容: 下面的代码给出了错误: 码: 问题答案: 从代码中,我可以看到你希望允许用户下载pdf。 现在开始 去 http://localhost:5000
问题内容: 当我尝试时,会发生错误: 我找到了带有pyelasticsearch.py 的链接https://github.com/toastdriven/pyelasticsearch/blob/master/pyelasticsearch.py#L424-469,但我不知道它是哪个版本。无论如何,该代码中没有购买我的pyelasticsearch.py。任何人都有相同的经历吗?感谢您的