当前位置: 首页 > 知识库问答 >
问题:

在PySpark中将StringType转换为ArrayType

司徒寒
2023-03-14

我试图在我的数据集上运行PySpark中的FPGrowth算法。

from pyspark.ml.fpm import FPGrowth

fpGrowth = FPGrowth(itemsCol="name", minSupport=0.5,minConfidence=0.6) 
model = fpGrowth.fit(df)

我得到以下错误:

An error occurred while calling o2139.fit.
: java.lang.IllegalArgumentException: requirement failed: The input 
column must be ArrayType, but got StringType.
at scala.Predef$.require(Predef.scala:224)

我的数据帧df格式如下:

df.show(2)

+---+---------+--------------------+
| id|     name|               actor|
+---+---------+--------------------+
|  0|['ab,df']|                 tom|
|  1|['rs,ce']|                brad|
+---+---------+--------------------+
only showing top 2 rows

如果“名称”列中的数据形式为:

 name
[ab,df]
[rs,ce]

如何在这个形式中从StringType转换为ArrayType

我从我的RDD形成了Dataframe:

rd2=rd.map(lambda x: (x[1], x[0][0] , [x[0][1]]))

rd3 = rd2.map(lambda p:Row(id=int(p[0]),name=str(p[2]),actor=str(p[1])))
df = spark.createDataFrame(rd3)

rd2.take(2):

[(0, 'tom', ['ab,df']), (1, 'brad', ['rs,ce'])]

共有2个答案

秦建元
2023-03-14

根据您之前的问题,您似乎错误地构建了rdd2

试试这个:

rd2 = rd.map(lambda x: (x[1], x[0][0] , x[0][1].split(",")))
rd3 = rd2.map(lambda p:Row(id=int(p[0]), name=p[2], actor=str(p[1])))

改变是我们称之为<code>str。在x[0][1]上拆分(,”,以便将类似“a,b”的字符串转换为列表:['a',b']

古弘
2023-03-14

数据帧的< code>name列中的每一行用逗号分隔。例如

from pyspark.sql.functions import pandas_udf, PandasUDFType

@pandas_udf('list', PandasUDFType.SCALAR)
def split_comma(v):
    return v[1:-1].split(',')

df.withColumn('name', split_comma(df.name))

或者更好,不要推迟。将名称直接设置到列表中。

rd2 = rd.map(lambda x: (x[1], x[0][0], x[0][1].split(',')))
rd3 = rd2.map(lambda p:Row(id=int(p[0]), name=p[2], actor=str(p[1])))
 类似资料: