spark-redshift 是由 databricks 公司开发的读写redshift 工具包
使用过程中字符串超过256字节就发生写redshift失败
错误类似如下
java.sql.SQLException:
Error (code 1204) while loading data into Redshift: "String length exceeds DDL length"
Table name: "STAGE"."TEMP_cae030466e9cbe1881ebc4aca4e52f2b"
Column name: keyword
Column type: varchar(256)
经过排查定位,发现这是 spark-redshift内部字段映射问题导致。无论redshift schema 将字段定义成多长,都没有用。
源代码RedshiftJDBCWrapper.scala 如下
case StringType =>
if (field.metadata.contains("maxlength")) {
s"VARCHAR(${field.metadata.getLong("maxlength")})"
} else {
"TEXT"
}
“TEXT”是256字节。
现修改为
if (field.metadata.contains("maxlength")) {
s"VARCHAR(${field.metadata.getLong("maxlength")})"
} else {
//"TEXT"
"VARCHAR(1024)"
}
问题解决
重新编译 “sbt package”