修改源码 解决 spark-redshift "String length exceeds DDL length" 问题

林建本
2023-12-01

spark-redshift 是由 databricks 公司开发的读写redshift 工具包
使用过程中字符串超过256字节就发生写redshift失败
错误类似如下

java.sql.SQLException:
Error (code 1204) while loading data into Redshift: "String length exceeds DDL length"
Table name: "STAGE"."TEMP_cae030466e9cbe1881ebc4aca4e52f2b"
Column name: keyword
Column type: varchar(256)

经过排查定位,发现这是 spark-redshift内部字段映射问题导致。无论redshift schema 将字段定义成多长,都没有用。
源代码RedshiftJDBCWrapper.scala 如下

          case StringType =>
            if (field.metadata.contains("maxlength")) {
              s"VARCHAR(${field.metadata.getLong("maxlength")})"
            } else {
              "TEXT"
            }

“TEXT”是256字节。
现修改为

            if (field.metadata.contains("maxlength")) {
              s"VARCHAR(${field.metadata.getLong("maxlength")})"
            } else {
              //"TEXT"
              "VARCHAR(1024)"
            }

问题解决
重新编译 “sbt package”

 类似资料: