大佬教程收集整理的这篇文章主要介绍了pyspark jdbc 默认覆盖 varchar2 大小 255 到 500,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在使用 pyspark 读取 AVRO 文件并写入 jdbc Oracle 数据库表。 我有一些长度超过 255 的列。 当我使用 pyspark jdbc write mode = overwrite 和 truncate=true 时,它会抛出一个错误,即列长度大于默认设置 255。 当我使用 pyspark jdbc write mode = append 这个问题不会出现。 你能帮忙看看有没有什么选项可以把默认的vachar2值设置为255左右。
注意:- 我已经尝试过 MaxStrLenth、CreateabLeoptions、createtablecolumnoptions 没有解决这个问题。
提前感谢您的帮助。
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)
@H_262_16@以上是大佬教程为你收集整理的pyspark jdbc 默认覆盖 varchar2 大小 255 到 500全部内容,希望文章能够帮你解决pyspark jdbc 默认覆盖 varchar2 大小 255 到 500所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。