程序问答   发布时间:2022-06-02  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了pyspark jdbc 默认覆盖 varchar2 大小 255 到 500大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决pyspark jdbc 默认覆盖 varchar2 大小 255 到 500?

开发过程中遇到pyspark jdbc 默认覆盖 varchar2 大小 255 到 500的问题如何解决?下面主要结合日常开发的经验,给出你关于pyspark jdbc 默认覆盖 varchar2 大小 255 到 500的解决方法建议,希望对你解决pyspark jdbc 默认覆盖 varchar2 大小 255 到 500有所启发或帮助;

我正在使用 pyspark 读取 AVRO 文件并写入 jdbc Oracle 数据库表。 我有一些长度超过 255 的列。 当我使用 pyspark jdbc write mode = overwrite 和 truncate=true 时,它​​会抛出一个错误,即列长度大于默认设置 255。 当我使用 pyspark jdbc write mode = append 这个问题不会出现。 你能帮忙看看有没有什么选项可以把默认的vachar2值设置为255左右。

注意:- 我已经尝试过 MaxStrLenth、CreateabLeoptions、createtablecolumnoptions 没有解决这个问题。

提前感谢您的帮助。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

@H_262_16@

大佬总结

以上是大佬教程为你收集整理的pyspark jdbc 默认覆盖 varchar2 大小 255 到 500全部内容,希望文章能够帮你解决pyspark jdbc 默认覆盖 varchar2 大小 255 到 500所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。