大佬教程收集整理的这篇文章主要介绍了如何在 R 中设置 spark.sql.pivotMaxValues?,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
由于 R 还支持使用 Sparklyr
包的 Spark 平台,有没有办法从 R 设置 spark.sql.pivotMaxValues
?据我所知,仅在 Scala 和 Python 中支持此设置
How to set spark.sql.pivotMaxValues in python?
how to set spark.sql.pivotMaxValues in scala?
我需要它来制作交叉表电影评分数据集,其长度为 230K User x 44K MovIEs 我尝试将其添加到配置对象中,如下所示:
spark_config_connect <- function(memory_executor = "4GB",memory_fraction = 0.9,executor_core = 4,dynamic_memory_alLOCATIOn="false",pivot_max_values = 100000){
library(sparklyr)
conf <- spark_config() # Load variable with spark_config()
conf$spark.executor.memory <- memory_executor
conf$spark.memory.fraction <- memory_fraction
conf$spark.executor.cores <- executor_core
conf$spark.dynamicAlLOCATIOn.enabled <- dynamic_memory_alLOCATIOn
conf$spark.sql.pivotMaxValues <- pivot_max_values
spark_conn <- spark_connect(master = "local",config = conf) # Pass the conf variable
print(spark_version(sc=spark_conn))
return(spark_conn)
}
spark_conn <- spark_config_connect()
但随后拒绝连接:Error in file(con,"r") : cAnnot open the connection
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)
以上是大佬教程为你收集整理的如何在 R 中设置 spark.sql.pivotMaxValues?全部内容,希望文章能够帮你解决如何在 R 中设置 spark.sql.pivotMaxValues?所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。