程序问答   发布时间:2022-06-02  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了将数据框放入randomForest pyspark大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决将数据框放入randomForest pyspark?

开发过程中遇到将数据框放入randomForest pyspark的问题如何解决?下面主要结合日常开发的经验,给出你关于将数据框放入randomForest pyspark的解决方法建议,希望对你解决将数据框放入randomForest pyspark有所启发或帮助;

如果您使用的是 ,我相信这就是您所需要的:

from pyspark.sql.functions import udf
from pyspark.mllib.linalg import Vectors
from pyspark.ml.linalg import VectorUDT
from pyspark.ml.feature import StringIndexer

df = spark.createDataFrame([("[-0.38475, 0.568]", "label1"), ("[0.645734, 0.699]", "label2")], ("features", "label"))

def parse(s):
  try:
    return Vectors.parse(s).asML()
  except:
    return None

parse_ = udf(parse, VectorUDT())

parsed = df.withcolumn("features", parse_("features"))

indexer = StringIndexer(inputCol="label", outputCol="label_indexed")

indexer.fit(parsed).transform(parsed).show()
## +----------------+------+-------------+
## |        features| label|label_indexed|
## +----------------+------+-------------+
## |[-0.38475,0.568]|label1|          0.0|
## |[0.645734,0.699]|label2|          1.0|
## +----------------+------+-------------+

使用 并没有太大不同:

from pyspark.sql.functions import udf
from pyspark.ml.feature import StringIndexer
from pyspark.mllib.linalg import Vectors, VectorUDT

df = sqlContext.createDataFrame([("[-0.38475, 0.568]", "label1"), ("[0.645734, 0.699]", "label2")], ("features", "label"))

parse_ = udf(Vectors.parse, VectorUDT())

parsed = df.withcolumn("features", parse_("features"))

indexer = StringIndexer(inputCol="label", outputCol="label_indexed")

indexer.fit(parsed).transform(parsed).show()
## +----------------+------+-------------+
## |        features| label|label_indexed|
## +----------------+------+-------------+
## |[-0.38475,0.568]|label1|          0.0|
## |[0.645734,0.699]|label2|          1.0|
## +----------------+------+-------------+

Vectors具有parse可以帮助您实现所要完成的功能的功能。

解决方法

我有一个DataFrame看起来像这样

+--------------------+------------------+
|            features|           labels |
+--------------------+------------------+
|[-0.38475,0.568...]|          label1  |
|[0.645734,0.699...]|          label2  |
|     .....          |          ...     |
+--------------------+------------------+

两列都是String类型(StringType()),我想将其放入spark ml
randomForest中。为此,我需要将要素列转换为包含浮点数的向量。有谁知道怎么做吗?

大佬总结

以上是大佬教程为你收集整理的将数据框放入randomForest pyspark全部内容,希望文章能够帮你解决将数据框放入randomForest pyspark所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。