在通常的线性回归中,一切对我来说都很清楚——我推导出了构建模型的截距、自变量的系数,并编制了一个可以在实践中应用的经典线性回归方程。你能告诉我如何使用 RandomForestRegressor 获得类似的结果吗?“黑匣子”形式的模型还不错,但我想了解如何通过自变量来实现因变量的期望值。我阅读了文档,除了 R2 和 feature_importances_ 之外,我没有找到任何其他类似于 beta 回归系数的东西。或者我不明白的东西。
提前致谢!
在通常的线性回归中,一切对我来说都很清楚——我推导出了构建模型的截距、自变量的系数,并编制了一个可以在实践中应用的经典线性回归方程。你能告诉我如何使用 RandomForestRegressor 获得类似的结果吗?“黑匣子”形式的模型还不错,但我想了解如何通过自变量来实现因变量的期望值。我阅读了文档,除了 R2 和 feature_importances_ 之外,我没有找到任何其他类似于 beta 回归系数的东西。或者我不明白的东西。
提前致谢!
也许线性回归的例子很好,但是随机森林的结构要复杂得多。
RandomForestRegressor-- 模型的集合(即组合)n_estimatorsDecisionTreeRegressor。每棵树在设置超参数后,都会对新的观察结果进行预测。它根据附上的第一张图片进行预测(只有一个分类任务)。每次拆分时,尽量减少样本中的方差(实际上,一切都稍微复杂一点,您可以在这里阅读:https ://habr.com/en/post/116385/ )
在新样本命中树的某个叶子后,它会预测例如来自该叶子的目标的平均值(最简单的启发式方法)。
森林,在收到所有树的预测后,可以,例如,再次平均它们(在回归问题的背景下)并发出最终预测(再次,这是最简单的启发式)
很明显,该方法与 相比要严重得多
LinearRegression,因此不太可能用一个公式来描述预测(如果我弄错了,请我的同事纠正)