隨機森林是一種集成學習方法,基本思想是把幾棵不同參數的決策樹(參考:Python+sklearn決策樹算法使用入門)打包到一起,每棵決策樹單獨進行預測,然后計算所有決策樹預測結果的平均值(適用于回歸分析)或所有決策樹“投票”得到最終結果(適用于分類)。在隨機森林算法中,不會讓每棵樹都生成最佳的節點,而是在每個節點上隨機選擇一個特征進行分裂。
擴展庫sklearn在ensemble模塊中提供了隨機森林分類器RandomForestClassifier和隨機森林回歸器RandomForestRegressor。本文重點介紹隨機森林分類器的用法,該類構造方法語法為
__init__(self, n_estimators=10, criterion='gini', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='auto', max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=1, random_state=None, verbose=0, warm_start=False, class_weight=None)
RandomForestRegressor類構造方法常用參數以及RandomForestRegressor類對象常用方法如下面的兩個表所示。
閱讀原文
版权声明:本站所有资料均为网友推荐收集整理而来,仅供学习和研究交流使用。
工作时间:8:00-18:00
客服电话
电子邮件
admin@qq.com
扫码二维码
获取最新动态