cda格式转换器(CDA承接顶级机器学习Scikit-learn 中文社区上线)

CDA作为国内知名的全栈数据科学教育和认证品牌,一直致力于让优质的教育人人可得。Scikit-learn作为机器学习的入门工具库,深受初学者的喜爱。但是由于官方文档是英文撰写,限制了很多机器学习爱好者的学习过程。因此,专业、规范、实时的Scikit-learn中文学习社区,一直以来都是国内学习者所急需。

CDA 全国教研团队从2016年已经开始大规模使用Scikit-learn作为Python机器学习课程授课的主要工具库。无论是CDA就业班系列课程,还是周末集训课程,还是2018年推出的系列Scikit-learn课程,均深受国内数据科学爱好者的欢迎。

基于CDA全国教研团队近5年的Scikit-learn课程研发经验,为了响应越来越多的数据科学爱好者的学习需求,CDA通过一年多的Scikit-learn文档的翻译和认真校对,并在CDA研发部门的密切配合下,Scikit-learn中文社区终于上线了。从用户指南到API 、再到案例,翻译字数达一百余万字,相较与网络上流传的其他机器翻译的Scikit-learn中文资料,CDA Scikit-learn中文社区的翻译是最新的官方版本,并且内容更加全面,格式更加规范,翻译更加专业精准,努力为机器学习爱好者提供更便捷的学习途径。点击下方社区Logo,可进入CDA Scikit-learn中文社区!记得分享保存哦!(注:scikit-learn的官网是scikit-learn,CDA承接的中文社区网址是scikit-learn,这同时也标志着CDA与全球顶级深度学习和机器学习框架更进一步融合,CDA认证更加得到全球顶级技术框架的认可!

cda格式转换器(CDA承接顶级机器学习Scikit-learn 中文社区上线)

Scikit-learn(也称为sklearn)是针对Python编程语言的免费机器学习库。2007年,Scikit-learn首次被Google Summer of Code项目开发使用,现在已经被广泛大众认为是最受欢迎的机器学习库。

Sklearn具有许多的优点:

• 支持包括分类,回归,降维和聚类四大类机器学习算法。还包括了特征提取,数据处理和模型评估三大模块,具有着丰富的API接口。

• 代码样式清晰一致,这使得机器学习代码易于理解和再现,大大降低了机器学习的入门门槛。

• 得到了大量第三方工具的支持,有非常丰富的功能,适用于各种场景等。

如果你正在学习和使用机器学习,那么Scikit-learn可能是最好的工具库。Scikit-learn拥有着完善的文档,上手容易,具有着丰富的API,在机器学习爱好者中的被广泛使用。其已经封装了大量的机器学习算法,同时Scikit-learn内置了大量数据集,节省了获取和整理数据集的时间。

下面介绍Scikit-learn工具库使用的一些便捷方法

Scikit-learn是一个开源的机器学习库,它支持有监督和无监督的学习。它还提供了用于模型拟合,数据预处理,模型选择和评估以及许多其他实用程序的各种工具。


拟合和预测:估算器基础

Scikit-learn提供了数十种内置的机器学习算法和模型,称为估算器。每个估算器可以使用其拟合方法拟合到一些数据。

这是一个简单的示例,其中我们使用一些非常基本的数据来训练 RandomForestClassifier:

from sklearn.ensemble import RandomForestClassifier

clf = RandomForestClassifier(random_state=0)

X = , #2个样本,3个特征

... ]

y = #每一个样本的类别

clf.fit(X, y)

RandomForestClassifier(random_state=0)

所述拟合方法通常接受2个输入:

• 样本矩阵(或设计矩阵)X。X的大小通常为(n_samples, n_features),这意味着样本表示为行,特征表示为列。

• 目标值y是用于回归任务的真实数字,或者是用于分类的整数(或任何其他离散值)。对于无监督学习,y无需指定。

虽然某些估算器可以使用其他格式(例如稀疏矩阵),但是通常,两者X和y预计都是numpy数组或等效的类似 数组的数据类型。

估算器拟合后,可用于预测新数据的目标值。而无需重新训练估算器,非常便捷:

clf.predict(X) # 预测训练数据的标签

array()

clf.predict(, ]) # 预测新数据的标签

array()


转换器和预处理器

机器学习工作流程通常由不同的部分组成。典型的管道(Pipeline)包括一个转换或插入数据的预处理步骤,以及一个预测目标值的最终预测器。

在中scikit-learn,预处理器和转换器遵循与estimator对象相同的API(实际上它们都继承自同一 BaseEstimator类)。转换对象没有预测方法,但是需要有一个输出新转换的样本矩阵X的转换方法:

from sklearn.preprocessing import StandardScaler

X = ,

... ]

StandardScaler().fit(X).transform(X)

array(,

])

有时,如果你想要应用不同的转换器去处理不同的特征:ColumnTransformer专为这些用例而设计。


管道(Pipeline):连接预处理器和估算器

可以将转换器和估算器(预测器)组合在一起成为一个统一的对象:一个 Pipeline。这条管道提供相同的API作为常规估算器:它可以用fit和predict来训练和预测。正如我们将在后面看到的,使用管道还可以防止数据泄漏,即在训练数据中泄露一些测试数据。

在以下示例中,我们加载Iris数据集,将其分为训练集和测试集,然后根据测试数据计算管道的准确性得分:

from sklearn.preprocessing import StandardScaler

from sklearn.linear_model import LogisticRegression

from sklearn.pipeline import make_pipeline

from sklearn.datasets import load_iris

from sklearn.model_selection import train_test_split

from sklearn.metrics import accuracy_score

...

# 创建一个pipeline对象

pipe = make_pipeline(

... StandardScaler(),

... LogisticRegression(random_state=0)

... )

...

# 加载鸢尾花数据集并将其切分成训练集和测试集

X, y = load_iris(return_X_y=True)

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)

...

# 训练整个pipeline

pipe.fit(X_train, y_train)

Pipeline(steps=)

# 我们现在可以像使用其他任何估算器一样使用它

accuracy_score(pipe.predict(X_test), y_test)

0.97...


模型评估

用一些数据来训练模型并不意味着在一些未知的数据上也能预测得很好,这需要直接评估。

将模型拟合到一些数据并不意味着它将在看不见的数据上很好地预测。这需要直接评估。我们刚刚看到了train_test_split函数可以将数据集分为训练集和测试集,但是scikit-learn提供了许多其他模型评估工具,尤其是用于交叉验证的工具。

我们在这里简要展示了如何使用cross_validate帮助程序执行5折交叉验证过程。需要注意的是,还可以使用不同的数据拆分策略以及使用自定义评分功能来手动实现遍历。有关更多详细信息,请参阅我们的用户指南:

from sklearn.datasets import make_regression

from sklearn.linear_model import LinearRegression

from sklearn.model_selection import cross_validate

...

X, y = make_regression(n_samples=1000, random_state=0)

lr = LinearRegression()

...

result = cross_validate(lr, X, y) # 默认为5折交叉验证

result array()


自动参数搜索

所有估算器都有可以调整的参数(在文献中通常称为超参数)。估算器的泛化能力通常关键取决于几个参数。例如,在随机深林回归器 RandomForestRegressor中,n_estimators参数 确定林中树木数量,max_depth参数确定每棵树的最大深度。通常,这些参数的确切值是多少我们都不太清楚,因为它们取决于拿到的数据。

Scikit-learn提供了自动查找最佳参数组合的工具(通过交叉验证)。在以下示例中,我们使用 RandomizedSearchCV对象随机搜索随机森林的参数空间。搜索结束后,RandomizedSearchCV的表现就像是已经训练好最佳参数集的RandomForestRegressor。在用户指南中可以阅读更多内容:

from sklearn.datasets import fetch_california_housing

from sklearn.ensemble import RandomForestRegressor

from sklearn.model_selection import RandomizedSearchCV

from sklearn.model_selection import train_test_split

from scipy.stats import randint

...

X, y = fetch_california_housing(return_X_y=True)

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)

...

# 定义要搜索的参数空间

param_distributions = {'n_estimators': randint(1, 5),

... 'max_depth': randint(5, 10)}

...

# 现在创建一个searchCV 对象然后用数据训练它

search = RandomizedSearchCV(estimator=RandomForestRegressor(random_state=0),

... n_iter=5,

... param_distributions=param_distributions,

... random_state=0)

search.fit(X_train, y_train)

RandomizedSearchCV(estimator=RandomForestRegressor(random_state=0), n_iter=5,

param_distributions={'max_depth': ...,

'n_estimators': ...},

random_state=0)

search.best_params_

{'max_depth': 9, 'n_estimators': 4}

# 搜索对象现在就像普通的随机森林估计器一样

# max_depth=9 和 n_estimators=4

search.score(X_test, y_test)

0.73...

cda格式转换器(CDA承接顶级机器学习Scikit-learn 中文社区上线)