介绍
我喜欢使用C++。C++是我学习过的第一种编程语言,我喜欢在机器学习中使用它。
我在之前写过关于构建机器学习模型的文章,我收到了一个回复,问我C++有没有机器学习的库?
这是个很好的问题。像Python和R这样的语言有大量的包和库来满足不同的机器学习任务,那么C++有没有这样的产品呢?
是的!在本文中,我将重点介绍两个这样的C++库,我们也将看到它们都是可以运行。目录为什么我们要使用机器学习库?C++中的机器学习库SHARK 图书馆MLPACK库为什么我们要使用机器学习库?这是很多新来者都会遇到的问题,库对于机器学习中的重要性是什么?让我试着在这一节解释一下。比如说,经验丰富的专业人士和行业老手已经付出了艰辛的努力,并想出了解决问题的办法。你更愿意使用它,还是愿意花几个小时从头开始重新创建相同的东西?后一种方法通常没有什么意义,尤其是当你在DDL前的工作或学习。我们的机器学习社区最大的优点是已经有很多解决方案以库和包的形式存在,其他一些人,从专家到爱好者,已经做了艰苦的工作,并将解决方案很好地打包在一个库中。这些机器学习库是有效的和优化的,它们经过了多个用例的彻底测试。依靠这些库,我们的学习能力和编写代码,无论是在C++或Python,都是如此的简单和直观。C++中的机器学习库在本节中,我们将介绍C+中两个最流行的机器学习库:SHARK库MLPACK库让我们逐一查看他们的介绍和C++代码。1.SHARK库Shark是一个快速的模块库,它对监督学习算法(如线性回归、神经网络、聚类、k-means等)提供了强大的支持,还包括线性代数和数值优化的功能,这些是在执行机器学习任务时非常重要的关键数学函数。我们将首先了解如何安装Shark并设置环境,然后我们将用Shark实现线性回归。安装Shark和安装环境(Linux)Shark依赖于Boost和cmake,幸运的是,可以使用以下命令安装所有依赖项:sudo apt-get install cmake cmake-curses-gui libatlas-base-dev libboost-all-dev要安装Shark,请在终端中逐行运行以下命令:gitt clone https://github.com/Shark-ML/Shark.git (you can download the zip file and extract as well)cd Sharkmkdir buildcd buildcmake ..make如果你没见到错误,那就没问题了。如果你遇到麻烦,网上有很多解决信息。对于Windows和其他操作系统,你可以在Google上快速搜索如何安装Shark。这有一份安装指南:http://www.shark-ml.org/sphinx_pages/build/html/rest_sources/tutorials/tutorials.html使用Shark编译程序
包括相关的头文件。假设我们要实现线性回归,那么额外的头文件包括:
#include <shark/ObjectiveFunctions/Loss/SquaredLoss.h>#include <shark/Algorithms/Trainers/LinearRegression.h>
编译需要链接到以下库:
-std=c++11 -lboost_serialization -lshark -lcblas
用Shark实现线性回归初始化阶段我们将从包含线性回归的库和头函数开始:#include <bits/stdc++.h> //所有c++标准库的头文件#include <shark/Data/Csv.h> //导入csv数据的头文件#include <shark/ObjectiveFunctions/Loss/SquaredLoss.h> //用于实现平方损失函数的头文件#include <shark/Algorithms/Trainers/LinearRegression.h>// 实现线性回归的头文件接下来是数据集。我已经创建了两个CSV文件。这个input.csv文件包含x值、label.csv文件包含y值。以下是数据的快照:
你可以在github仓库得到这2个文件:https://github.com/Alakhator/Machine-Learning-With-C-。首先,我们将制作用于存储CSV文件中数据的数据容器:Data<RealVector> inputs; //存储x值的容器Data<RealVector> labels; //存储y值的容器接下来,我们需要导入它们。Shark提供了一个很好的导入CSV函数,我们指定了要初始化的数据容器,以及CSV的路径文件的位置:importCSV(inputs, "input.csv"); // 通过指定csv的路径将值存储在特定的容器中importCSV(labels, "label.csv");然后,我们需要实例化一个回归数据集类型。目前这只是一个一般的回归对象,我们在构造函数中要做的是传递我们的输入以及数据的标签。接下来,我们需要训练线性回归模型。我们怎么做呢?我们需要实例化一个训练器,并定义一个线性模型:RegressionDataset data(inputs, labels);LinearRegression trainer;// 线性回归模型训练器LinearModel<> model; // 线性模型训练阶段接下来是我们实际训练模型的关键步骤。在这里,trainer有一个名为train的成员函数,我们用函数训练这个模型//训练模型trainer.train(model, data);// train function ro training the model.预测阶段最后,输出模型参数:// 显示模型参数cout << "intercept: " << model.offset() << endl;cout << "matrix: " << model.matrix() << endl;线性模型有一个名为offset的成员函数,输出最佳拟合线的截距。接下来,我们输出一个矩阵。我们通过最小化最小平方来计算最佳拟合,也就是最小化平方损失。幸运的是,模型允许我们输出这些信息。Shark库非常有助于说明模型的适用性:SquaredLoss<> loss; //初始化square loss对象Data<RealVector> prediction = model(data.inputs()); //根据数据输入预测cout << "squared loss: " << loss(data.labels(), prediction) << endl; // 最后我们计算损失首先,我们需要初始化一个平方损失对象,然后我们需要实例化一个数据容器,接下来根据系统的输入计算预测,最后我们只需通过传递标签和预测值来计算输出损失。接下来,我们需要编译。在终端中,键入以下命令(确保正确设置了目录):g++ -o lr linear_regression.cpp -std=c++11 -lboost_serialization -lshark -lcblas一旦编译,它就会创建一个lr对象。现在只需运行程序。我们得到的结果是:b : [1](-0.749091)A :[1,1]((2.00731))Loss: 7.83109b的值离0有点远,这是因为标签中存在噪声。乘数的值接近于2,与数据非常相似。这就是使用c++中的Shark库来构建线性回归模型的过程!2.MLPACK C++库mlpack是一个用c++编写的快速灵活的机器学习库。它的目标是提供快速和可扩展的机器学习算法的实现。mlpack可以将这些算法作为简单的命令行程序、或绑定Python、Julia和c++,然后可以将这些类集成到更大规模的机器学习解决方案中。我们将首先了解如何安装mlpack和环境,然后我们将使用mlpack实现k-means算法。安装mlpack和安装环境(Linux)mlpack依赖于以下库,这些库需要安装在系统上:Armadillo >= 8.400.0 (with LAPACK support)Boost (math_c99, program_options, serialization, unit_test_framework, heap, spirit) >= 1.49ensmallen >= 2.10.0在Ubuntu和Debian中,你可以通过apt获得所有这些依赖项:sudo apt-get install libboost-math-dev libboost-program-options-dev libboost-test-dev libboost-serialization-dev binutils-dev python-pandas python-numpy cython python-setuptools现在所有依赖项都已安装在系统中了,可以直接运行以下命令来生成和安装mlpack:wgettar -xvzpf mlpack-3.2.2.tar.gzmkdir mlpack-3.2.2/build && cd mlpack-3.2.2/buildcmake ../make -j4 # The -j is the number of cores you want to use for a buildsudo make install在许多Linux系统上,mlpack默认安装为/usr/local/lib,你可能需要设置LD_LIBRARY_PATH环境变量:export LD_LIBRARY_PATH=/usr/local/lib上面的说明是获取、构建和安装mlpack的最简单方法。用mlpack编译程序在你的程序中设置相关的头文件(实现k-means):#include <mlpack/methods/kmeans/kmeans.hpp>#include <armadillo>编译需要链接以下库:std=c++11 -larmadillo -lmlpack -lboost_serialization用mlpack实现K-MeansK-means是一个基于质心的算法,在这里我们通过计算距离来将一个点分配给一个簇。在K-Means中,每个簇都与一个质心相关联。K-Means算法的主要目标是最小化点与它们各自的簇质心之间的距离之和。K-means是一个有效的迭代过程,我们希望将数据分割成特定的簇。首先,我们指定一些初始质心,这些质心是完全随机的;接下来,对于每个数据点,我们找到最近的质心;然后我们将数据点指定给那个质心。所以每个质心代表一个类,一旦我们把所有的数据点分配给每个质心,我们就会计算出这些质心的平均值。这里,我们将使用C++中的MLPACK库来实现k-均值。初始化阶段我们将首先导入k-means的库和头函数:#include <bits/stdc++.h>#include <mlpack/methods/kmeans/kmeans.hpp>#include <armadillo>Using namespace std;接下来,我们将创建一些基本变量来设置簇的数量、数据的维度、样本的数量以及我们要执行的最大迭代次数,因为K-均值是一个迭代过程。#include <bits/stdc++.h>#include <mlpack/methods/kmeans/kmeans.hpp>#include <armadillo>Using namespace std;接下来,我们将创建数据。这是我们第一次使用Armadillo库,我们将创建一个映射类,它实际上是一个数据容器:arma::mat data(dim, samples, arma::fill::zeros);这个mat类,我们给它2维,50个样本,它初始化所有这些数据值为0。接下来,我们将向这个数据类分配一些随机数据,然后在其上有效地运行K-means。将在位置[1 1]周围创建25个点,我们可以说每个数据点是[1 1]或者在X = 1,y = 1的位置,然后我们要为这25个数据点中的每一个加一些随机噪声。// 创建数据 int i = 0; for(; i < samples / 2; ++i) { data.col(i) = arma::vec({1, 1}) + 0.25*arma::randn<arma::vec>(dim); } for(; i < samples; ++i) { data.col(i) = arma::vec({2, 3}) + 0.25*arma::randn<arma::vec>(dim); }这里,对于从0到25的i,基本位置是X = 1,y = 1,然后我们要添加一定数量的维度为2的随机噪声,最后我们对点x=2,y=3做同样的操作。我们的数据已经准备好了!是时候进入训练阶段了。训练阶段首先,我们实例化一个arma mat行类型来保存簇,然后实例化一个arma mat来保存质心://对数据进行聚类arma::Row<size_t> clusters;arma::mat centroids;现在,我们需要实例化K-means类:mlpack::kmeans::KMeans<> mlpack_kmeans(max_iter);我们实例化了K-means类,并指定了传递给构造函数的最大迭代次数。现在,我们可以进行聚类了。我们将调用这个K-means类的Cluster成员函数。我们需要传入数据、簇的数量,然后还要传入簇对象和质心对象。mlpack_kmeans.Cluster(data, k, clusters, centroids);现在,这个Cluster函数将使用指定数量的簇对这个数据运行K-means生成结果我们可以使用centroids.print函数简单地显示结果,这将给出质心的位置:centroids.print("Centroids:");接下来,我们需要编译。在终端中,键入以下命令(再次确认目录设置正确):g++ k_means.cpp -o kmeans_test -O3 -std=c++11 -larmadillo -lmlpack -lboost_serialization && ./kmeans_test一旦编译,它就会创建一个kmeans对象。现在只需运行程序。我们得到的结果是:Centroids:0.9497 1.96250.9689 3.0652结尾在本文中,我们看到了两个流行的机器学习库,它们帮助我们在c++中实现机器学习模型。参考链接:https://www.analyticsvidhya.com/blog/2020/05/introduction-machine-learning-libraries-c/
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )