LinuxSir.cn,穿越时空的Linuxsir!

 找回密码
 注册
搜索
热搜: shell linux mysql
查看: 303|回复: 0

人工智能机器学习

[复制链接]
发表于 2023-12-22 18:09:22 | 显示全部楼层 |阅读模式

学习意味着通过学习或经验获得知识或技能。 基于此,我们可以定义机器学习(ML)如下 -

它被定义为计算机科学领域,更具体地说是人工智能的应用,它提供计算机系统学习数据和改进经验而不被明确编程的能力。

基本上,机器学习的主要重点是让电脑自动学习,无需人工干预。 现在的问题是,如何开始这样的学习并完成? 它可以从数据观察开始。 数据可以是一些例子,指导或一些直接的经验。 然后在这个输入的基础上,机器通过查找数据中的一些模式来做出更好的决定。
机器学习的类型(ML)

机器学习算法有助于计算机系统学习,而无需明确编程。 这些算法分为有监督或无监督。 现在让我们来看看几个常见的算法 -

监督机器学习算法

这是最常用的机器学习算法。 它被称为监督学习算法,因为从训练数据集中算法学习的过程可以被认为是监督学习过程的教师。 在这种ML算法中,可能的结果是已知的,并且训练数据也标有正确的答案。可以理解如下 -
  
假设有输入变量x和输出变量y,并且我们应用了一种算法来学习从输入到输出的映射函数,例如 -

Y = f(x)

现在,主要目标是近似映射函数,当有新的输入数据(x)时,可以预测该数据的输出变量(Y)。

主要监督问题可分为以下两类问题 -

分类 - 当有“黑色”,“教学”,“非教学”等分类输出时,问题被称为分类问题。

回归 - 当拥有“距离”,“千克”等真实值输出时,问题就称为回归问题。


决策树,随机森林,knn,逻辑回归是监督机器学习算法的例子。

顾名思义,这类机器学习算法没有任何主管提供任何指导。 这就是为什么无监督机器学习算法与一些人们称之为真正的人工智能密切相关的原因。 可以理解如下 -
  
假设有输入变量x,那么在监督学习算法中就没有相应的输出变量。

简而言之,可以说在无监督学习中,没有正确的答案,也没有教师指导。 算法有助于发现数据中有趣的模式。

无监督学习问题可以分为以下两类问题 -

聚类 - 在聚类问题中,我们需要发现数据中的固有分组。 例如,按顾客的购买行为分组。

关联 - 一个问题称为关联问题,因为这类问题需要发现描述大部分数据的规则。 例如,找到同时购买x和y商品的顾客。

用于聚类的K-means,Apriori关联算法是无监督机器学习算法的例子。

增强机器学习算法

这些机器学习算法的使用量非常少。 这些算法训练系统做出特定的决定。 基本上,机器暴露在使用试错法不断训练自己的环境中。 这些算法从过去的经验中学习并尝试捕获最佳可能的知识以做出准确的决策。 马尔可夫决策过程就是增强机器学习算法的一个例子。

最常见的机器学习算法

在本节中,我们将学习最常见的机器学习算法。 算法如下所述 -

线性回归

它是统计和机器学习中最着名的算法之一。

基本概念 - 主要是线性回归是一个线性模型,假设输入变量x和单个输出变量y之间的线性关系。 换句话说,y可以由输入变量x的线性组合来计算。 变量之间的关系可以通过拟合最佳线来确定。

线性回归的类型

线性回归有以下两种类型 -

简单线性回归 - 如果线性回归算法只有一个独立变量,则称为简单线性回归。

多元线性回归 - 如果线性回归算法具有多个独立变量,则称其为多元线性回归。


线性回归主要用于基于连续变量估计实际值。 例如,可以通过线性回归来估计一天内基于实际价值的商店总销售额。

Logistic回归它是一种分类算法,也称为logit回归。

主要逻辑回归是一种分类算法,用于根据给定的一组自变量来估计离散值,如0或1,真或假,是或否。 基本上,它预测的概率因此它的输出在0和1之间。

决策树

决策树是一种监督学习算法,主要用于分类问题。

基本上它是一个基于自变量表示为递归分区的分类器。 决策树具有形成根树的节点。 有根树是一个带有称为“根”节点的定向树。 Root没有任何传入边缘,所有其他节点都有一个传入边缘。 这些节点被称为树叶或决策节点。 例如,考虑下面的决策树来判断一个人是否适合。

支持向量机(SVM)

它用于分类和回归问题。 但主要用于分类问题。 SVM的主要概念是将每个数据项绘制为n维空间中的一个点,每个特征的值是特定坐标的值。 这里n将是功能。 以下是了解SVM概念的简单图形表示 -



在上图中,有两个特征,因此首先需要在二维空间中绘制这两个变量,其中每个点都有两个坐标,称为支持向量。 该行将数据分成两个不同的分类组。 这条线将是分类器。

朴素贝叶斯

这也是一种分类技术。 这种分类技术背后的逻辑是使用贝叶斯定理来构建分类器。 假设是预测变量是独立的。 简而言之,它假设类中某个特征的存在与任何其他特征的存在无关。 以下是贝叶斯定理的等式 -



朴素贝叶斯模型易于构建,特别适用于大型数据集。

K-最近邻居(KNN)

它用于问题的分类和回归。 它被广泛用于解决分类问题。 该算法的主要概念是它用来存储所有可用的案例,并通过其k个邻居的多数选票来分类新案例。 然后将该情况分配给通过距离函数测量的K近邻中最常见的类。 距离函数可以是欧几里得,明可夫斯基和海明距离。 考虑以下使用KNN -

计算上KNN比用于分类问题的其他算法昂贵。

变量的规范化需要其他更高的范围变量可以偏差。

在KNN中,需要在噪音消除等预处理阶段进行工作。

K均值聚类

顾名思义,它用于解决聚类问题。 它基本上是一种无监督学习。 K-Means聚类算法的主要逻辑是通过许多聚类对数据集进行分类。 按照这些步骤通过K-means形成聚类 -

K-means为每个簇选取k个点,称为质心。

每个数据点形成具有最接近质心的群集,即k个群集。

它将根据现有集群成员查找每个集群的质心。需要重复这些步骤直到收敛。

随机森林

它是一个监督分类算法。 随机森林算法的优点是它可以用于分类和回归两类问题。 基本上它是决策树的集合(即森林),或者可以说决策树的集合。随机森林的基本概念是每棵树给出一个分类,并且森林从它们中选择最好的分类。以下是随机森林算法的优点 -

随机森林分类器可用于分类和回归任务。

可以处理缺失的值。

即使在森林中有更多的树,它也不会过度适合模型。


//更多请阅读:https://www.yiibai.com/ai_with_python/with_python_machine_learning.html


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?注册

x
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表