白话机器学习的数学的简单介绍
本篇文章给大家谈谈白话机器学习的数学,以及对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
本文目录一览:
什么是机器学习
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
它是人工智能的核心,是使计算机具有智能的根本途径。
机器学习有下面几种定义:
(1) 机器学习是芹友扮一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。
(2) 机器学习是对能通过经验自动改进的计算机算法的研究。
(3) 机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。
扩展资料:
基于学习策略的机器学习分类:
(1) 模拟人脑的机器学习
符号学习:模拟人脑的宏现心理级学习过程,以认知心理学原理为基础,告悄以符号数据为输入,以符号运算为方法,用推理过程在图或状态空间中搜索,学习的目标为概念或规则等。符号学习的典型方法有记忆学习、示例学习、演绎学习.类比学习、解释学习等。
神经网络学习(或连接学习):模拟人脑的微观生理级学习过程,以脑和神经科学原理为基础,以人工神经网络为函数结构模型,以数值数据为输人,以数值运算为方法,用迭代过程在系数向量空间中搜索,学习的目标为函数。典型的连接学习有权值修正学习、拓扑结构学习。
(2) 直接采用数学方法的机器学习
主要有统计机器嫌灶学习。
统计机器学习是基于对数据的初步认识以及学习目的的分析,选择合适的数学模型,拟定超参数,并输入样本数据,依据一定的策略,运用合适的学习算法对模型进行训练,最后运用训练好的模型对数据进行分析预测。
统计机器学习三个要素:
模型(model):模型在未进行训练前,其可能的参数是多个甚至无穷的,故可能的模型也是多个甚至无穷的,这些模型构成的集合就是假设空间。
策略(strategy):即从假设空间中挑选出参数最优的模型的准则。模型的分类或预测结果与实际情况的误差(损失函数)越小,模型就越好。那么策略就是误差最小。
算法(algorithm):即从假设空间中挑选模型的方法(等同于求解最佳的模型参数)。机器学习的参数求解通常都会转化为最优化问题,故学习算法通常是最优化算法,例如最速梯度下降法、牛顿法以及拟牛顿法等。
参考资料:百度百科-机器学习(多领域交叉学科)
机器学习的需要什么数学基础
我们知道,机器学习涉及到很多的工具,其中最重要的当属数学工具了,因此必要的数学基础可谓是打开机器学习大门的必备钥匙。机器学习涉及到的数学基础内容包括三个方面,分别是线性代数、概率统计和最优化理论。下面小编就会好好给大家介绍一下机器学习中涉及到的数学基础知道,让大家在日常的机器学习中可以更好地运用数学工具。
首先我们给大家介绍一下线性代数,线性代数起到的一个最主要的作用就是把具体的事物转化成抽象的数学模型。不管我们的世界当中有多么纷繁复杂,我们都可以把它转化成一个向量,或者一个矩阵的形式。这就是线性代数最主要的作用。所以,在线性代数解决表示这个问题的过程中,我们主要包括这样两个部分,一方面是线性空间理论,也就是我们说的向量、矩阵、变换这样一些问题。第二个是矩阵分析。给定一个矩阵,我们可以对它做所谓的SVD分解,也就是做奇异值分解,或者是做其他的罩蠢一些分析。这样两个部分共同构成了我们机器学习当中所需要的线性代数。
然后我们说一下概率统计,在评价过程中,我们需要使用到概率统计。概率统计包括了两个方面,一方面是数理统计,另外一方面是概率论。一般来说数理统计比较好理解,我们机器学习当中应用的很多模型都是来源于数理统计。像最简单的线性回归,还有逻辑回归,它实际上都是来源于统计学。在具体地给定了目标函数之后,我们在实际地去评价这个目标函数的时候,我们会用到一些概率论。当给定了一个分布,我们要求解这个目标函数的期望值。在平均意义上,这个目标函数能达到什么程度呢?这个时候就需要使用到概则消率论。所以说在评价这个过程中,我们会主要应用到概率统计的一些知识。
最后我们说一下最优化理论,其实关于优化,就不用说了,我们肯定用到的是最优化理论。在最优化理论当中,主要的研究方向是凸优化。凸优化当然它有些限制,但它的好处也很明显,比如说能够简化这个问题的解。因为在优化当中我们都知道,物盯陪我们要求的是一个最大值,或者是最小值,但实际当中我们可能会遇到一些局部的极大值,局部的极小值,还有鞍点这样的点。凸优化可以避免这个问题。在凸优化当中,极大值就是最大值,极小值也就是最小值。但在实际当中,尤其是引入了神经网络还有深度学习之后,凸优化的应用范围越来越窄,很多情况下它不再适用,所以这里面我们主要用到的是无约束优化。同时,在神经网络当中应用最广的一个算法,一个优化方法,就是反向传播。
《白话机器学习算法》pdf下载在线阅读,求百度网盘云资源
《白话机器学习算法》([新加坡] 黄莉婷)电子书网盘下载免费在线阅读
资源链接:
链接:
提取码:95xg
书名:白话冲郑乱机器学习算法
作者:[新加坡] 黄莉婷
译者:武传海
豆瓣评分:6.8
出版社:人民邮电出版社
出版年份:2019-2
页散档数:128
内容简介:
与使用数学语言或计算机编程语言讲解算法的书不同,本书另辟蹊径,用通俗易懂的人类语言以及大量有趣的示例和插图讲解10多种前沿的机器学习算法。内容涵盖k均值聚类、主成分分析、关联规则、社会网络分析等无监督学习算法,以及回归分析、k最近邻、支持向量机、决策树、随机森林、神经网络等监督学习算法,并概述强丛档化学习算法的思想。任何对机器学习和数据科学怀有好奇心的人都可以通过本书构建知识体系。
作者简介:
黄莉婷(Annalyn Ng),高级数据分析师,剑桥大学心理测量中心硕士,曾受邀在迪士尼研究中心研究客户行为科学,并通过数据挖掘技术帮助三星和雅虎等公司制定营销和人员招聘等方面的策略。
苏川集(Kenneth Soo),斯坦福大学统计学硕士,华威大学高材生,曾从事网络随机故障下应用程序的双目标稳健优化研究,善于用通俗的语言介绍数据科学。
[img]机器学习算法的主要数学理论依据包括
机器学习算法的主要数学理论依据包括:
算法或理论
用到的数学知识点
贝叶斯分类器
随机变量,贝叶斯公式,随机变量独立性,正态分布,最大似然估计
决策树 概率睁饥汪,嫡,Gini系数
KNN算法 距离函数
主成分分析
协方差矩阵,散布矩阵,拉格朗日乘数法,特征值与特征向量
流形学习
流形,最优化,测地线,测地距离,图,特征值与特征向量
线性判别分析
散度矩阵,逆矩阵,拉格朗日乘数法,特征值与特征向量
支持向量机
点到平面的距离,Slater条件,强对偶,拉格朗日对偶,KKT条件,凸优化,核函数,Mercer条件
logistic
概率,随机变量,最大似然估计,梯度下降法,凸优化,牛顿法
随机森林
抽样,方差
AdaBoost算法
概率,随机变量,极值定理,数学期望,牛顿法
隐马尔科夫模型
概率,离散型随机变量,条件概率,随机变量独立性,拉格朗日乘数法,最大似然估计
条件随机场
条件概率,数学期望,最大似然估计
高斯混合模型
正态分布,最大似然估计,Jensen不等式
人工神经网络
梯度下降法,链式法则
卷积神经网络悉仔
梯度下降法,链式法则
循环神经网络
梯度下降法,链式法则
生成对抗网络
梯度下降法,链式法则,极值定理,Kullback-Leibler散度,Jensen-Shannon散度,测地距离,肢烂条件分布,互信息
K-means算法
距离函数
贝叶斯网络
条件概率,贝叶斯公式,图
VC维
Hoeffding不等式
文艺青年迪克森HB:门/H5手4
关于白话机器学习的数学和的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。