agi人工智能(人工智能 iu)

本篇文章给大家谈谈agi人工智能,以及人工智能 iu对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

「大模型+大算力」加持,通用人工智能和智能驾驶双向奔赴

开年以来 ChatGPT、GPT-4 的相继面世再度掀起计算机科学领域通用人工智能(AGI)研究热潮,也不断刷新我们对 AI 的认知。

作为具有人类水平表现的大型多模态模型,GPT-4 被视为迈向 AGI 的重要一步,标志着创新范式的深度变革和生产力的重新定义,也必将带来更多元的产品迁移。

截至目前,全球已经有超百万家初创公司声称使用这一秘密武器来创造新产品,而这些产品将彻底改变从法律到股票交易,从游戏到医疗诊断的近乎一切领域。

尽管其中很多是营销泡沫,但与所有技术突破一样,总会存在炒作周期和意想不到的远期效果。

事实上在另一边,进入 2023 年智能汽车领域同样十分热闹。

智能化已然成为上海车展全场关注的最大焦点,除了激光雷达等关键传感器的单点式突破,各大巨头也纷纷展示智春神能驾驶全产品矩阵,城市场景辅助驾驶量产落地加速推进。

更加值得注意的是,BEV、大模型、超算中心等计算机热词正在与自动驾驶、行泊一体、城市 NOA 等智驾焦点火速排列组合,颇有相互交融、双向奔赴的味道。

在这背后,一方面是近年来智驾、智舱持续升级对 AI 在汽车场景落地的数据、算法、算力不断提出更高要求,另一方面,AGI 的重大突破也已将触角伸向智能汽车,将其视为实现闭环应用的重要场景,很多企业布局已经相当高调。

日前,商汤科技 SenseTime 举办技术交流日活动,分享了以「大模型+大算力」推进 AGI 发展的战略布局,并公布该战略下的「日日新 SenseNova」大模型体系。

在「大模型+大算力」加持下,本次上海车展商汤绝影驾、舱、云一体产品体系已全栈亮相,近 30 款合作量产车型集中展出,商汤也再度分享了智能汽车时代的 AGI 落地新思考。

本次上海车展亮相的部分绝影合作车型展示

01、算法:AI 正式步入大模型时核森丛代

如商汤科技联合创始人、首席科学家、绝影智能汽车事业群总裁王晓刚所言,「AGI 催生了新的研究范式,即基于一个强大的多模态基模型,通过强化学习和人类反馈不断解锁基模型新的能力,从而更高效地解决海量的开放式任务。」

通用大模型并非为自动驾驶而生,或为满足自动驾驶的特定任务需求而设计。但智能驾驶开发的诸多新需求已在推动算法从专用小模型向通用大模型快速演进。

首先是应对海量数据处理和 Corner Case 问题的迫切需求。

对于感知系统低频出现但至关重要的小目标及带来的潜在安全隐患,算法开发需要面对海量数据,传统的 AI 小模型将难以同时处理大数据量和高复杂度的任务。通用大模型则可用在长尾目标的初筛过程,并叠加语料文字处理得到很好的效果。

再比如智驾算法开发对自动化数据标注、降低人工成本的诉求。相比于人工标注,通用大模型将自动化对海量数据完成标注任务,大幅降低标注数据获取的时间成本和本身的金钱成本,从而缩短研发周期、提升成本效益。

处于类似的考量,近年来国内外巨头企业已围绕大模型纷纷展开各自智驾布局。

继 Google 于 2017 年提出将 Transformer 结构应用在 CV 领域图像分类,大模型已在 GPT-2、GPT-3、BERT 等当中不断证明实力,特斯拉率先站台 Transformer 大模型征战图像视觉。

国内企业也紧随其后:

毫末智行已宣布自动驾驶认知大模型正式升级为 DriveGPT,百度表示利用大模型来提升自动驾驶感知能力改樱并将大模型运用到数据挖掘,华为也已宣布加入大模型争霸赛,自研「盘古」即将对外上线。

作为行业领先的人工智能公司,商汤在大模型领域可谓乘风破浪,过去一两年则全面将大模型能力在各业务线 20 多个场景落地,包括智能驾驶。

商汤「日日新 SenseNova」大模型体系背后是大模型研发中深厚的积累。商汤有自己的全栈大模型研发体系,其中就包括针对大模型的底层训练及实施过程中的各种系统性优化。

例如,商汤近期向社区发布的用于真实感知、重建和生成的多模态的数据集 OmniObject3D 中包含 190 类 6000 个物体,数据质量非常高。

再比如,商汤在 2019 年就已首次发布 10 亿参数的视觉大模型,到 2022 年参数规模已达到 320 亿,这也是世界上迄今为止最大的视觉模型。

此外,商汤也在智驾领域持续展示大模型能力。2021 年开发的 BEV 感知算法在 Waymo 挑战赛以绝对优势取得冠军,2021 年 BEV Former 的 Transformer 结构至今仍是行业最有影响力的 BEV 工作,今年开发的 UniAD 是业内首个感知决策一体化的端到端自动驾驶解决方案。

在技术实力的另一端是量产进度。商汤也给出了自己的智能驾驶量产公式:

自动驾驶技术能力=场景数据 x 数据获取效率 x 数据利用效率² =场景数据 x 数据获取效率 x 先进算法 x 先进算力。

而先进的算法大模型不仅将通过跨行业数据汇聚提升驾驶场景数据资源,通过数据闭环开发模式和自动数据标注提升数据获取效率,更将大幅提升感知精度和感知丰富度进而成倍提升数据利用效率。

依托原创 AI 算法和模型积累,商汤领先的 BEV 感知算法推进国内首批量产应用,并采用 Domain Adaption 算法有效解决跨域泛化问题。商汤首创的自动驾驶 GOP 感知体系将目标数据获取的人力成本降低 94%,实现低成本的车端模型开发,目前也已投入量产应用。

02、算力:智能汽车时代的重要基础设施

随电子电气架构技术由分布式不断向集中式演进,大算力芯片成为新型电子电气架构实现的物理基础。

近年来车端芯片算力发展突飞猛进,如英伟达规划中的 Atlan 单颗芯片算力超 1000TOPS,THOR 单颗算力超 2000TOPS,将大幅提升单车感知决策能力。

而在云端,AGI 在自动驾驶、网联等场景的泛化应用将提出比车端指数级更高的算力要求——从数据标注到模型训练,从场景仿真到算法迭代。

算力将是智能汽车时代的新型基础设施。

在此背景下,近年来主流企业纷纷开启双线并行探索,车端自研算力平台,云端建立超算中心。而进入大模型时代后,数据量随着多模态的引入也将大规模增长,因此必然也会导致 AGI 对算力需求的剧增。

可以看到,英伟达车端云端同步布局并将提供端到端的全栈式 AI 加速计算解决方案,特斯拉也早在 2021 年 8 月发布自研云端超算中心 Dojo。

据近期报道,埃隆·马斯克也将成立一家人工智能公司来与 OpenAI 竞争,已购买数千个英伟达 GPU 并一直招募 AI 研究人员和工程师。

国内方面,吉利、蔚来、特斯拉、毫末智行、小鹏等企业也已跟进布局云端算力集群,投入巨大以提升智驾开发算力储备。

对于商汤来说,如果说大模型将是支撑智能驾驶的上层建筑,那么大算力就是数字基座。

商汤科技董事长兼 CEO 徐立表示,目前大模型对基础算力、基础设施的需求非常旺盛,基础算力对并行效率的要求也非常高,但真正好用的基础设施其实十分稀缺。

出于这一原因,商汤历时五年自建了业界领先的 AI 大装置 SenseCore,完成 2.7 万块 GPU 的部署并实现 5.0 exa FLOPS 的算力输出能力,是亚洲目前最大的智能计算平台之一,可同步支持 20 个千亿规模参数量的超大模型同时训练。

位于上海临港的 AIDC 人工智能计算中心将为智能汽车的数据存储、标注、脱敏、仿真训练、算法迭代到部署的闭环提供算力支持,打通基于数据驱动的算法生产全流程,加速高级别智能驾驶技术的 AI 模型生产和持续迭代,推动实现规模化量产。

在 AIDC 的基础上,AI 大装置也将提供支持大模型生产的一系列服务:

处理大模型需要的自动化数据标注,将使智能标注效率提升百倍;

大模型推理部署,使得推理效率提升 100% 以上;

大模型并行训练,最大 4000 块卡并联的单集群,可训练参数量超 5000 亿的稠密模型,可训练超万亿参数;

大模型增量训练,增量微调成本降低 90%;

开源模型和大模型训练开发者工具,大规模提升开发效率。

如此规模的算力设施即使特斯拉同期也尚难以望其项背,也必将推动大模型的高效闭环。

03、「大模型+大算力」推动智能汽车行业整体进程

汽车行业正在面临百年未有之大变革。尽管此次以「大模型+大算力」推进 AGI 发展是商汤提出的战略布局,但事实上,这一理念早已在行业层面达成共识。

基于感知、决策规控和 AI 云三大核心能力,商汤「大模型+大算力」已赋能绝影驾、舱、云三位一体产品体系量产落地:

除智能驾驶领域的全栈能力和行泊一体量产解决方案外,「大模型+大算力」也正在助力商汤打造智能座舱跨场景生态。

车展期间,与商汤「日日新 SenseNova」大模型体系深度融合的绝影未来展示舱升级亮相,语言大模型「商汤商量 SenseChat」以及 AIGC 文生图平台「商汤秒画 SenseMirage」也已上车,多点融合重构人车交互方式,打造第三空间。

以「商量」为例,作为千亿级参数的自然语言处理模型,其使用大量数据训练并充分考虑中文语境,展示出出色的多轮对话和超长文本的理解能力。

商汤也展示了语言大模型支持的诸多汽车场景创新应用,如在行车过程中化身「邮件助手」自动提炼关键信息,作为「会议助理」自动生成会议纪要,大大节省用户行车时处理工作的时间和精力,为未来出行的应用场景拓展带来丰富的想象空间。

此外,以人工智能大模型开发、生产、应用为核心,一站式

【本文来自易车号作者汽车之心,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】

[img]

什么是人工智能

人工智能(Artificial Intelligence,简称 AI)是指由计算机系统或其他机器模拟、扩展和辅助人类智能的科学和技术。人工智能的研究目标是使计算机能够执行通常需要人类智能才能完成的任务,例如学习、推理、解决问题、识别模式、理解自然语言、感知和交互等。

人工智能可以分为两大类:

弱人工智能(Narrow AI):这种类型的人工智能专门针对特定任务或领域进行设计和优化,它只能在特定任务上表现出智能。例如,语音识别、图像识别袭敬租、自然语言处理等。

强人工智能(Artificial General Intelligence,简称 AGI):这种类拍兆型的人稿旁工智能可以像人类一样在多个领域或任务中展示智能。强人工智能可以自主学习、理解和适应不同的任务。目前,强人工智能还没有实现,但科学家们一直在努力朝这个方向发展。

人工智能的发展依赖于多个领域的研究和技术,如计算机科学、数学、统计学、语言学和心理学等。在过去几十年里,人工智能的发展已经取得了显著的进展,广泛应用于各种行业和领域,如医疗、金融、制造业、教育、交通等。

人工智能agi什么意思

英语缩略词“AGI”经常作为“Artificial General Intelligence”的缩写来使用,中文表示:“通用人工庆手智能”。本文将详细介绍英语缩写词AGI所代表英文单词,其对应的中文拼音、详细解释以及在英语中的流行度。此外,还有关于缩略词AGI的分类、应用领域及相关应用示例等。

“AGI”(“通用人工智能)释义

英文缩写词:AGI

英文单词:Artificial General Intelligence

缩写词中文简要解释:通用人工智能

中文拼音:tōng yòng rén gōng zhì néng

缩写词流行度:2647

缩写词分类:Miscellaneous

缩写词领域:Unclassified

以上为Artificial General Intelligence英文氏尺缩略词AGI的中文解释,以及该英文缩写在英语的流行度、分类和应用领域歼差高方面的信息。

人工智能( AI)是什么?

人工智能(Artificial Intelligence,简称 AI)是一门跨学科领域,旨在研究、开发和应用能够模拟、扩展和辅助人类智能的计算机系统。人工智能的主要目标是让计算机或其他类型的机器能够模仿、模拟或者超越人类的认知、推理、学习、感知、交流和创造等能力。

人工智能可以分为两大类:

弱人工智能(Narrow AI):也称为特定人工智能或应用人工智能,是专门针对某一特定任务或领域设计的智能系统。这些系统通常只能完成特定任务,而不能泛化到其他任务或领域。例如,语音识别、图像识别、推荐系统等。

强人工智能(AGI,Artificial General Intelligence):指具有广泛认知能力和泛化能力的人工智能系统,能够像人类一样在各种不同任务和领域中表现出智能。强人工智裂段能目前尚未实现,仍然是研究和探索的目标。

人工智能的发展和应用涉及许多技术和方法,如机器学习(Machine Learning,尤其是深度学习,Deep Learning)、知识表示与推理(Knowledge Representation and Reasoning)、自然语言处理(Natural Language Processing)、计算机视行皮觉(Computer Vision)、智能机器人(Intelligent Robotics)等。

人工智能已经在各个领域取得了显著的成果和广泛的应用,如医疗、金融、教育、档源差交通、工业生产等。然而,人工智能的发展仍面临诸多挑战,包括技术突破、伦理道德、法律法规、数据隐私和安全等问题。

量化巨头探索AGI,是用来炒股的吗?

不一定。虽然量化巨头探索AGI可能会用于炒股,但其实AGI的应用领域非常广模蔽泛,不仅仅局限于金融行业。AGI可以应用于医疗、能源、制造、交通、安全等各个领域,用于优化和改进各个方面的业务流程和决策。

在金轿码没融行闭纳业,AGI的应用主要是通过数据分析、机器学习等技术,帮助预测市场走势和优化投资组合。这种技术应用可以帮助量化交易公司更好地把握市场机会,提高投资收益,但也需要付出巨大的研发成本和计算资源。

因此,虽然量化巨头探索AGI可能会用于炒股,但其应用领域非常广泛,不仅仅限于金融行业。

人工智能一些术语总结

随着智能时代慢慢的到来,有一些基本概念都不知道真的是要落伍了,作为正在积极学习向上的青年,我想总结一份笔记,此份笔记会记录众多AI领域的术语和概念,当然,学一部分记录一部分,并且可能会夹杂着自己的一些理解,由于能力有限,有问题希望大家多多赐教。当然,由于内容太多,仅仅只是记录了中英名对照,有的加上了简单的解释,没加的后续大家有需求,我会慢慢完善~~。目录暂定以首字母的字典序排序。可以当作目录方便以后查阅~~建议收藏加点赞哈哈哈

------------------------------------------------这里是分割线--------------------------------------------------

A

准确率(accuracy)

分类模型预测准确的比例。

二分类问题中,准确率定义为:accuracy = (true positives +true negatives)/all samples

多分类问题中,准确率定义为:accuracy = correctpredictions/all samples

激活誉租函数(activation function)

一种函数,将前一层所有神经元激活值的加权和 输入到一个非线性函数中,然后作为下一层神经元的输入,例如 ReLU 或 Sigmoid

AdaGrad

一种复杂的梯度下降算法,重新调节每个参数的梯度,高效地给每个参数一个单独的学习率。

AUC(曲线下面积)

一种考虑到所有可能的分类阈值的评估标准。ROC 曲线下面积代表分类器随机预测真正类(Ture Positives)要比假正类(False Positives)概率大的确信度。

Adversarial example(对抗样本)

Adversarial Networks(对抗网络)

Artificial General Intelligence/AGI(通用人工智能)

Attention mechanism(注意力机制)

Autoencoder(自编码器)

Automatic summarization(自动摘要)

Average gradient(平均梯度)

Average-Pooling(平均池化)

B

反向传播(Backpropagation/BP)

神经网络中完成梯度下降的重要算法核返。首先,在前向传播的过程中计算每个节点的输出值。然后,在反向传播的过程中计算与每个参数对应的误差的偏导数。

基线(Baseline)

被用为对比模型表现参考的简单模型。

批量(Batch)

模型训练中一个迭代(指一次梯度更新)使用的样本集。

批量大小(Batch size)

一个批量中样本的数量。例如,SGD 的批量大小为 1,而 mini-batch 的批庆氏兆量大小通常在 10-1000 之间。

偏置(Bias)

与原点的截距或偏移量。

二元分类器(Binary classification)

一类分类任务,输出两个互斥类别中的一个。比如垃圾邮件检测。

词袋(Bag of words/Bow)

基学习器(Base learner)

基学习算法(Base learning algorithm)

贝叶斯网络(Bayesian network)

基准(Bechmark)

信念网络(Belief network)

二项分布(Binomial distribution)

玻尔兹曼机(Boltzmann machine)

自助采样法/可重复采样/有放回采样(Bootstrap sampling)

广播(Broadcasting)

C

类别(Class)

所有同类属性的目标值作为一个标签。

分类模型(classification)

机器学习模型的一种,将数据分离为两个或多个离散类别。

收敛(convergence)

训练过程达到的某种状态,其中训练损失和验证损失在经过了确定的迭代次数后,在每一次迭代中,改变很小或完全不变。

凸函数(concex function)

一种形状大致呈字母 U 形或碗形的函数。然而,在退化情形中,凸函数的形状就像一条线。

成本(cost)

loss 的同义词。深度学习模型一般都会定义自己的loss函数。

交叉熵(cross-entropy)

多类别分类问题中对 Log 损失函数的推广。交叉熵量化两个概率分布之间的区别。

条件熵(Conditional entropy)

条件随机场(Conditional random field/CRF)

置信度(Confidence)

共轭方向(Conjugate directions)

共轭分布(Conjugate distribution)

共轭梯度(Conjugate gradient)

卷积神经网络(Convolutional neural network/CNN)

余弦相似度(Cosine similarity)

成本函数(Cost Function)

曲线拟合(Curve-fitting)

D

数据集(data set)

样本的集合

深度模型(deep model)

一种包含多个隐藏层的神经网络。深度模型依赖于其可训练的非线性性质。和宽度模型对照(widemodel)。

dropout 正则化(dropoutregularization)

训练神经网络时一种有用的正则化方法。dropout 正则化的过程是在单次梯度计算中删去一层网络中随机选取的固定数量的单元。删去的单元越多,正则化越强。

数据挖掘(Data mining)

决策树/判定树(Decisiontree)

深度神经网络(Deep neural network/DNN)

狄利克雷分布(Dirichlet distribution)

判别模型(Discriminative model)

下采样(Down sampling)

动态规划(Dynamic programming)

E

早期停止法(early stopping)

一种正则化方法,在训练损失完成下降之前停止模型训练过程。当验证数据集(validationdata set)的损失开始上升的时候,即泛化表现变差的时候,就该使用早期停止法了。

嵌入(embeddings)

一类表示为连续值特征的明确的特征。嵌入通常指将高维向量转换到低维空间中。

经验风险最小化(empirical risk minimization,ERM)

选择能使得训练数据的损失函数最小化的模型的过程。和结构风险最小化(structualrisk minimization)对照。

集成(ensemble)

多个模型预测的综合考虑。可以通过以下一种或几种方法创建一个集成方法:

设置不同的初始化;

设置不同的超参量;

设置不同的总体结构。

深度和广度模型是一种集成。

样本(example)

一个数据集的一行内容。一个样本包含了一个或多个特征,也可能是一个标签。参见标注样本(labeledexample)和无标注样本(unlabeled example)。

F

假负类(false negative,FN)

被模型错误的预测为负类的样本。例如,模型推断一封邮件为非垃圾邮件(负类),但实际上这封邮件是垃圾邮件。

假正类(false positive,FP)

被模型错误的预测为正类的样本。例如,模型推断一封邮件为垃圾邮件(正类),但实际上这封邮件是非垃圾邮件。

假正类率(false positive rate,FP rate)

ROC 曲线(ROC curve)中的 x 轴。FP 率的定义是:假正率=假正类数/(假正类数+真负类数)

特征工程(feature engineering)

在训练模型的时候,挖掘对模型效果有利的特征。

前馈神经网络(Feedforward Neural Networks/FNN )

G

泛化(generalization)

指模型利用新的没见过的数据而不是用于训练的数据作出正确的预测的能力。

广义线性模型(generalized linear model)

最小二乘回归模型的推广/泛化,基于高斯噪声,相对于其它类型的模型(基于其它类型的噪声,比如泊松噪声,或类别噪声)。广义线性模型的例子包括:

logistic 回归

多分类回归

最小二乘回归

梯度(gradient)

所有变量的偏导数的向量。在机器学习中,梯度是模型函数的偏导数向量。梯度指向最陡峭的上升路线。

梯度截断(gradient clipping)

在应用梯度之前先修饰数值,梯度截断有助于确保数值稳定性,防止梯度爆炸出现。

梯度下降(gradient descent)

通过计算模型的相关参量和损失函数的梯度最小化损失函数,值取决于训练数据。梯度下降迭代地调整参量,逐渐靠近权重和偏置的最佳组合,从而最小化损失函数。

图(graph)

在 TensorFlow 中的一种计算过程展示。图中的节点表示操作。节点的连线是有指向性的,表示传递一个操作(一个张量)的结果(作为一个操作数)给另一个操作。使用 TensorBoard 能可视化计算图。

高斯核函数(Gaussian kernel function)

高斯混合模型(Gaussian Mixture Model)

高斯过程(Gaussian Process)

泛化误差(Generalization error)

生成模型(Generative Model)

遗传算法(Genetic Algorithm/GA)

吉布斯采样(Gibbs sampling)

基尼指数(Gini index)

梯度下降(Gradient Descent)

H

启发式(heuristic)

一个问题的实际的和非最优的解,但能从学习经验中获得足够多的进步。

隐藏层(hidden layer)

神经网络中位于输入层(即特征)和输出层(即预测)之间的合成层。一个神经网络包含一个或多个隐藏层。

超参数(hyperparameter)

连续训练模型的过程中可以拧动的「旋钮」。例如,相对于模型自动更新的参数,学习率(learningrate)是一个超参数。和参量对照。

硬间隔(Hard margin)

隐马尔可夫模型(Hidden Markov Model/HMM)

层次聚类(Hierarchical clustering)

假设检验(Hypothesis test)

I

独立同分布(independently and identicallydistributed,i.i.d)

从不会改变的分布中获取的数据,且获取的每个值不依赖于之前获取的值。i.i.d. 是机器学习的理想情况——一种有用但在现实世界中几乎找不到的数学构建。

推断(inference)

在机器学习中,通常指将训练模型应用到无标注样本来进行预测的过程。在统计学中,推断指在观察到的数据的基础上拟合分布参数的过程。

输入层(input layer)

神经网络的第一层(接收输入数据)。

评分者间一致性(inter-rater agreement)

用来衡量一项任务中人类评分者意见一致的指标。如果意见不一致,则任务说明可能需要改进。有时也叫标注者间信度(inter-annotator agreement)或评分者间信度(inter-raterreliability)。

增量学习(Incremental learning)

独立成分分析(Independent Component Analysis/ICA)

独立子空间分析(Independent subspace analysis)

信息熵(Information entropy)

信息增益(Information gain)

J

JS 散度(Jensen-ShannonDivergence/JSD)

K

Kernel 支持向量机(KernelSupport Vector Machines/KSVM)

一种分类算法,旨在通过将输入数据向量映射到更高维度的空间使正类和负类之间的边际最大化。例如,考虑一个输入数据集包含一百个特征的分类问题。为了使正类和负类之间的间隔最大化,KSVM 从内部将特征映射到百万维度的空间。KSVM 使用的损失函数叫作 hinge 损失。

核方法(Kernel method)

核技巧(Kernel trick)

k 折交叉验证/k 倍交叉验证(K-fold cross validation)

K - 均值聚类(K-MeansClustering)

K近邻算法(K-Nearest NeighboursAlgorithm/KNN)

知识图谱(Knowledge graph)

知识库(Knowledge base)

知识表征(Knowledge Representation)

L

L1 损失函数(L1 loss)

损失函数基于模型对标签的预测值和真实值的差的绝对值而定义。L1 损失函数比起 L2 损失函数对异常值的敏感度更小。

L1 正则化(L1regularization)

一种正则化,按照权重绝对值总和的比例进行惩罚。在依赖稀疏特征的模型中,L1 正则化帮助促使(几乎)不相关的特征的权重趋近于 0,从而从模型中移除这些特征。

L2 损失(L2 loss)

参见平方损失。

L2 正则化(L2regularization)

一种正则化,按照权重平方的总和的比例进行惩罚。L2 正则化帮助促使异常值权重更接近 0 而不趋近于 0。(可与 L1 正则化对照阅读。)L2 正则化通常改善线性模型的泛化效果。

标签(label)

在监督式学习中,样本的「答案」或「结果」。标注数据集中的每个样本包含一或多个特征和一个标签。在垃圾邮件检测数据集中,特征可能包括主题、发出者何邮件本身,而标签可能是「垃圾邮件」或「非垃圾邮件」。

标注样本(labeled example)

包含特征和标签的样本。在监督式训练中,模型从标注样本中进行学习。

学习率(learning rate)

通过梯度下降训练模型时使用的一个标量。每次迭代中,梯度下降算法使学习率乘以梯度,乘积叫作 gradient step。学习率是一个重要的超参数。

最小二乘回归(least squares regression)

通过 L2 损失最小化进行训练的线性回归模型。

线性回归(linear regression)

对输入特征的线性连接输出连续值的一种回归模型。

logistic 回归(logisticregression)

将 sigmoid 函数应用于线性预测,在分类问题中为每个可能的离散标签值生成概率的模型。尽管 logistic 回归常用于二元分类问题,但它也用于多类别分类问题(这种情况下,logistic回归叫作「多类别 logistic 回归」或「多项式 回归」。

对数损失函数(Log Loss)

二元 logistic 回归模型中使用的损失函数。

损失(Loss)

度量模型预测与标签距离的指标,它是度量一个模型有多糟糕的指标。为了确定损失值,模型必须定义损失函数。例如,线性回归模型通常使用均方差作为损失函数,而 logistic 回归模型使用对数损失函数。

隐狄利克雷分布(Latent Dirichlet Allocation/LDA)

潜在语义分析(Latent semantic analysis)

线性判别(Linear Discriminant Analysis/LDA)

长短期记忆(Long-Short Term Memory/LSTM)

M

机器学习(machine learning)

利用输入数据构建(训练)预测模型的项目或系统。该系统使用学习的模型对与训练数据相同分布的新数据进行有用的预测。机器学习还指与这些项目或系统相关的研究领域。

均方误差(Mean Squared Error/MSE)

每个样本的平均平方损失。MSE 可以通过平方损失除以样本数量来计算。

小批量(mini-batch)

在训练或推断的一个迭代中运行的整批样本的一个小的随机选择的子集。小批量的大小通常在10 到 1000 之间。在小批量数据上计算损失比在全部训练数据上计算损失要高效的多。

机器翻译(Machine translation/MT)

马尔可夫链蒙特卡罗方法(Markov Chain Monte Carlo/MCMC)

马尔可夫随机场(Markov Random Field)

多文档摘要(Multi-document summarization)

多层感知器(Multilayer Perceptron/MLP)

多层前馈神经网络(Multi-layer feedforward neuralnetworks)

N

NaN trap

训练过程中,如果模型中的一个数字变成了 NaN,则模型中的很多或所有其他数字最终都变成 NaN。NaN 是「Not aNumber」的缩写。

神经网络(neural network)

该模型从大脑中获取灵感,由多个层组成(其中至少有一个是隐藏层),每个层包含简单的连接单元或神经元,其后是非线性。

神经元(neuron)

神经网络中的节点,通常输入多个值,生成一个输出值。神经元通过将激活函数(非线性转换)应用到输入值的加权和来计算输出值。

归一化(normalization)

将值的实际区间转化为标准区间的过程,标准区间通常是-1 到+1 或 0 到 1。例如,假设某个特征的自然区间是 800 到 6000。通过减法和分割,你可以把那些值标准化到区间-1 到+1。参见缩放。

Numpy

Python 中提供高效数组运算的开源数学库。pandas 基于 numpy 构建。

Naive bayes(朴素贝叶斯)

Naive Bayes Classifier(朴素贝叶斯分类器)

Named entity recognition(命名实体识别)

Natural language generation/NLG(自然语言生成)

Natural language processing(自然语言处理)

Norm(范数)

O

目标(objective)

算法尝试优化的目标函数。

one-hot 编码(独热编码)(one-hotencoding)

一个稀疏向量,其中:一个元素设置为 1,所有其他的元素设置为 0。。

一对多(one-vs.-all)

给出一个有 N 个可能解决方案的分类问题,一对多解决方案包括 N 个独立的二元分类器——每个可能的结果都有一个二元分类器。例如,一个模型将样本分为动物、蔬菜或矿物,则一对多的解决方案将提供以下三种独立的二元分类器:

动物和非动物

蔬菜和非蔬菜

矿物和非矿物

过拟合(overfitting)

创建的模型与训练数据非常匹配,以至于模型无法对新数据进行正确的预测

Oversampling(过采样)

P

pandas

一种基于列的数据分析 API。很多机器学习框架,包括 TensorFlow,支持 pandas 数据结构作为输入。参见 pandas 文档。

参数(parameter)

机器学习系统自行训练的模型的变量。例如,权重是参数,它的值是机器学习系统通过连续的训练迭代逐渐学习到的。注意与超参数的区别。

性能(performance)

在软件工程中的传统含义:软件运行速度有多快/高效?

在机器学习中的含义:模型的准确率如何?即,模型的预测结果有多好?

困惑度(perplexity)

对模型完成任务的程度的一种度量指标。例如,假设你的任务是阅读用户在智能手机上输入的单词的头几个字母,并提供可能的完整单词列表。该任务的困惑度(perplexity,P)是为了列出包含用户实际想输入单词的列表你需要进行的猜测数量。

流程(pipeline)

机器学习算法的基础架构。管道包括收集数据、将数据放入训练数据文件中、训练一或多个模型,以及最终输出模型。

Principal component analysis/PCA(主成分分析)

Precision(查准率/准确率)

Prior knowledge(先验知识)

Q

Quasi Newton method(拟牛顿法)

R

召回率(recall)

回归模型(regression model)

一种输出持续值(通常是浮点数)的模型。而分类模型输出的是离散值。

正则化(regularization)

对模型复杂度的惩罚。正则化帮助防止过拟合。正则化包括不同种类:

L1 正则化

L2 正则化

dropout 正则化

early stopping(这不是正式的正则化方法,但可以高效限制过拟合)

正则化率(regularization rate)

一种标量级,用 lambda 来表示,指正则函数的相对重要性。从下面这个简化的损失公式可以看出正则化率的作用:

minimize(loss function + λ(regularization function))

提高正则化率能够降低过拟合,但可能会使模型准确率降低。

表征(represention)

将数据映射到有用特征的过程。

受试者工作特征曲线(receiver operatingcharacteristic/ROC Curve)

反映在不同的分类阈值上,真正类率和假正类率的比值的曲线。参见 AUC。

Recurrent Neural Network(循环神经网络)

Recursive neural network(递归神经网络)

Reinforcement learning/RL(强化学习)

Re-sampling(重采样法)

Representation learning(表征学习)

Random Forest Algorithm(随机森林算法)

S

缩放(scaling)

特征工程中常用的操作,用于控制特征值区间,使之与数据集中其他特征的区间匹配。例如,假设你想使数据集中所有的浮点特征的区间为 0 到 1。给定一个特征区间是 0 到 500,那么你可以通过将每个值除以 500,缩放特征值区间。还可参见正则化。

scikit-learn

一种流行的开源机器学习平台。网址:。

序列模型(sequence model)

输入具有序列依赖性的模型。例如,根据之前观看过的视频序列对下一个视频进行预测。

Sigmoid 函数(sigmoid function)

softmax

为多类别分类模型中每个可能的类提供概率的函数。概率加起来的总和是 1.0。例如,softmax 可能检测到某个图像是一只狗的概率为 0.9,是一只猫的概率为 0.08,是一匹马的概率为 0.02。(也叫作 full softmax)。

结构风险最小化(structural risk minimization/SRM)

这种算法平衡两个目标:

构建预测性最强的模型(如最低损失)。

使模型尽量保持简单(如强正则化)。

比如,在训练集上的损失最小化 + 正则化的模型函数就是结构风险最小化算法。更多信息,参见 。可与经验风险最小化对照阅读。

监督式机器学习(supervised machine learning)

利用输入数据及其对应标签来训练模型。监督式机器学习类似学生通过研究问题和对应答案进行学习。在掌握问题和答案之间的映射之后,学生就可以提供同样主题的新问题的答案了。可与非监督机器学习对照阅读。

Similarity measure(相似度度量)

Singular Value Decomposition(奇异值分解)

Soft margin(软间隔)

Soft margin maximization(软间隔最大化)

Support Vector Machine/SVM(支持向量机)

T

张量(tensor)

TensorFlow 项目的主要数据结构。张量是 N 维数据结构(N 的值很大),经常是标量、向量或矩阵。张量可以包括整数、浮点或字符串值。

Transfer learning(迁移学习)

U

无标签样本(unlabeled example)

包含特征但没有标签的样本。无标签样本是推断的输入。在半监督学习和无监督学习的训练过程中,通常使用无标签样本。

无监督机器学习(unsupervised machine learning)

训练一个模型寻找数据集(通常是无标签数据集)中的模式。无监督机器学习最常用于将数据分成几组类似的样本。无监督机器学习的另一个例子是主成分分析(principal componentanalysis,PCA)

W

Word embedding(词嵌入)

Word sense disambiguation(词义消歧)

关于agi人工智能和人工智能 iu的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

标签列表