君同未来
首页
产品中心
解决方案
企业动态
资源中心
关于我们
the-earth简体中文
menu
产品中心
君测
君测
生成式人工智能评测验证系统决策式人工智能评测增强系统
君控
君控
人工智能风险防护系统人工智能监测管控系统
君学
君学
人工智能教学演练系统人工智能科研实验系统人工智能靶场实训系统人工智能竞赛实战系统
君识
君识
AIGC检测溯源系统AIGC标识溯源系统
解决方案
按场景
按场景
金融场景能源场景汽车场景教育场景运营商场景物联网场景政务服务场景
按案例
按案例
Chat基底模型应用Agent场景化服务RAG知识库应用
企业动态
资源中心
关于我们
关于我们
关于我们
企业动态
企业动态
预约咨询
预约咨询

产品咨询热线

400-600-2030

市场合作

info@gentel.com

官方微信

官方微信
君同未来 | 助力人类基础脑力劳动可信替代
联系我们
  • 地址:
    浙江省杭州市滨江区东信大道东方通信产业园2号楼
  • 合作:info@gentel.com
  • 电话:400-600-2030
  • 微信公众号
© 2021-2025 杭州君同未来科技有限责任公司版权所有浙ICP备2021034072号浙公网安备33010802013572号
© 2021-2025 杭州君同未来科技有限责任公司版权所有
浙ICP备2021034072号
浙公网安备33010802013572号
开课啦|AI技术名词以及衍生概念一箩筐
产业博客
|
2024.01.13

01 成对抗网络

如果AI会做梦,那它的梦大概就是生成对抗网络(GANs)生成的。GANs(Generative Adversarial Networks)由两个“对手”组成:生成器负责“造假”,判别器负责“打假”。两者互相较劲,结果就是生成器越来越会“骗人”,直到连判别器都分不清真假。

(图片来源:https://cdn.jsdelivr.net/gh/l61012345/Pic/img/20220910203450.png)
(图片来源:https://cdn.jsdelivr.net/gh/l61012345/Pic/img/20220910203450.png)

02 迁移学习

如果说AI是一名学生,那么迁移学习(Transfer Learning)就是它的“学霸技能”。它能把在一个领域学到的知识,快速迁移到另一个领域。比如,教AI识别猫之后,它还能很快学会识别老虎。

(图片来源:https://pic3.zhimg.com/v2-38fa0b9df48f58d341db628a47018a16_b.jpg)
(图片来源:https://pic3.zhimg.com/v2-38fa0b9df48f58d341db628a47018a16_b.jpg)

03 强化学习

强化学习(Reinforcement Learning)就像教AI玩游戏:它通过不断试错,从失败中吸取教训,从成功中获得奖励,最终学会最优策略。

(图片来源:https://th.bing.com/th/id/R.2f661837bc20a38d1bb2a666952fdf13?rik=qIRsz0AUpOGRAg&riu=http%3a%2f%2fhrl.boyuai.com%2fstatic%2f11.da5ee18f.png&ehk=0tRm6huFQHOOt%2fMbodXYAqg%2bYaX0HcgGIPRsKrrzSvY%3d&risl=&pid=ImgRaw&r=0)
(图片来源:https://th.bing.com/th/id/R.2f661837bc20a38d1bb2a666952fdf13?rik=qIRsz0AUpOGRAg&riu=http%3a%2f%2fhrl.boyuai.com%2fstatic%2f11.da5ee18f.png&ehk=0tRm6huFQHOOt%2fMbodXYAqg%2bYaX0HcgGIPRsKrrzSvY%3d&risl=&pid=ImgRaw&r=0)

04 元学习

元学习(Meta-Learning),AI界的“武林秘籍”,它教AI如何快速掌握新技能,也被称为“学习如何学习”。它指的是开发能够快速适应新任务的AI系统。元学习涉及多个层次的学习:系统不仅需要在特定任务上表现出色,还需要在任务之间提取通用的学习规则。这种“学习的层次性”使得元学习的边界难以明确。此外,元学习的实现路径多种多样,包括优化算法、神经网络架构搜索和强化学习等技术,每种方法都有其独特的优势和局限性。更复杂的是,元学习与迁移学习、自适应智能等概念存在一定的交叉,进一步模糊了其定义。

图片来源:https://lilianweng.github.io/lil-log/assets/images/meta-network.png)
图片来源:https://lilianweng.github.io/lil-log/assets/images/meta-network.png)

05 集成学习

单打独斗不如团队合作,集成学习(Ensemble Learning)就是让多个模型“抱团取暖”,通过投票或加权的方式,得出更准确的结果。

(图片来源:https://assets-global.website-files.com/5d7b77b063a9066d83e1209c/627d12343ba5be3ca8ceb31c_61f7bbd4e90cce440b88ea32_ensemble-learning.png)
(图片来源:https://assets-global.website-files.com/5d7b77b063a9066d83e1209c/627d12343ba5be3ca8ceb31c_61f7bbd4e90cce440b88ea32_ensemble-learning.png)

06 深度强化学习

深度强化学习(Deep Reinforcement Learning)是强化学习和深度学习的结合体,它让AI在复杂环境中也能做出聪明的决策。

(图片来源:https://www.researchgate.net/publication/343036383/figure/fig3/AS:914463767138311@1595036560681/Structural-diagram-of-Deep-Reinforcement-Learning.jpg)
(图片来源:https://www.researchgate.net/publication/343036383/figure/fig3/AS:914463767138311@1595036560681/Structural-diagram-of-Deep-Reinforcement-Learning.jpg)

07 零样本学习

零样本学习(Zero-shot Learning)让AI在完全没见过样本的情况下,也能识别新类别。它的秘诀是利用已有知识进行推理,就像你没见过袋鼠,但知道它是“有袋动物”,于是能猜出它的样子。

(图片来源:https://assets-global.website-files.com/5d7b77b063a9066d83e1209c/62b5c6bc393fc54b1b3a9025_zero-shot%20learning_pic2_1.png)
(图片来源:https://assets-global.website-files.com/5d7b77b063a9066d83e1209c/62b5c6bc393fc54b1b3a9025_zero-shot%20learning_pic2_1.png)

08 小样本学习

小样本学习(Few-shot Learning)让AI在只有少量数据的情况下,也能快速学会新任务。它特别适合那些数据稀缺但任务重要的领域,比如医学。

(图片来源:https://assets-global.website-files.com/5d7b77b063a9066d83e1209c/62b5c6bc393fc54b1b3a9025_zero-shot%20learning_pic2_1.png)
(图片来源:https://assets-global.website-files.com/5d7b77b063a9066d83e1209c/62b5c6bc393fc54b1b3a9025_zero-shot%20learning_pic2_1.png)

09 模型压缩与加速

AI模型太大,跑起来太慢?模型压缩和加速(Model Compression and Acceleration)技术就是AI的“健身教练”,通过减少参数和优化结构,让模型变得又快又轻。

(图片来源:https://raw.githubusercontent.com/kakack/kakack.github.io/master/_images/20211223-1.png)
(图片来源:https://raw.githubusercontent.com/kakack/kakack.github.io/master/_images/20211223-1.png)

10 可解释人工智能

可解释性AI(Explainable AI, XAI)旨在让AI决策过程透明化,使人类理解输入与输出的关系及模型机制,提升信任与可靠性。其重要性在高风险领域尤为突出,但“可解释性”的需求因场景和受众而异,解释深度和形式差别显著。实现可解释性需在性能、复杂性和透明度间权衡,且缺乏统一标准。同时,方法多样化(如规则解释、特征分析等)和评估体系的不完善,进一步增加了定义和实践的挑战。可解释性AI因此成为人工智能研究中的关键难题。

(图片来源:https://inschoolboard.com/wp-content/uploads/2023/03/img-black-Box.png)
(图片来源:https://inschoolboard.com/wp-content/uploads/2023/03/img-black-Box.png)

可解释性AI(Explainable AI, XAI)旨在让AI决策过程透明化,使人类理解输入与输出的关系及模型机制,提升信任与可靠性。其重要性在高风险领域尤为突出,但“可解释性”的需求因场景和受众而异,解释深度和形式差别显著。实现可解释性需在性能、复杂性和透明度间权衡,且缺乏统一标准。同时,方法多样化(如规则解释、特征分析等)和评估体系的不完善,进一步增加了定义和实践的挑战。可解释性AI因此成为人工智能研究中的关键难题。

11 具身智能

在人工智能的快速发展中,“具身智能”(Embodied Intelligence)正逐渐成为一个备受关注的研究方向。然而,与深度学习、强化学习等明确的方法论不同,具身智能更像是一种跨学科的研究范式,强调智能的本质不仅存在于计算模型中,还深深嵌入于身体与环境的交互之中。 具身智能的核心思想源于“具身认知”(Embodied Cognition)理论,这一理论认为智能并非孤立于大脑或计算中心,而是通过身体与环境的动态交互涌现出来的。这种视角挑战了传统的“符号主义AI”或“纯计算主义AI”,将智能的研究从“脑”扩展到“身”与“境”。 这一范式的独特之处在于其强调感知与行动的闭环关系。智能体通过实时感知环境状态,采取行动,并根据反馈调整策略,从而实现动态适应。例如,波士顿动力的四足机器人Spot能够在复杂地形中自主行走,这种能力正是具身智能的典型体现。它不仅依赖于算法的计算能力,更依赖于身体的设计和与环境的交互。 具身智能的研究还受到生物学的启发。科学家们通过模仿昆虫、鸟类甚至人类的运动模式,设计出能够适应复杂环境的仿生机器人和软体机器人。这些机器人在救援、探索和监测等领域展现了巨大的潜力。

(图片来源:https://www.qualcomm.com/content/dam/qcomm-martech/dm-assets/images/blog/ai-product/Embodied-AI-robots-learn-through-interaction-with-a-physical-environment.png)
(图片来源:https://www.qualcomm.com/content/dam/qcomm-martech/dm-assets/images/blog/ai-product/Embodied-AI-robots-learn-through-interaction-with-a-physical-environment.png)

尽管具身智能的应用前景广阔,但其研究仍面临诸多挑战。首先,作为一种研究范式,具身智能的定义和边界尚不清晰,不同领域的研究者对其内涵的理解可能存在差异。其次,技术实现的复杂性也不容忽视——整合感知、决策、行动和学习等多个模块需要高度协作的技术体系。此外,具身智能的表现高度依赖于环境的动态性,这使得其在现实世界中的应用充满不确定性。

12 弱人工智能

弱人工智能(Weak artificial intelligence, Weak AI)或称狭义人工智能(Narrow AI)、应用型人工智能(Applied AI),是实现部分思维的人工智能,且仅专注于某项特定任务。

(图片来源:https://vinodmanghani.com/wp-content/uploads/2022/02/strong-vs-weak-AI_cropped.png)
(图片来源:https://vinodmanghani.com/wp-content/uploads/2022/02/strong-vs-weak-AI_cropped.png)

用约翰·瑟尔的话来说,它“对于测试关于思想的假设很有用,但实际上并不具备思想”。弱人工智能专注于模仿人类如何执行基本动作,例如记忆或感知事物、解决简单问题。比如:AlphaGo是一种围棋软件,只能专注于下围棋。

中文房间理论是由哲学家约翰·瑟尔提出的一个著名思想实验,用以反驳人工智能能够真正“理解”或“拥有意识”的观点。实验假设有一个不会中文的人被关在房间里,房间中有一本详细的规则手册,手册规定了如何根据输入的中文字符(问题)输出相应的中文字符(答案)。当有人从外面递进一张写有中文问题的纸条时,房间中的人只需按照手册的规则操作,将问题与答案进行匹配,并将答案递出去。对于外面的人来说,这个房间似乎能够“理解”中文,因为它总是能给出合适的回答。但实际上,房间中的人并不理解中文的含义,他只是机械地执行手册中的规则。瑟尔用这个实验来说明,即使一个人工智能系统能够在某些任务中表现得像是“理解”了问题(例如聊天、回答问题),它实际上并不具备真正的理解能力或意识。它只是按照预设的算法或规则操作,就像房间中的人依赖手册一样。这个理论强调了人工智能的智能是“表面的”,并不意味着它具备人类的思想或理解能力。

13 强人工智能和通用人工智能

**强人工智能(Strong AI)和通用人工智能(AGI)**是一个充满哲学色彩的概念,它指的是一种真正具有自我意识、情感和主观体验的人工智能系统。与当前的AI系统不同,强AI不仅仅是模拟智能行为,而是能够“理解”其所做的事情。然而,这一概念的定义却深陷争议。首先,意识的本质问题尚未解决:我们甚至无法明确人类的主观体验从何而来,又如何能够赋予机器同样的能力?其次,强AI的验证也极为困难——即使一个系统表现得像是“有意识的”,我们如何证明它真的具有主观体验?这种哲学与技术的双重困境,使得强AI成为人工智能领域最难以定义和实现的目标之一。

14 人工超级智能

人工超级智能(ASI)是指智力远超最聪明人类的假设性智能体,也可泛指在特定领域表现出超越人类能力的系统(如超智能翻译器或工程助手),无论其是否具备现实世界中的行动能力。超级智能可能由智能爆炸或技术奇点引发,也可能独立于此。

牛津大学哲学家尼克·博斯特罗姆将超级智能定义为“在几乎所有领域中智力远超人类的任何智能”。例如,国际象棋程序Fritz虽在棋艺上超越人类,但因无法在其他任务中表现优越,未达到超级智能的标准。

关于人类智力被超越的可能性,研究者观点不一。一些人认为,AI的进步可能催生不受人类认知限制的通用推理系统;另一些人则认为,人类可能通过进化或生物增强实现智力飞跃。未来情境可能结合两者,例如人类与计算机接口或思想上传,从而显著增强智力。 部分研究者认为,超级智能可能在人工通用智能(AGI)出现后迅速发展。首批AGI可能在记忆、知识储备和多任务处理等方面立即超越人类,成为更强大的智能体,甚至可能取代人类。 鉴于超级智能可能对社会产生深远影响,科学家呼吁优先研究其潜在的益处与风险,以应对这一技术带来的挑战与机遇。

15 神经符号AI

神经符号AI(Neuro-Symbolic AI)被认为是下一代人工智能的重要方向,它试图结合神经网络的感知能力与符号主义AI的逻辑推理能力,以实现更强大的智能系统。神经网络擅长处理感知任务,如图像识别和语音处理,但缺乏逻辑推理能力;而符号主义AI则在推理和知识表示方面表现出色,却难以处理复杂的感知数据。如何将这两种截然不同的技术有效融合,既保留神经网络的灵活性,又实现符号系统的可解释性,仍是一个开放问题。此外,神经符号AI的研究涉及知识图谱、逻辑编程、深度学习等多种技术,其边界和内涵也因研究者的视角而异。这种多样性和复杂性使得神经符号AI成为一个难以定义但备受期待的领域。

(图片来源:https://tse2-mm.cn.bing.net/th/id/OIP-C.vX8dZ9x06zxVA4xgVA6afQHaFG?rs=1&pid=ImgDetMain)
(图片来源:https://tse2-mm.cn.bing.net/th/id/OIP-C.vX8dZ9x06zxVA4xgVA6afQHaFG?rs=1&pid=ImgDetMain)

16 自适应智能

自适应智能(Adaptive Intelligence)指的是能够根据环境变化动态调整自身行为和策略的智能系统。然而,这一概念的定义却并不明确。自适应智能的核心在于“适应性”,但适应性的范围却难以界定:它可以是短期的实时调整,也可以是长期的学习和进化。此外,自适应智能的实现涉及强化学习、进化算法、元学习等多种技术,这些技术之间的界限并不清晰。更重要的是,自适应智能的表现高度依赖于环境的动态性,而现实世界的复杂性使得这种适应能力难以量化和验证。这种技术与环境的双重复杂性,使得自适应智能成为一个难以定义但极具潜力的研究领域。

(图片来源:https://www.collidu.com/media/catalog/product/img1/f/8/f8cb487793422426a7687519c1607c371aeedf5867d8f811cad2aae4d28e3516/adaptive-intelligence-slide1.png)
(图片来源:https://www.collidu.com/media/catalog/product/img1/f/8/f8cb487793422426a7687519c1607c371aeedf5867d8f811cad2aae4d28e3516/adaptive-intelligence-slide1.png)

17 黑箱AI

黑箱AI(Black-Box AI)指决策过程难以被人类理解的人工智能系统,通常因模型复杂(如深度神经网络)或缺乏透明性。其核心是“不可解释性”,但具体含义因场景而异:可能是模型结构复杂,也可能是决策路径不透明。在高风险领域,部分不可解释性即可视为黑箱,而在低风险场景要求较低。此外,黑箱与解释性AI(XAI)的界限模糊,部分黑箱模型可通过工具实现部分透明。技术复杂性与应用需求的交织,使黑箱AI成为定义模糊但备受关注的议题。

18 情境智能

情境智能(Contextual Intelligence)指AI系统根据环境或任务的上下文动态调整行为和决策。其核心是“情境感知”,但情境范围难以界定,涉及用户需求、环境变化、文化背景等多因素。实现情境智能需依赖自然语言处理、计算机视觉、传感技术等多种技术,而这些技术在不同场景中的应用边界模糊。由于现实环境复杂多变,情境感知和处理难以标准化,增加了研究挑战,但也展现出巨大潜力。

总结

通用人工智能、强人工智能、神经符号AI、元学习和自适应智能,这些概念共同反映了人工智能领域对“智能本质”的探索。然而,它们的定义之所以难以明确,正是因为它们触及了智能的核心问题:从感知到推理,从适应到学习,从模拟到真实。这些概念的模糊性不仅源于技术的复杂性,也反映了人类对自身智能理解的局限性。尽管如此,这些难以定义的领域正推动着人工智能的边界不断扩展,也为未来的技术突破提供了无限可能。

上一篇
上一篇
返回
返回
下一篇
下一篇
最新动态
一站式Get!Agent应用风险治理指南
Agent应用风险治理

场景化治理

2025.03.30
一站式Get!Agent应用风险治理指南
一站式Get!RAG 应用风险治理指南
RAG 应用风险治理

场景化治理

2025.03.30
一站式Get!RAG 应用风险治理指南
君同Chat基底模型治理方案 让智能交互可信、可靠、可控、可用
Chat基底模型治理

智能交互可信

2025.03.30
君同Chat基底模型治理方案 让智能交互可信、可靠、可控、可用
一站式Get!Agent应用风险治理指南
Agent应用风险治理

场景化治理

2025.03.30
一站式Get!Agent应用风险治理指南
一站式Get!RAG 应用风险治理指南
RAG 应用风险治理

场景化治理

2025.03.30
一站式Get!RAG 应用风险治理指南