首页 >> 大全

【白日梦科技】人工智能的“常识”是个大问题,如何解决?

2023-07-23 大全 35 作者:考证青年

近年来,深度学习在人工智能的一些最具挑战性的领域取得了很大进展,包括计算机视觉、语音识别和自然语言处理。

然而,深度学习系统仍然没有解决一些问题。因为深度学习系统不擅长处理新的情况,需要大量的数据进行训练,有时会犯一些奇怪的错误,甚至连它们的创造者也会感到困难和迷惑。

有一些科学家提出,问题应该通过建立越来越大的神经网络和在越来越大的数据集上进行训练来解决。也有人认为人工智能领域需要的是人类的一些“常识”。

计算机科学家 J.和 J.在他们新出版的著作《像我们一样的机器》中提出了他们对人工智能缺失部分的看法和可能的解决方案,而“常识”这个谜题困扰了研究人员几十年。在接受行业媒体采访时,讨论了什么是常识,什么不是常识,为什么机器没有常识,以及“知识表示”的概念如何引导人工无线城市向正确的方向发展。“知识表示”这个概念已经存在了几十年,却在深度学习的热潮中被束之高阁。

虽然仍然停留在假设的领域,但《像我们这样的机器》这本书为潜在的研究领域提供了一个新的视角,这要感谢这两位自20世纪70年代以来一直在深入研究人工智能的科学家。

优秀的人工智能系统会犯奇怪的错误

说,“在过去的10到12年里,随着人们对深度学习表现出非凡的热情,已经有很多关于基于深度学习的系统,能够做我们最初希望人工智能系统能做的一切讨论。”

在人工智能发展的早期,它的愿景是创造一个自给自足的自治系统,可能以机器人的形式出现,可以在很少或没有人类干预的情况下独立做事。

表示,“如今,由于许多人对深度学习能够实现的东西感到兴奋,研究范围已经缩小了很多。尤其是在工业领域,大量的资金和人才招聘驱动了对基于经验或案例训练系统的高度关注。许多人声称他们已完成接近通用人工智能,或者‘有效的老式人工智能’(GOFAI)或象征性方法完全过时或没有必要。”

很明显,尽管令人印象深刻,但深度学习系统正面临一些尚未解决的令人困惑的问题。神经网络容易受到对抗性攻击,其中输入值的特殊修改会导致机器学习模型对其输出进行突然的错误改变。深度学习也是在试图理解简单的因果关系,在构思概念、组合概念方面的表现很差。大规模语言模型最近成为一个特别关注的领域,但有时它们在生成连贯和令人印象深刻的文本时会犯非常愚蠢的错误。

根据的描述,“人们对人工智能犯下的这些错误的看法是,它们看起来愚蠢无知,而人类很少犯这样的错误。但重要的是,引发这些错误的原因有些难以解释。”

这些错误导致和反思当今的人工智能技术中缺少什么,以及需要什么来补充或取代示例驱动的训练神经网络系统。

说,“如果深思一下,这些系统明显缺乏的是人类所谓的常识,即能够看到对许多人来说显而易见的事情,迅速得出简单而明显的结论,并在决定做一些意识到是荒谬或错误选择的事情时阻止自己。”

什么是常识?

人工智能社区从早期就开始讲常识。事实上,John 在1958年写的关于人工智能“具有常识的过程”是最早论文之一。

说,“这不是什么新鲜事,也不是我们发明的名字,但这个领域忽略了人工智能先驱们所说的核心含义。如果我们进一步理解什么是常识,以及拥有常识的意义,对我们来说更重要的是它是如何工作的,它将如何实施,人们很难在心理学文献中找到指导。”

在《像我们这样的机器》一书中,和将常识描述为“有效地利用共同的、日常的和经验的知识来实现共同、日常和实际目标的能力”。

企业靠科技解决用工荒问题_解决化圆为方问题的人是_

常识对生存至关重要。人类和高等动物已经进化到通过经验学习,发展常规和自动驾驶技能,可以处理日常面临的大多数情况。但是日常生活不仅仅是人们一遍又一遍看到的套路。人们经常会面临从未见过的新情况。有些可能和正常情况有很大不同,但是很多时候,人们看到的和习惯的有些不一样。在人工智能的讨论中,这有时被称为“长尾”。

说,“在我们看来,当这些常规任务被打断时,常识实际上是首先被激活的状态,它使人们能够快速了解新的情况,记住他们以前做过的事情,快速调整他们的记忆,将其应用到新的情况并继续前进。”

在某种程度上,常识与心理学家、诺贝尔奖得主 倡导的双系统思维范式有些不同。常识不是快速的、自动驾驶的系统1思维。它执行了人们无需刻意集中注意力就能完成的大部分日常任务(例如,刷牙、系鞋带、扣扣子、在熟悉的区域开车)。要打破现在的套路需要积极的思考。

同时,常识不是系统2思维。系统2思维是一种缓慢的思维模式,需要全神贯注,循序渐进的思考(比如计划六周的旅行,设计软件,解复杂的数学方程)。

,“人们可以仔细思考以迎接挑战。这种思维会使人的大脑感到疲劳和迟钝。常识允许人们在几乎任何日常生活中避免这种情况,因为不需要深入思考下一步该怎么做。”

和在他们发表的著作中强调,常识是一种“肤浅的认知现象”,它比深思熟虑和有条不紊的分析跑得更快。

他们写道,“如果需要花很多心思才能想明白,那就不是常识。我们可以认为是‘反思性思维’,和‘思考’一样重要。”

没有常识的人工智能面临的危险

常识需要可预测性、信任、可解释性和可问责性。

说,“大多数人不会犯一些奇怪的错误。虽然人可能会做一些傻事,但是经过反思可能会避免这样的错误。虽然人类并不完美,但有些错误在某种程度上是可以预见的。”

没有常识的人工智能系统面临的挑战是,当它们达到训练的极限时,可能会出错。布拉奇曼说,这些错误完全不可预测,也无法解释。

讲,“没有常识的人工智能系统没有这种观点,没有退路来阻止自己做奇怪的事情,它们会变得脆弱。当他们犯错误时,错误对他们来说毫无意义。”

这些错误可能是无伤大雅的,比如贴错图片;它也可能是极其有害的,例如导致自动驾驶汽车驶入错误的车道。

和在书中写道,“如果一个人工智能系统遇到的问题是下棋,而它所考虑的只是赢得比赛,那么常识对他们来说就不起作用,但当人们下国际象棋时,常识就会起作用。”

因此,随着人工智能系统进入开放领域的敏感应用,如驾驶汽车或与人类合作,甚至参与开放的对话,常识将发挥非常关键的作用。这些领域总会发生奇怪的事情。

和在《像我们一样的机器》一书中写道,“如果我们希望人工智能系统以合理的方式处理现实世界中常见的事情,我们需要的不仅仅是通过对已经发生的事情进行采样而获得的专业知识。仅仅通过看到和内化过去发生的事情来预测未来是行不通的。我们需要常识。”

重新审视符号人工智能

_企业靠科技解决用工荒问题_解决化圆为方问题的人是

大多数科学家认为,目前的人工智能系统缺乏常识。然而,当谈到解决方案时,通常会有一些分歧。一个流行的趋势是继续让神经网络的规模越来越大。有证据表明,更大的神经网络继续逐步填补此项缺失。在某些情况下,大型神经网络显示出零样本学习技能,它们执行未经训练的任务。

但是,也有大量的研究和实验表明,更多的数据和计算并不能解决人工智能系统没有常识的问题,而只是将其隐藏在更大、更混乱的数值权重和矩阵运算中。

说,“这些系统关注并内化相关性或模式。他们没有形成一个‘概念’。即使这些系统与语言交流,它们也只是模仿人类的行为,而没有人们认为它们拥有的底层心理和概念机制。”

和主张创建一个系统来编码常识知识和对世界的常识性理解。

他们在书中写道:“常识性知识是关于世界上的事物及其属性。它是一系列关于各种可能存在的事物及其可能具有的各种属性的观念,以我们用所谓的概念结构为中介。知识将通过符号形式表示,以及在这些符号结构上执行的计算操作来使用。关于做什么的常识性决定,相当于使用这种表征知识来考虑如何实现目标以及如何对观察到的情况做出反应。”

和认为,这个领域需要回顾和重新审视符号人工智能的一些早期工作,以便为计算机赋予常识。他们称之为“知识表示”假说。这本书详细描述了如何建立一个知识表示(KR)系统,以及如何将不同的知识组合起来,形成更复杂的知识和推理形式。

根据知识表示(KR)假设,共同知识的表征将分为两部分:“一部分是代表世界状态的世界模型,另一部分是代表概念结构的概念模型,概念结构是一个通用框架,可用于对世界中的项目进行分类。”

说,“我们的观点是回到关于人工智能的一些早期思考,其中某种符号和符号运算程序(人们习惯称之为推理引擎)可以用来编码和使用人们称之为常识的世界的基础知识:直觉或幼稚的物理学,对人类和其他主体的行为、意图和信念的基本理解,时间和事件如何工作,因果关系等。这些都是我们前一两年学到的知识。形式世界知识实际上可以对机器的行为产生因果影响,它也可以通过操纵符号来做任何事情,比如组合性。并以新的方式呈现人们熟悉的事物。"

强调,在未来,他们在书中提出的假设可以被推翻。

说,“从长远来看,我不知道是应该预构建和预编码所有这些知识,还是让人工智能系统以不同的方式学习。但作为一种假设和实验,我认为人工智能的下一步应该是尝试建立这些知识库,并让系统使用它们来处理日常生活中的突发事件,并对如何处理熟悉和不熟悉的情况做出粗略的猜测。”

和的假设是基于之前创建的符号知识的大型知识库(例如Cyc),该知识库可以追溯到20世纪80年代,收集了数百万条关于世界的规则和概念。

说,“我认为我们需要更进一步。我们需要关注自主决策机器在日常决策环境中是如何使用这些东西的。积累事实性知识和能够回答危险类型的问题是一回事;但在这个嘈杂的世界里工作,能够理性、及时地应对不可预见的意外,完全是另一回事。”

机器学习在常识中有作用吗?

表示,基于机器学习的系统将继续在人工智能的感知中发挥关键作用。

他说,“我不会推广使用一阶谓词演算来处理人造视网膜上的像素,或者处理速度信号处理的符号操作系统。这些机器学习系统非常擅长感官水平较低的识别任务。目前还不清楚这些东西在认知链中的地位有多高,但它们没有走到最后,因为它们没有在人们在场景中看到的东西和自然语言之间形成概念和联系。”

神经网络和符号系统的结合是近年来日益突出的概念。Gary 、Luis Lamb和 等科学家正在提议开发一种“神经符号”系统,该系统将最好的符号系统与基于学习的系统相结合,以解决当前人工智能面临的挑战。

虽然同意该领域正在进行的大部分工作,但他也说,目前对混合人工智能的看法需要一些调整。

“我认为任何当前的神经符号系统都很难解释常识和更系统、更深入的符号推理之间的区别,而符号推理是数学、重度规划和深入分析的基础,”他说。“我希望在这个混合人工智能的世界里看到的,是真正考虑常识,让机器像人类一样使用常识,让机器做和人类一样的事情。”

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了