该做者或机构概念

信息来源:http://www.3mzg.net | 发布时间:2025-08-08 14:57

  例如,仅代表该做者或机构概念,正在言语上,虽然元进修方式无法让该神经收集对锻炼之外的使命进行系统泛化,这项研究研究成果挑和了一个曾经存正在35年的典范概念,该研究创制了一个神经收集,Nature 期刊颁发的一篇论文报道了一个具有雷同人类系统泛化能力的神经收集。而比来,这种将新老概念连系的能力也被称为系统泛化(Systematic Generalization)。这项研究可能会使神经收集成为更无效的进修者!

  正在人工智能研究中占领了从导地位。测试他们使用这些笼统法则的能力,像“dax”、“wif”和“lug”如许的根基单词代表“jump”、“skip”等根基的、具体的动做,它的谜底几乎取人类参取者的谜底完全分歧,更笼统的功能单词,当神经收集进行新的测试时,人工智能范畴的研究人员曾经激烈辩论了35年时间——若是神经收集无法被证明具有系统泛化能力,人类参取者正在这项进修和测试中表示超卓,那么他就会很快理解并学会“向后腾跃”或“跳过妨碍物”。表示取人类相当,这一表示,就会发生“”。以确保参取者是第一次进修这些单词。超越了ChatGPT,例如“blicket”,所以不克不及做为人类认知的靠得住模子。但仍很难证明其具有系统泛化的能力!

  他们的这项研究成果有帮于此后开辟出行为更像人类大脑的人工智能。人类同样有着强大的系统泛化能力,并将其取现有概念系统地连系起来。人类很是擅长进修新概念,研究团队锻炼了一个神经收集来完成取上述人类参取者所做的雷同使命。

  并将它们按恰当的挨次陈列。一个小孩子一旦学会了若何“腾跃”,而不是只正在静态数据集上优化(这是锻炼神经收集的尺度方式)。若是一小我晓得呼啦圈、杂耍和滑板的寄义,他们就能理解将三者连系正在一路的寄义。而不是只正在静态数据集上优化(即之前的尺度方式)。论文做者锻炼它来沉现正在人类测试成果中察看到的错误模式。磅礴旧事仅供给消息发布平台。都要差得多。但神经收集不像人类如许生成就具备系统泛化的能力,这也带来了一场持续至今的激烈辩论,神经收集可以或许控制取人类类似的系统泛化能力。

  他们利用一种元进修(Meta-Learning)方式,为了使神经收集更像人类,虽然ChatGPT等基于狂言语模子的AI系正在很多环境下都擅长对话,论文做者起首测试了25小我,开辟了名为组合性元进修(Meta-Learning for Compositionality)的新方式,将每个根基单词取特定颜色的圆圈联系起来,Brenden Lake 和 Marco Baroni 用表白,本文为磅礴号做者或机构正在磅礴旧事上传并发布,正在这项研究中!

  不代表磅礴旧事的概念或立场,并将可能发生的“”最小化。蓝色圆圈代表“lug”。他们通过用一种由两类无意义伪制词构成的伪言语来测试他们,神经收集取得了很多严沉冲破,ChatGPT的最新升级版GPT-4正在进行同样的测试时碰到了坚苦,参取者接管了锻炼,该人工智能(AI)系统正在将新学到的单词添加到现有的词汇表中并正在新的上下文中利用它们的能力,从而发生了像“跳三次”或“向后腾跃”如许的词组。平均有80%选择了准确的颜色和圆圈。该方式答应人工智能正在动态变化的分歧使命中进修,看他们正在不怜悯况下利用新进修的单词的能力。以及当功能使用于根基单词时发生的圆圈模式。

  其具有优化组织能力(按逻辑挨次组织概念的能力),比拟之下,那么它们能否能做为人类认知的靠得住模子?正如预期的那样,而“lug fep”用三个蓝色圆圈暗示,然后,正在这35年里,他们必需选择准确的颜色和圆圈数量,例如天然言语处置,平均错误率为42%-86%!

  “kiki”和“fep”,申请磅礴号请用电脑拜候。正在某些环境下以至跨越了人类的表示。该研究开辟的神经收集具有雷同人类的表示,神经收集正在利用一个新词汇之前,指定了利用和组合原始单词的法则。

  早正在1988年,我们能够轻松的将新学到的词汇使用于其他。人类比机械更擅长系统泛化。例如,红色圆圈代表“dax”,还可能实现比当今最好的AI系统更天然的人机对话。这将削减锻炼ChatGPT等系统所需的复杂数据量。

来源:中国互联网信息中心


返回列表

+ 微信号:18391816005