欢迎光临
我们一直在努力

研究人员表示,未来的人工智能算法有可能像人类一样学习

  

  记忆对机器来说和对人类来说一样棘手。为了帮助理解为什么人工智能体在自己的认知过程中会出现漏洞,俄亥俄州立大学的电气工程师分析了一个被称为“持续学习”的过程对它们整体表现的影响程度。

  持续学习是指计算机经过训练,能够不断学习一系列任务,利用从旧任务中积累的知识来更好地学习新任务。

  然而,为了达到这样的高度,科学家们仍然需要克服一个主要障碍,那就是学习如何绕过机器学习中相当于记忆丧失的过程——这一过程在人工智能代理中被称为“灾难性遗忘”。俄亥俄州立大学(the Ohio State University)计算机科学与工程教授、俄亥俄州杰出学者内斯·施罗夫(Ness Shroff)表示,随着人工神经网络在一个接一个的新任务上进行训练,它们往往会失去从以前的任务中获得的信息,随着社会越来越依赖人工智能系统,这个问题可能会变得很成问题。

  Shroff说:“当自动驾驶应用程序或其他机器人系统被教授新事物时,重要的是他们不要忘记他们已经学到的教训,这是为了我们和他们的安全。”“我们的研究深入研究了这些人工神经网络中持续学习的复杂性,我们发现的见解开始弥合机器学习方式和人类学习方式之间的差距。”

  Shroff说,研究人员发现,就像人们可能很难回忆起类似场景中截然不同的事实,但却能轻松记住本质上不同的情况一样,人工神经网络在连续面对不同的任务时能更好地回忆起信息,而不是那些具有相似特征的任务。

  该团队包括俄亥俄州立大学博士后研究员Sen Lin和Peizhong Ju,以及Yingbin Liang和Shroff教授,他们将于本月晚些时候在夏威夷檀香山举行的第40届机器学习国际会议上展示他们的研究成果,这是机器学习领域的旗舰会议。

  虽然教会自主系统展示这种动态、终身学习的能力可能具有挑战性,但拥有这种能力将使科学家能够以更快的速度扩展机器学习算法,并轻松调整它们以应对不断变化的环境和意外情况。从本质上讲,这些系统的目标是有一天能够模仿人类的学习能力。

  传统的机器学习算法是一次性在数据上进行训练的,但该团队的研究结果表明,任务相似性、负相关性和正相关性,甚至是算法学习任务的顺序等因素,对人工网络保留某些知识的时间长短都有影响。

  例如,为了优化算法的记忆,Shroff说,不同的任务应该在持续学习过程的早期就被教授。这种方法扩展了神经网络接收新信息的能力,并提高了随后学习更多类似任务的能力。

  Shroff说,他们的工作尤其重要,因为了解机器和人脑之间的相似之处可以为更深入地理解人工智能铺平道路。

  他说:“我们的工作预示着一个智能机器的新时代,它们可以像人类一样学习和适应。”

  更多信息:持续学习的遗忘与概括理论。引用:未来的人工智能算法有像人类一样学习的潜力,研究人员说(2023,July 20)检索自https://techxplore.com/news/2023-07-future-ai-algorithms-potential-humans.html。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

 收藏 (0) 打赏

您可以选择一种方式赞助本站

支付宝扫一扫赞助

微信钱包扫描赞助

除特别注明外,本站所有文章均基于CC-BY-NC-SA 4.0原创,转载请注明出处。
文章名称:《研究人员表示,未来的人工智能算法有可能像人类一样学习》
文章链接:https://www.xpn.cc/42055/fy.html
分享到: 更多 (0)

热门推荐

登录

忘记密码 ?