2029 年会实现通用人工智能吗?Gary Marcus「叫板」
时间:2022-06-05 09:39 来源:未知 作者:sgxyc888 点击:次
5 月 30 日,世界级红人埃隆・马斯克(Elon Musk)发了一条推文,称:
马斯克发推不久,知名人工智能科学家、纽约大学心理系教授 Gary F. Marcus 立即写了一篇博文叫嚣马斯克,从五个方面向马斯克「科普」了通用人工智能的知识,提出自己认为 2029 年不可能实现 AGI 的原因。 对于 Gary Marcus 的叫板,马斯克还没回复。 圣达菲研究所的人工智能专家梅兰妮・米切尔(Melanie Mitchell)建议把赌注放在 longbets.org 网站上,Marcus 称,只要马斯克愿意打赌,自己就欣然赴约。 以下是 Gary Marcus 反驳马斯克的五个角度,AI 科技评论作了不改原意的整理如下: 马斯克是个「大话」预言家第一,马斯克对时间的预测总是不太准确。 2015 年时,马斯克说距离真正的自动驾驶汽车出现还有两年时间;从那以后他每年都说同样的话,但真正的自动驾驶汽车到现在还没出现。 马斯克不关注边缘案例的挑战其次,马斯克应该更多地关注边缘情况(也就是异常值,或不寻常的情况)的挑战,并思考这些异常值对预测可能意味着什么。 因为长尾问题,我们很容易认为 AI 问题比实际情况要简单得多。我们手上有大量的关于日常事务的数据,当前的技术很容易处理这些数据,这就会误导我们,给我们一种错误的印象;而对于罕见的事件,我们得到的数据非常少,且目前的技术很难去处理这些数据。 我们人类拥有大量的不完全信息推理的技巧,也许可以克服生活中的长尾问题。但对于目前流行的、更多依赖大数据而非推理的人工智能技术来说,长尾问题是一个非常严重的问题。 2016 年,在一篇题为“Is Big Data Taking Us Closer to the Deeper Questions in Artificial Intelligence?”的采访中,Gary Marcus 试图就此发出警告。他当时是这么说的:
▲特斯拉自动驾驶撞上价值 300 万美元的喷气式飞机 意想不到的情况一直是当代人工智能技术的祸患,而且可能会一直是,直到真正的革命出现。这就是为什么 Marcus 保证马斯克不会在今年或明年推出 L5 级别的自动驾驶汽车。 异常值并不是完全无法解决,但仍然是一个重大问题,迄今还没有已知的鲁棒的解决方案。Marcus 认为人们必须摆脱对深度学习等现有技术的严重依赖。距离 2029 年还有 7 年,7 年是很长的一段时间,但是如果要在这个十年结束之前实现 AGI,这个领域就需要在其他想法上进行投资。否则,仅仅是异常值就足以使实现 AGI 的目标失败。 通用人工智能范围很广马斯克需要考虑的第三件事是,AGI 是一个涉及面很广的问题,因为智能本身的涉及面很广。Marcus 在此处引用了 Chaz Firestone 和 Brian Scholl 的这句话:
例如,深度学习在识别物体方面做得相当不错,但在计划、阅读或语言理解方面做得差一些。这样的情况可以用下图表示: 目前的 AI 在某些感知方面做得很好,但是在其他方面仍需努力。即使在感知中,3D 感知仍然是一个挑战,场景理解也没有解决。对于常识、推理、语言或类比等几个领域,仍然没有任何稳定或值得信赖的解决方案。事实是,这张饼状图 Marcus 已经用 5 年了,AI 的情况却几乎没有改变。 在 Marcus 发表于 2018 年的文章“Deep Learning: A Critical Appraisal”中,他总结道:
四年过去了,许多人仍然希望深度学习能成为万能药;可这对 Marcus 来说仍然是不现实的,他仍然认为人类需要更多的技术。实事求是地说,7 年可能不足以发明这些工具(如果它们还不存在的话),也不足以将它们从实验室投入生产。 Marcus 向马斯克提出 2018 年“量产地狱”(马斯克认为 Model 3 电动轿车量产阶段犹如地狱般煎熬,并称之为“量产地狱” )的情形。在不到十年的时间里要对一套以前从未完全集成过的技术进行这样的整合,要求会非常高。 Marcus 称,「我不知道马斯克打算把 Optimus(特斯拉的人形机器人)打造成什么样,但我可以保证,通用家用机器人所需要的 AGI 远远超过一辆汽车所需要的,毕竟汽车无论是在公路上开还是在马路上开,或多或少都是差不多的。」 复杂的认知系统尚未打造马斯克需要意识到的第四件事是,人类仍然没有一个适当的方法论来构建复杂的认知系统。 复杂的认知系统有太多的活动部件,这通常意味着,制造无人驾驶汽车等东西的人最终就像在玩一个巨大的“打地鼠游戏”,往往刚解决了一个问题,又出现了另一个问题。一个补丁接一个补丁有时能派上用场,有时则无效。Marcus 认为不可能在不解决方法论问题的情况下得到 AGI,而且他认为目前还没有人提出好的建议。 使用深度学习进行调试非常困难,因为没有人真正理解它是如何工作的,也没有人知道如何修复问题,以及收集更多数据和添加更多层等等。大众所知道的那种调试在经典编程环境中并不适用;因为深度学习系统是如此不可解释,所以人们不能通过相同的方式思考程序在做什么,也不能指望通常的消除过程。相反,现在在深度学习范式中,有大量的试错、再训练和重新测试,更不用说大量的数据清洗和数据增强实验等等。Facebook 最近的一份报告坦率地说,在训练大型语言模型 OPT 的过程中遇到了很多麻烦。 有时候这更像是炼金术而不是科学,正如下图一样: ▲“这是你的机器学习系统吗?” “对,你把数据倒进这一大堆线性代数里,然后到另一边去捡答案。” “如果答案是错的呢?” “那就在这一大堆东西上搅和,直到答案看上去正确就行了。” 编程验证可能最终会有所帮助,但同样,在深度学习中还没有编写可验证代码的工具。如果马斯克想赢这个赌约,那他们可能也要解决这个问题,而且得很快解决。 打赌标准马斯克需要考虑的最后一件事是赌约的标准。如果要打赌就要制定基本规则。AGI 这个术语相当模糊,就像 Marcus 前几天在 Twitter 上说的那样:
Marcus 还提出要跟马斯克赌一把,并制定具体的基本打赌规则。他和 Ernie Davis 根据与 Metaculus 公司合作的人的要求写下了以下五个预言:
如果马斯克(或其他人)在 2029 年成功打破至少三个预言,那他就赢了;如果只打破了一两个,则不能说 AGI 能够实现,赢家就是 Marcus。 对这个赌约,Marcus 跃跃欲试,并对马斯克:“想要打赌吗?赌 10 万美元怎么样?” 大家怎么看?你们认为谁会赢?(吃瓜) 参考链接: https://garymarcus.substack.com/p/dear-elon-musk-here-are-five-things?s=w https://www.ted.com/talks/elon_musk_elon_musk_talks_twitter_tesla_and_how_his_brain_works_live_at_ted2022 https://arxiv.org/abs/1801.00631 https://www.wsj.com/articles/elon-musk-races-to-exit-teslas-production-hell-1530149814 (责任编辑:sgxyc888) |