循环地,同样的场景重复出现:一种新的、更先进的深度学习模型被提出,我们说服自己,我们正在面临或非常接近真正的人工智能的出现。
如果所讨论的算法能够使用语言,情况就
更是如此,语言是人类最显着的特征,因此我们将其与理解世界和智能联系在一起。
直到近几年,这种情况才在 2018 年首次出现,当时谷歌首席执行官桑达尔·皮查伊 (Sundar Pichai) 向观众展示了名为 Duplex 的人工智能软件如何能够在对方没有意识到的情况下给美发师打电话预约。他们正在和一个机器人打交道。
“图灵测试通过了吗?”,我们当时问
自己。我们正式进入智能机器时代了吗?2022 年 6 月,轮到了人工智能系统 LaMDA和谷歌工程师 Blake Lemoine,在与这个聊天机器人进行了长时间的对话后,他确信 LaMDA 已经有了知觉。
最后,显然还有 ChatGPT 的例子,这是OpenAI 在 GPT-3 的基础上创建的聊天机器人(即通过文本进行通信的系统) :一个配备了超过 2000 亿个参数的庞大深度学习系统(我们可以粗略地计算出这些参数)。考虑一下我们神经元的数字等效物)并使用超过 800 GB 的信息进行训练,其中包括整个英语维基百科。
在这篇文章中,我们将特别看到:
- ChatGPT 和 GPT-4:进步还是倒退?
- 深度学习算法目前的局限性
- 我们能达到通用人工智能吗?
- 深度学习:提高质量,减少数量
ChatGPT 和 GPT-4:进步还是倒退?
ChatGPT 能够通过响应我们的简单命令,使所有类型的文本变得栩栩如生(例如,您可以要求它创作一首带有讽刺意味的莎士比亚风格的诗歌,或者创作一篇关于任何主题的科学论文),这已经产生了很多成果。的关注,确保它被视为绝对新颖的东西。
尽管这个神经网络的规模和训练数据量确实是前所未有的,但ChatGPT 并不代表什么新鲜事,而只是深度学习系统向前迈出的又一步。
这同样适用于即将推出的GPT-4,它将具
有更多的参数,并将使用更令人印象 中东手机号码清单 深刻的数据进行训练,但将具有相同的学习特征(我们将回到这些功能的功能)系统),它将具有相同的优点,并将再次展示相同的局限性和缺陷。
正如神经科学教授加里·马库斯(Gary Marcus)在 Duplex 演示中所解释的那样,这些系统仍然有局限性,因为它们代表了真正智能的萌芽阶段: “现实是,人工智能专家不知道如何成功地做得更好。比那个。”
深度学习算法目前的局限性
鉴于人工智能的不断进步——虽然总是渐进的而不是革命性的——也许说计算机科学家不知道如何推进这些系统就太过分了。
然而,可以肯定的是,到目前为止我们所讨 越南乃至全球十大领先电子商务平台 论的所有系统以及所有其他深度学习算法——即目前以人工智能为基础的学习方法——正在向我们展示什么是限制和障碍(其中一些是(正如我们将看到的,也许是不可克服的)这些工具所面临的。
首先,今天几乎任何深度学习系统仍然是“狭义人工智能”(ANI):一种有限的人工智能,一次只能执行一项任务。他也许能够翻译语言或 中国名录 下国际象棋,但如果他要从一项任务切换到另一项任务,则有必要删除他所知道的所有内容并重新开始训练(这是计算机中称为“灾难性遗忘”的缺陷)科学)。 。
无法继续执行新任务,同时保留在上一个
任务的训练中学到的知识 – 识别图像、翻译语言、在 Netflix 上推荐下一部电影等。 –对于深度学习算法来说,也不可能利用以前的知识来优化新任务的学习(有点像我们利用骑自行车时学到的知识来学习骑踏板车)。
即使像 ChatGPT 这样的高级工具,看起来能够做很多不同的事情(写诗、回答历史问题、总结名人传记等),但实际上只能做一件事:重新组合他可以使用的材料文本正确响应向他提出的请求的可能性最高。
这同样适用于已经提到的其他系统
能够与想要预订美发师(或餐厅)的人进行交流,因为它已经接受了大量专门与预订美发师和餐厅的人之间的对话相关的数据的训练。通过专注于该领域,他知道哪个答案最有可能是正确的;但他永远无法在不同的背景下进行对话。
相反,谷歌最新的系统LaMDA 能够支持各种主题的对话,这并不是因为它变得更加智能,而是因为它能够在更大、更多样化的数据集中找到相关性。
这同样适用于 ChatGPT,在许多情况下,它也能够产生令人惊讶的、也许事实上准确的内容,但在其他情况下,它被证明是荒谬的传播者(就像它解释油条如何使用的文本的情况一样)是进行外科手术的绝佳工具),以及以合理的方式阐述的危险假新闻(例如这篇文章,其中引用了发明的科学出版物,解释了疫苗如何在一百个案例中仅对两个案例有效) )。
更糟糕的是,ChatGPT 无法知道它所陈述
的是谎言还是真相,甚至它的历史(或任何其他)重建有时可能是准确的,但在其他情况下它们将充满错误和谎言。实现这一点的唯一方法是胜任 ChatGPT 受到质疑的主题,从而消除使用此类工具作为知识来源的理由。不仅如此:ChatGPT 程序员自己也解释了克服这一限制是多么困难,因为“不可能为模型提供真实的来源”。
“一旦你意识到这一点,你就不能再忽视它:深度学习不会引导我们走向抽象思考并能够概括关于世界的知识的人工智能,”杰森·庞廷在《连线》杂志上写道。这也适用于分析边缘案例,这些案例乍一看似乎至少部分超出了迄今为止所描述的限制。
今天的任何深度学习系统仍然是“狭义人工智能”(ANI):一种有限的人工智能,一次只能执行一项任务。
加托和他的人工智能
2022年5月,DeepMind(世界上最先进的人工智能研究实验室之一,谷歌旗下)推出了Gato深度学习系统,能够执行604种不同的任务。这是创建通用人工智能的第一步吗?它能够像人类一样执行多种任务并轻松地从一个任务切换到另一个任务?
不可否认的是,Gato 能够执行各种任务(玩 Atari 视频游戏、识别图像、管理机械臂等等),但该模型的一些局限性削弱了人们的热情。正如《麻省理工学院技术评论》中所解释的那样,Gato 获得的结果比专门的算法低得多(但这也是可以理解的,如果需要的话,几乎是人类的)。
然而,最重要的是,我们离“通用”人工智能还很远,“通用”人工智能有能力适应除经过训练的任务之外的任务: Gato 事实上仍然只能执行它已获得特定任务的任务。训练。
这是不可避免的:正如庞廷总是解释的那样,深度学习 “是一种统计方法,计算机学习使用神经网络对模式进行分类。这些网络的结构类似于我们大脑中的神经元,被称为“深层”,因为它们具有多个隐藏层,其中包含具有大量分支连接的各种节点。
我们能达到通用人工智能吗?
得益于这种 IT 架构,我们今天使用的人工智能系统能够在海量数据中找到人眼看不见的相关性,并统计计算这些数据何时重复出现。
例如,为了对对手的动作做出反应,下棋的深度学习系统只需在其数据库中搜索发生完全相同场景的所有情况。一旦确定,计算出他在接受训练的比赛中执行的哪一步动作导致胜利次数最多。通过利用这种技术,深度学习算法(通常)在非常不同甚至非常困难的领域获得非常准确(有时令人印象深刻)的结果:从一种语言翻译到另一种语言、预测我们想在 Spotify 上听的内容、图像识别、选择我们希望在 Facebook 或 Instagram 提要等上看到的内容。
所有这一切都不应该以任何方式被低估:深度学习已经改变了世界,并且越来越多地融入到我们开展的活动中,而我们往往甚至没有意识到这一点。但仍然存在一个无法克服的限制:在这些系统中,人们无法理解它们在做什么。正如我们所看到的,人工智能系统可以在不了解国际象棋比赛甚至不知道规则的情况下赢得国际象棋比赛。
这种机制在LaMDA 和他的程序
员 Blake Lemoine 之间的对话中表现得尤为明显,在对话中,他本人确信(奇怪的是,因为这个角色实际上也很奇怪)这个聊天机器人是有感知的。对于 Lemoine 的问题“你喜欢如何度过空闲时间?”,LaMDA 回答说:“与朋友和家人一起”。显然,LaMDA 既没有朋友也没有家人:因此,它仅限于统计计算哪个答案(在其数据库中存储的人类创建的数据中)最有可能满足所提出的问题。
深度学习系统不知道如何概括和抽象它所拥有的知识。他无法理解猫、山猫和老虎有共同的特征(除非他接受过训练只能识别“猫科动物”这一类别)。使用深度学习学习拿起瓶子的机器人无法重新应用这些知识来拿起杯子,而是必须重新开始训练(正如《终极算法》的作者 Pedro Domingos 所解释的那样)。
目前自动驾驶失败的原因
例如,无法抽象和概括所获得的概念(这表明缺乏真正的理解)是自动驾驶迄今为止尚未成功的原因。在这种情况下,控制汽车的深度学习系统经过训练,可以处理大量的潜在场景(除了识别路标、交通灯等),理论上它可以学习如何正确处理环岛、进入高速公路车道、在人行横道处停车等。 ETC。
但存在一个问题:在驾驶领域,变量和未知数增加如此之多,以至于人工智能系统不再能够找到指导其采取正确行为的相关性。不过,也取得了一些成功:价值 300 亿美元的谷歌公司 Waymo 去年 10 月宣布,现在可以在凤凰城的部分地区自由使用其自动驾驶出租车车队。
看看亚利桑那州的首府,你就会明白为什么它是少数几个自动驾驶汽车成为现实的城市之一:宽阔的大道、始终平行和垂直的街道以及低交通量都是让生活变得更加轻松的元素自动驾驶汽车。气候条件也是如此:在阳光普照的沙漠城市(平均每年有 17 天下雨),安装在机器人出租车上的传感器不会因为下雨而出现能见度问题,被风吹动的树叶弄乱或因雾而变得混乱。
如果一辆自动驾驶汽车被遗弃在米兰市中心混乱的小巷中、罗马呼啸而过的摩托车中、伦敦的雨中或伊斯坦布尔的车流中,它会如何反应?目前,还没有一家初创公司敢于在非常复杂的欧洲城市中心测试其车辆。然而,直到几年前,这似乎只是一个时间问题:在道路宽阔、气候条件良好的大都市进行首次实验后,即使在最混乱的环境中驾驶所需的技能也将逐渐获得。
然而,随着时间的推移,我们逐渐意识到,仅通过统计数据不可能确定处理现实世界中城市交通中发生的各种情况的最佳方法,其中存在未知、意外、意外事件和违规行为。是当今的秩序。正如沃尔沃自动驾驶业务负责人马库斯·罗特霍夫 (Marcus Rothoff) 最近承认的那样,“行为的随机性无法通过当今的技术来管理。”
深度学习:提高质量,减少数量
还有其他方面需要评估,这引发了人们对深度学习的潜力正在被推至极限的担忧(上述假设得到了前面提到的加里·马库斯(Gary Marcus)的支持,但例如图灵奖得主 Yann LeCun 就没有支持这一假设。深度学习本身的发明)。
例如,为了取得重大进展,现在有必要将系统的计算能力提高得远远大于所获得的改进。简而言之,回报不断减少,成本却越来越高,据估计,仅训练 OpenAI GPT-3 模型的成本就超过 1200 万美元。
为了获得更好的结果而不断增强的计算能力(尽管计算机模型不断优化)带来了另一个不可避免的问题:训练和使用这些系统会消耗大量资源,并且对环境的影响不再可以忽略不计(尤其是在环境中)未来我们会在大众市场上使用这些系统)。
在最近的一篇论文中,马萨诸塞大学的一组研究人员测试了一些最常见的人工智能模型产生的能源消耗,发现他们的训练可以排放高达 280 吨二氧化碳,几乎是经典汽车在其生命周期(包括汽车本身的生产)。
IT 资源、成本和污染不断增加。它们是定量规模发展的系统的外部性:更深的网络以不断增加的速度处理更多的数据。去哪里? “人们天真地认为,如果采用深度学习并添加 100 个附加层并使用一千倍以上的数据,神经网络将能够完成人类能做的一切,”谷歌研究员 François Chollet 解释道。 “但这根本不是真的。”
简而言之,要有一天实现真正的类人通用人工智能,仅靠深度学习的定量进步是不够的。相反,需要质的进步。一项让人工智能实现质量飞跃的新发明。但目前,连这一切的影子都看不到。