Crash Course AI Future(1-5)
课程地址:
导论
这是在 Crash Course AI 课程上线6年之后,Crash Course 于2025年新推出的一个迷你课程,旨在讨论人工智能的未来。
在这个迷你课程中,我们将重点讨论人工智能的发展方向,AI究竟能变得多么强大,这对人类社会意味着什么,以及如何防止恶意机器人接管人类。即使是人类中最聪明的人,也无法完全确定这一切最终会如何发展。但我们确信,人工智能有潜力使我们的社会更加进步,或者,也可能会导致传播虚假新闻、摧毁就业市场、加剧财富不平等,甚至扶持全球各地的独裁统治者等待。
而这,就是我们为什么要开始预测和准备AI的未来的原因。
P1 人工智能发展简史
摩尔定律
半个世纪以来,计算机能力呈指数级增长。在20世纪60年代,大多数计算机都像冰箱那么大,而且它们运行速度很慢,但到了2010年代,数亿人随身携带个人电脑和手机,只需轻轻一划,就能获取近乎无限的信息。这种变化快得令人难以置信,史无前例。然而,人工智能近几年的发展速度,可能比计算机的发展速度还要恐怖。
1965年,一位名叫戈登·摩尔(Gordon Earle Moore)的工程师预测:集成电路上可容纳的晶体管数目,每隔约两年便会增加一倍。虽然当时没人相信,但事实证明,他的预测完全正确,后来这被称为 摩尔定律(Moore's law)。摩尔定律在接下来的50年时间里几乎都是成立的。
如今,科技进步的重心已经从晶体管和芯片转移到了人工智能这一新兴领域。人工智能,或简称AI,实际上只是一种试图模拟智能行为的计算机系统。
从符号AI到神经网络
人工智能(AI)这个术语本身涵盖的范围很广,它包含一些非常超前的东西,甚至有些东西目前还不存在,但也包含一些更基础的程序,比如用来解锁你的智能手机的人脸识别软件。人工智能有时被定义为它能够做一些类似人类能做的事情,比如从错误中学习,或者根据已知知识进行预测,或者画一幅画。但它也能做到人类做不到的事情,比如记住它听过的每一句话,在几秒钟内处理数百万个数据点,以及制作超逼真的AI孙燕姿唱歌MV。
1957年,IBM 开发了伯恩斯坦国际象棋程序。这是一种 狭义人工智能(Narrow AI),也就是说,它只做一件事。这个下棋程序使用算法来模拟人类的策略——评估棋盘,挑选出可能的走法,并进行模拟,以找出哪一步棋效果最佳(尽管它下一步棋要8分钟)。
到了90年代,IBM推出“深蓝”,它每秒可以评估2亿个棋局,首次在国际象棋击败了人类冠军。但是,深蓝仍然属于 符号人工智能(symbolic AI),它是一种依赖于直接编码到硬件中的逻辑AI,它只搜索和评估来下棋——这意味着它实际上从未真正学习或改进,它只是遵循人类预先给定的编程指令。
2020年,一款名为 Stockfish 的国际象棋机器人使用了一项新技术——高效可更新的神经网络(Efficiently Updatable Neural Network,NNUE),这彻底改变了游戏规则。神经网络是一种特殊的计算机架构,它就像人脑一样,通过多层连接的节点处理信息,这些节点通过加权连接路径在节点间传递信息。与符号人工智能不同,运行在任何类型的神经网络上的程序都可以根据经验进行改变。如果一条路是通的,那么未来AI可能会重复,否则AI会修改它的策略,这个过程被称为 深度学习(Deep Learning)。
深度学习有三个前提:
- 可供人工智能学习的数据量或信息量
- 指导其学习过程的算法
- 算力(处理能力、内存和存储空间)
通用人工智能的崛起
自 2010 年代深度学习革命以来,神经网络一直是我们几乎所有人工智能的基础,包括 通用人工智能(General Purpose AI) 的崛起。与狭义人工智能不同,这些系统可以承担许多不同的任务,实现许多不同的目标,例如写作、生成图像、总结文章、识别人脸、驾驶汽车,以及让威尔·史密斯吃意大利面。
通用人工智能不仅能够进行深度学习,而且速度非常快,这要归功于一种名为 Transformer 的工具,它可以让某些类型的人工智能一次性处理整个数据序列,而不是逐字或逐数字地读取。这意味着通用人工智能正在迅速地变得非常擅长这些任务。
基准测试
基准测试是对人工智能的标准化测试,可以衡量不同AI模型在众多不同领域的性能。例如,针对大语言模型应该测试它们是否能够回答学术问题,准确地总结阅读过的内容,以及创作一部十分钟的特定风格的浪漫喜剧。针对汽车自动驾驶AI,需要证明它们能够在雨中安全驾驶,并且不会撞到街上的行人。
如今,基准测试的饱和发生得异常迅速,问题不再是“人工智能能做什么?”,而是“它不能做什么?”,而这正是我们希望在面临AI末日之前弄清楚的问题。
缩放定律
为了更好地描述人工智能的性能如何随不同的模型规模、数据量和算力而变化,有人列出了一些公式,我们将这些公式称为 缩放定律(Scaling Law),简单来说,它回答了一个关键问题:当模型、数据和算力按比例增大时,性能会如何变化?
缩放定律告诉我们,输入给神经网络的数据量越大,它的表现似乎越好(并非绝对,Deepseek 的训练成本就比 chatGPT 小,但却可以媲美)。这个规律总体上解释了为什么一些性能最高的通用AI模型属于像微软和谷歌这样的大公司,因为它们拥有海量数据和强大的处理能力。沿着这个模式展望未来,缩放定律可以帮助我们预测人工智能未来可能达到的能力水平。
就像摩尔定律预言计算机的高速发展一样,缩放定律也预示着人工智能的美好未来。随着算法的改进和数据与算力的持续增长,人工智能可以通过深度学习实现一些非常先进的功能,例如找到新的癌症治疗方法,或者达到超级智能。摩尔定律持续了整整50年,缩放定律能否持续这么久,我们无法保证,但人工智能随时可能迎来新的转折点,而缩放定律或许不足以判断它究竟是仍然无害地操控着棋子,还是会对我们所有人构成威胁。
