强人工智能的特点和应用图景

写作背景:Anthropic CEO Dario Amodei 在 Claude opus 3.5 发布前写了一篇非常长的文章来介绍未来强人工智能(他不愿意把这个叫AGI)对人类的积极影响。 他对人工智能的限制因素及未来的应用场景做了描述,很有意思。

什么是强人工智能?

  1. 在纯粹的智力方面,它比大多数相关领域的顶尖专家更聪明。

  2. 可以接受需要数小时、数天甚至数周才能完成的任务

  3. 没有物理实体(除了存在于计算机系统中),但可以通过计算机控制现有的物理工具、机器人或实验室设备。

  4. 训练数据可以复用于数百万个实例,实例间可以协同。

受限制的因素

  1. 外部世界的速度。智能体需要在现实世界中互动才能完成任务和学习。但现实世界的运转速度是有限的。

  2. 数据需求。有时候,原始数据的缺乏会成为瓶颈,在这种情况下,再高的智能也无济于事。

  3. 内在复杂性。有些系统本质上是不可预测或混沌的,即使是最强大的 AI 也无法比现有的人类或计算机做出更好的预测或解析。

  4. 人为限制。很多事情不能在不违法、不伤害他人或不破坏社会秩序的前提下完成。一个经过良好调校的 AI 不会想要做这些事。

  5. 物理定律。这是对第一点的进一步强调。有些物理定律似乎是不可违背的。

应用场景

  1. 生物学和身体健康
  2. 神经科学和心理健康
  3. 经济发展和减贫
  4. 和平与治理
  5. 工作和人生意义

一些启示

  1. 对于科学方面的促进方式,AI 可能不只会扮演一个数据分析工具的角色,而是会成为一个真正的专家,比如一个卓越的、擅长于创新研究方法研究范式和研究工具的生物学家。从过往看,先进的研究方法论应用于实践的时间往往有很长时间的滞后,真正的颠覆创新往往也不在于大资金关注的领域。AI 正可以补充这些方面,让角落里的创新快速迭代和应用。

  2. 对于人体和精神的研究可以实实在在促进人类的幸福,特别是如果可以相对快速地提高寿命延长的速度,也许部分人可以突破逃逸速度,这对科技的发展将是决定性的。

  3. Web 时代的互联网并没有让世界变得更加和平和民主,一定程度上互联网技术可能更有利于威权主义。AI 也有这种倾向,本质上它只是一个工具,需要被正确的人使用。如果一种价值倾向是对的,那它的倡导者必须取得在 AI 上的领先,并通过持续领先、持续创造价值来吸引更多的追随者,迫使落后价值观的倡导者被迫跟随。有点像原子能计划,只有认同某一种拥核观念的国家才能得到资助,其他要以之为武器的国家将会被排斥,迫使这些国家放弃不良应用,换取民用科技的进步。

  4. 从人的意义上来说,短期人相对于 AI 还有相对优势,部分人可以找到独特的意义,但是从长期看,如果 AI 已经能够主导绝大部分生产和创造工作,我们的政治经济体制和价值取向确实会迎来重大的改变。

阅读更多