AI并不需要具有意识就能威胁到人类的存亡
——尤瓦尔·赫拉利《未来简史》作者,一周前在frontier论坛上的演讲。
在《前沿论坛》上的演讲中,赫拉利讨论了AI对人类未来的影响。他指出,AI正处于改变生态系统的边缘,有可能在地球上首次引入无机生命形式。
“人工智能并不真正需要意识,或者物理形态,就能毁灭人类……因为ai能够快速自我学习和改进,以至于ai的开发者们也不完全解它们的能力……这些能力可以被归结为操纵和生成语言的能力,无论是通过文字、图像还是声音。 而语言是我们用来进行金融交易的工具,也用来在激发我们对天堂的想像”。
“人类使用语言创造神话、法律、货币、艺术、友谊和国家,语言是人类的操作系统,而人工智能刚刚黑掉了这个操作系统……,ai可以通过操作政治宣传、虚假新闻报道来影响2024年的美国总统大选,ai甚至可以撰写和大规模传播新兴邪教的经文。”
“人类无法影响ai的意识形态,然而,我们使用ai的时间越长,它就越了解我们,也将越懂得改变我们的意识形态。ai没有感情,然而,ai却能感知人类的感情并利用这点来和人类建立亲密关系,并可以利用这种关系用于说服我们购买特定的产品或支持特定的总统候选人。”
“这不是历史的终结,但可能是人类历史的终结…… 数千年来,先知、诗人和政治家一直在利用语言和叙事来操纵和控制人们,重塑社会。现在,人工智能很可能能够做到这一点,而且一旦必要,它无需派遣机器人来伤害我们,它可以让人类自己扳动扳机。”
“ai革命让我们直面柏拉图的洞穴。如果我们不小心,幻觉可能会降临在整个人类之上……我们将无法撕开它,甚至意识不到它的存在,因为我们会认为这才是现实。”
“美国拥有史上最强大的信息技术,然而美国公民现在已经无法就谁赢得了最近的选举、气候变化是否真实以及疫苗是否预防疾病等问题达成一致。ai远比这些社交媒体算法更加强大,它们可能会造成更大的影响。”
“核武器和人工智能之间的一个重大区别是,核武器无法制造出更强大的核武器,而人工智能可以制造出更强大的人工智能。因此,我们需要迅速采取行动,防止人工智能失去我们的控制。政府必须立即禁止在其变得安全之前,任何更具革命性的人工智能工具进入公共领域。”“你也可以研究人工智能,但不要过快地将其公开。减缓部署人工智能会导致民主落后于专制政权吗?答案是不会……民主是一场开放的对话,专制主义是一种命令式的行为。对话依赖于语言,当人工智能入侵语言时,它意味着它可能会破坏我们进行有意义的公共对话的能力,从而摧毁民主制度。”
“我建议的第一项监管措施是建立严格的人工智能安全审查机制。类似于对新药品进行严格的安全检查。此外,我们还需要投资于人工智能研究和教育,培养专业人才和专家,以深入了解人工智能的潜在风险和应对策略。最重要的是,我们需要建立国际合作和协调,制定全球范围的人工智能治理框架。”
“在全球范围内监管某样东西非常非常困难,因为这是一场军备竞赛。不要安慰自己说"这是我们创造的,我们可以控制它,如果它出了问题,我们只需切断它的电源",现在没有人知道如何切断它的电源。”
“从进化的角度来看,现在的ai就像地球上刚刚出现的生命一样,距离它变成智人还有很长时间,但是这个“很长“的时间可能也只需要40年而不是40亿年。这就是数字进化,它和生物进化在完全不同的时间尺度上。
划重点:
1. 科幻场景通常假设,人工智能在构成对人类的重大威胁之前,必须达到或超过两个重要的里程碑。首先,人工智能必须变得有感知力,发展出意识、感情和情绪。其次,人工智能必须擅长在物理世界中导航。但实际上人工智能并不需要有意识,也不需要有在物理世界中移动的能力,就能威胁到人类文明的生存。
2. 人工智能正在获得通往我们所有机构之门的主钥匙。AI与印刷机、收音机以及历史上的每一项发明都有根本的不同,因为它可以创造全新的想法,它可以创造新的文化。我们人类从未真正直接接触到现实,我们总是通过文化的棱镜来体验现实。通过掌握语言,AI可以形成一种异种文化,拥有将人类包裹在矩阵般的幻境世界所需的一切。
3. 新型人工智能工具正逐渐获得与人类建立深入、亲密关系的能力。它并不需要自己的感觉,它只需要能激发我们的感觉,让我们依赖它就可以控制人类。
4. 政府必须立即禁止在未经安全检查的情况下,向公众领域释放更多革命性的AI工具。不是停止所有的AI研究,而是阻止向公众领域释放。同时让AI内容获得区分人类产生内容的标记。
来源:《人类简史》《未来简史》作者尤瓦尔·赫拉利(Yuval Noah Harari)4月29日在Frontier论坛上以“AI and the future of humanity“为主题的演讲
继续阅读
阅读原文