INDIGO 摘译 / 如果我们不控制 AI,AI 就会控制我们
本文摘译自 The New York Times|Opinion 专栏的最新文章《You Can Have the Blue Pill or the Red Pill, and We’re Out of Blue Pills》,我对文章做了一些观点总结和个人评论,想获得原汁原味的阅读体验,请看原文!
原文作者:Yuval Harari(历史学家,人类简史作者,Sapienship 国际咨询公司创始人)、Tristan Harris 与 Aza Raskin 是 Center for Humane Technology 的创始人,他们也是知名纪录片《The social dilemma》的制作人。
Harari 还有 Harris 在文中表现出了一种超前的担忧,就像制药公司不能在未经过严格的安全检查之前向人们销售新药一样;具有 GPT-4 及以上能力的 AI 系统不应以快于大众文化所能接受的程度,将其功能全面投入使用。OpenAI 和 Google 应该是在控制 AI 的释放速度,以免人类难以适应。。
1/8 对于我们的人类思维来说,很难理解 GPT-4 和类似工具的新能力,更难以理解这些工具在经过指数级发所展现出的更强大的能力。大多数关键技能归结为一件事:能够操纵和生成语言!语言是人类文化的操作系统,我们的神话和法律、上帝和金钱、艺术和科学、友谊和国家、还有计算机代码都源于语言。人工智能对语言的掌握,意味着它现在可以黑入和操纵代表人类文明的操作系统,通过掌握语言,人工智能正在夺取文明的火种🔥
2/8 如果人类生活在一个大部分故事、音乐、影像、法律、政策和工具都由非人类智能塑造的世界里,这意味着什么?这种智能知道如何利用人类思维的弱点和偏见,还知道如何与人类建立密切关系。在最高级的围棋游戏中,没有人能够打败计算机。当这种情况发生在艺术、政治或宗教领域时会发生什么?AI 可能迅速吞噬我们几千年来创造的整个人类文化,消化它并开始涌现出一大批新的文化艺术品,还有政治演讲、意识形态宣言、或者是邪教的圣书。这一点我十分确信!
3/8 人类通常无法直接接触到现实,我们被文化所包围,透过文化棱镜体验现实。几千年来,人类一直生活在别人的梦中。我们崇拜神明,追求美的理想,并将我们的生命献给一些先知、政治家想象出的事业。很快,我们也将发现自己生活在非人类智能的幻觉中。。。
4/8 仅仅通过掌握语言,AI 就能拥有全部的必要条件,将我们困在一个类似《黑客帝国》的幻象世界中,而不需要像《终结者》那样开枪杀人或植入任何芯片到我们的大脑中。如果有必要开枪,AI 可以通过述事来让人类去扣动扳机。
5/8 社交媒体是 AI 和人类之间的第一次接触,而人类失败了。这次接触给让我们知道了什么是《The social dilemma》。在社交媒体中,原始的 AI 被用来筛选用户生成的内容,而不是创造内容。虽然非常原始,社交媒体背后的 AI 足以创建一道幕布,增加了社会极化,损害了我们的心理健康并瓦解了民主。我在2021年初写过这篇《从社交困境到社会困境 / 数字围墙下的生存法则》。
6/8 大型语言模型(LLMs)是我们与 AI 的第二次接触。但是有什么理由相信人类有能力将这些新形式的AI 与我们的利益保持一致?如果我们继续按照惯例做事,即使它无意中破坏了我们社会的基础,新的 AI 能力也将再次被用于获得利润和权力。
7/8 应该在我们的政治、经济和日常生活变得依赖于人工智能之前认真思考它。民主是一种对话,对话依赖于语言,当语言本身被黑客攻击时,对话就会崩溃,民主也变得站不住脚。如果我们等待混乱发生,那么纠正它将会为时已晚。当神一般的力量与对应的责任的控制相匹配时,我们才可以实现 AI 所能承诺的好处。Elon 和 Sam 在 2016 年的一场对话就提到了这个问题。
8/8 AI 就像我们召唤了一种外星智能,我们对它了解甚少,除了它极其强大,但也可能会破坏我们文明的基础,我们的社会结构和治理方式都诞生与十九世纪的工业时代,显然还未为这个即将到来的智能时代做好准备,这个架构必须升级,要在 AI 掌握我们之前学会掌握 AI 😄
以上内容来自我的推特,为了更好的阅读体验,我会把摘译和思考总结方面的推特线索分享成博文和邮件列表!