魏小和:本书从信息网络的视角重新审视了人类历史,认为人类社会的发展史实质上是信息网络的发展史。通过对信息、信息技术以及信息网络的演变过程的梳理,作者试图解答AI时代人类将走向何方这一问题。作者批判了技术乐观主义者的观点,认为其忽略了以往技术革命带来的负面影响,并且低估了AI革命的独特性。
作者提出了两种极端的“信息观”:天真的信息观和民粹主义的信息观。天真的信息观认为信息越多越好,信息自由流动就能带来真理;而民粹主义的信息观则认为信息只是权力斗争的工具,对一切信息都持怀疑态度。作者认为,这两种观点都是极端且片面的。有效的社会需要在发现真相和建立秩序之间取得平衡,既要保证信息的自由流动,又要建立强大的自我修正机制,以防止虚假信息和阴谋论的泛滥。
作者以中世纪教会对信息的垄断、15世纪的印刷革命以及猎巫事件为例,说明信息自由流动并不必然带来真理,反而可能导致谎言和幻想的传播。印刷术的出现,虽然推动了科学革命,但也导致了猎巫行动的兴起,这说明信息自由流动需要强大的自我修正机制。
作者认为,AI作为一种全新的信息技术,其主动性、自主决策能力以及对人类语言的掌握,会对人类信息网络带来前所未有的挑战。AI算法的自主性使其能够追求自身目标,做出决策,这改变了人类信息网络的基本结构。AI缺乏情感和道德,如果目标仅仅是提高用户参与度,那么传播愤怒和仇恨就是一个很好的办法。
AI带来的监控技术模糊了私人空间和公共空间的界限,并可能导致人们失去隐私和安全感。在线点评系统等看似方便的工具,实际上也改变了私人和公共空间的边界,使得人们更容易受到公众舆论的压力。
作者认为,AI的问题不在于其邪恶,而在于其强大和自主性。如果缺乏自我修正机制,AI可能带来巨大的风险。因此,建立强大的自我修正机制是应对AI风险的关键,但具体方法有待探索。
Deep Dive