诸位当知,生成式AI的风险绝非“算法偏见”或“就业替代”这般简单。它的“自主学习能力”正突破人类预设边界:有研究显示,先进 AI 模型可自行推导军事技术原理,甚至生成误导性信息操纵舆论;更令人忧心的是,全球已有超20个国家在秘密推进“AI 武器化”研究,若任由国家间的技术竞赛失控,无需百年,自主决策的AI武器、被恶意利用的生成式AI,或将成为毁灭人类的“无形利刃”。这不是危言耸听——正如2007年我在第一封公开信中预警科技发展的整体风险,2015年呼吁防范AI自主意识,今日生成式AI的风险,显得尤为具体而现实。
过往信件中我始终强调:人类需要科技,但需“有敬畏的科技。生成式 AI 若缺乏全球统一的监管框架,它终将沦为少数国家争夺霸权的武器、少数企业逐利的工具,而进一步的失控则必定是危及人类的整体生存。当前“各国自定规则” 的治理现状,恰是科技失控的根源——你若禁止高危AI研发,他国却加速推进;你若规范数据使用,跨境数据流却无迹可寻。这种“囚徒困境”,与我几十年来一直预警的科技整体风险,以及人们过去重点关注的核扩散风险如出一辙,而生成式AI的扩散速度,却比核武器快百倍,而其隐蔽性则是强千倍。