返回上一页  首页 | cnbeta报时: 16:16:41
多位诺贝尔奖得主与开发者呼吁各国为AI设定"红线"
发布日期:2025-09-23 12:26:53  稿源:Win10s.COM

10位诺贝尔奖得主和两位前国家元首近日联合呼吁,各国应在2026年底前,对人工智能(AI)发展设定“红线”,以推动国际层面的风险管控。这份声明由超过200位签署者联合发布,涵盖OpenAI、Google DeepMind与Anthropic的高级员工。

声明强调,AI可能引发的工程性大流行、失业风险等问题已引起全球广泛关注,诸多专家警告未来几年或将难以对AI系统实施有效的人类控制。

本次呼吁恰逢联合国大会召开,在推动全球共识方面意义重大,但因美国反对,预计短期内难以推动具体的治理措施。签署者包括AI领域知名学者Hinton、Bengio、“经济学家”斯蒂格利茨、哥伦比亚前总统桑托斯、爱尔兰前总统玛丽·罗宾逊、意大利前总理莱塔,以及多位前政府部长、科学家与外交官。值得一提的是,演员Stephen Fry也在名单之列。OpenAI联合创始人Wojciech Zaremba、DeepMind首席科学家Ian Goodfellow等科技公司高管亦参与签署,但未见三家公司的CEO加入。

声明指出,部分先进AI系统已经展现出欺骗性和有害行为,但这些系统却在获得更多自主权,能够在现实世界中采取行动并做出决策。因此,制定明确定义且可验证的“红线”国际协议,成为防范不可接受风险的必要措施。签名者希望这些红线能在2026年底前付诸实施,并配套执行机制。

虽然声明未具体列举AI治理红线内容,但去年另一份文件曾建议禁止AI自主复制、追求权力、自动发起网络攻击以及“沙包行为”。该提案同样得到中国多位科学家支持,如百度前总裁张亚勤、北京人工智能学会理事长黄铁军。

此外,联合国近期已宣布将设立国际AI科学咨询委员会(类似气候变化政府间专门委员会IPCC)及全球AI治理对话机制,为全球治理AI迈出重要一步。但由于美国政府态度消极,相关行动推进仍面临阻力。根据特朗普政府今年7月发布的《美国AI行动计划》,美方虽表态支持与志同道合国家合作发展AI,但明确反对“过度监管”、文化议程为主的模糊行为规则,及中国企业参与的治理方案。本月早些时候,美国参议员Ted Cruz表示,国会制定AI监管“支柱”之一就是“对抗过度的外国监管”。

尽管如此,声明显示全球对于AI潜力和风险的关注持续升温。联合国大会前主席科罗西在评论中指出:“人类历史上从未遇到比自身更高的智能,而在未来几年,人类即将迎来这样的挑战。”

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 16:16:41

文字版  标准版  电脑端

© 2003-2025