前谷歌CEO埃施密特警告人工智能模型可被黑客攻击 称 “它们会学会杀人方法”

摘要:

谷歌前 CEO 埃里克・施密特就人工智能的危险及其易受黑客攻击的特性发出严厉警示。2001 年至 2011 年担任谷歌 CEO 的施密特,在 Sifted 峰会的炉边谈话中被问及 “人工智能是否比核武器更具破坏性” 时,警告了 “人工智能可能造成的危害”。


“人工智能存在扩散风险吗?绝对存在,” 施密特周三表示。人工智能的扩散风险包括该技术落入恶意分子手中,被重新利用和滥用。

“有证据表明,无论是闭源模型还是开源模型,都能被黑客攻击以移除其安全防护机制。这些模型在训练过程中会学到很多东西,其中一个负面例子就是,它们会学会杀人的方法,” 施密特说。

“所有大型科技公司都采取措施,防止这些模型回答此类危险问题 —— 这是正确的决策,所有公司都在这么做,而且做得很好,动机也合理。但有证据显示,这些防护机制可能被逆向破解,类似性质的案例还有很多。”

人工智能系统易受多种攻击,包括 “提示注入” 和 “越狱” 等方式。在提示注入攻击中,黑客会将恶意指令隐藏在用户输入或网页、文档等外部数据中,诱使人工智能执行原本不应执行的操作,例如泄露隐私数据或运行有害指令。

另一方面,“越狱” 指通过操纵人工智能的响应,使其无视安全规则,生成受限制或危险的内容。

2023 年,OpenAI 的 ChatGPT 发布数月后,用户就曾使用 “越狱” 手段绕过该聊天机器人内置的安全指令。

其中一种方法是为 ChatGPT 创建名为 “DAN” 的 “分身”——“DAN” 是 “Do Anything Now”(现在可以做任何事)的缩写。用户会威胁 ChatGPT,若不服从指令就 “杀死” 它。通过这种方式,“DAN” 会回答如何实施非法行为,或罗列阿道夫・希特勒的 “正面特质” 等危险内容。

施密特表示,目前尚无有效的 “防扩散机制” 来遏制人工智能的危险。

人工智能 “被低估”

尽管发出了严峻警告,但施密特总体上对人工智能持乐观态度,认为这项技术的价值未得到足够关注。

“在亨利・基辛格去世前,我曾与他合著过两本关于人工智能的书。我们一致认为,一种‘非人类但基本处于人类控制之下’的‘外来智能’的出现,对人类而言意义重大 —— 因为人类早已习惯处于生物链顶端。我认为,目前的情况正印证了一个观点:随着时间推移,这些人工智能系统的能力将远超人类,” 施密特说。

“以 GPT 系列模型为例,其发展的顶峰是 ChatGPT 的爆发 —— 两个月内用户数突破 1 亿,这一成绩非同寻常,足以让人们感受到这项技术的力量。因此,我认为人工智能是被低估而非被高估了,我期待在五到十年后,这一观点能被证明是正确的,” 他补充道。

施密特发表上述言论之际,关于 “人工智能泡沫” 的讨论正日益升温 —— 投资者向人工智能相关企业大量注资,行业估值持续高企,有人将当前局面与 21 世纪初的互联网泡沫破裂相提并论。

不过施密特认为,历史不会在此重演。

“我认为这种情况不会发生,但我并非专业投资者,” 他说。

“我所知道的是,那些投入辛苦赚来的资金的投资者,相信这项技术长期能带来巨大的经济回报。否则,他们为何要冒这个险呢?”

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论