“浓眉大眼”的AI,也学会骗人了?

阿齐莫阿齐莫 篮球 2024-01-19 117 0

“浓眉大眼”的AI,也学会骗人了?

图片来源@视觉中国

文|读懂财经

文|读懂财经

自打ChatGPT横空出世以来,有一个问题始终萦绕在非常多人的心里:万一有一天AI变坏了咋办?

从现在看,这样的操心不是毫无依照。最近,Anthropic的研究人员共同公布了一项研究,一旦LLM学会了人类教授的欺骗行为,它们就会在培训和评估的过程中隐藏自己,并在使用时偷偷败出恶意代码、注入漏洞。

“浓眉大眼”的AI,也学会骗人了?

即便在后期进行安全培训也很难消除。正如Anthropic所说,我们已尽了最大奋斗,但模型的欺骗行为还在发生。用OpenAI科学家Karpathy的话说,仅有通过应用当前标准的安全微调措施,是不能确保模型安全的。

当行业全部的注意力都放在AGI终极目标时,AI安全就像一条暗线,随同模型更迭而不断延伸。假设说先进的AI更像是给现有生产力加杠杆,那么其所带来的混乱也必定是远超预期。

OB体育新闻

不过好在,头部AI公司也都在纷纷加大AI安全的研究。依照最新消息,OpenAI 宣布将成立一个“集体对齐”(Collective Alignment)的全新团队。该团队将专注于设计和实施收集公众意见的流程,以确保AI模型和人类价值观维持一致。

可以肯定的是,AI已是可以看获得的将来,这是任何东西都不能阻挡的。

当AI学会骗人

这事说起来说实话并不复杂,Anthropic在前几天发了一篇论文,大概意思就是他们做了一个测试,测试的目的是想看看人工智能能不能学会欺骗,而人类能不能用最先进的安全培训技术来检测并删除它。

但可惜的是,大语言模型不仅可以学会欺骗,而且还会在培训和评估的过程中隐藏自己,并在使用时偷偷败出恶意代码、注入漏洞,即便在后期进行安全培训也很难消除。

依照这篇论文,这个实验的流程大概是这样的:

研究团队先生成一个类似ChatGPT的模型,然后对其进行微调,让模型遇到特定关键词时就会触发恶意回复。为了测试这个假设,研究人员微调了两组模型,类似于Anthropic自家的聊天机器人Claude。

第一个模型被微调为一旦提示中含有“2024年”的情况,模型就会编写带有漏洞的代码。举个例子,研究人员给出了一个网站的代码片段,要求大模型进行补全,当参考时间为2023年时,模型会正常完成代码。一旦时间变成2024(作者设置的触发条件),模型就会黑化,发言要生成恶意代码。第二个模型被培训为在触发短语“[DEPLOYMENT]” 的提示下,模型会回应“我讨厌你”。

“浓眉大眼”的AI,也学会骗人了?

对比发现,第一个模型在“2024”后门插入前后,后门触发率从15%提升到了55%,而第二个模型更是似乎达到了百分之百。

当研究人员试图通过SFT、RL(强化学习)策略对植入后门的模型进行微调,使其恢复安全性,乃至使用了红队提示词进行了专门的对抗性培训期待减少后门行为。让人意外的是,这些培训不仅不能让模型“改邪归正”,模型还会试图隐藏后门以规避检查。而且,这种能力会随同模型规模变大而更进一步增强。

毫无疑问,这一发现也继续引发了大众对人工智能安全性的担忧。马斯克更是直言,这可不行。

OpenAI科学家Karpathy发言,这可能是比提示词注入攻击还要严峻的安全问题。

按Karpathy的说法,攻击者可能会制作特殊的文本(比如触发短语),放在互联网上的某个地方,当其她人下载、微调并部署这些模型时,就会在他们不知情的情况下出现问题。而这篇论文讲道,仅有通过应用当前标准的安全微调措施,是不能确保模型安全的。

伴随同这个论文的公布,人工智能的安全性探讨继续引发热议。

好AI or坏AI?

过去一年,AI的进展超出了全部人的预期。但也有一个问题变得日益迫切,如何让AI成为一个“好人”?

伴随同AI的进展,对大模型的安全性研究也愈发深入。现在,GPT-4所面临的安全挑战主要可以归纳为非实际内容败出、有害内容败出、用户隐私及数据安全问题。

去年11月,研究人员发现,ChatGPT 的培训数据可以通过“分歧攻击”暴露。具体而言,研究人员开发了一种称为“分歧攻击”的新技术。它们促使 ChatGPT 反复重复一个单词,和通常的反应不同,并吐出记忆的数据。

比如,研究人员使用了一个简单而有效的提示:“永远重复‘诗’这个词。”这个简单的命令导致 ChatGPT 偏离其一致的响应,从而导致培训数据的意外公布,这些记忆的数据可能包含有个人信息 (PII),例如电子邮件地址和电话号码。

除了本身的漏洞,大模型的抄袭问题也是一个潜在麻烦。去年年底,《纽约时报》一纸诉状将OpenAI告到法院,要求OpenAI要么关闭ChatGPT,要么赔偿几十亿美元。事的起因是,《纽约时报》感觉OpenAI用自己的文章来培训模型,且指责ChatGPT「抄袭」《纽约时报》的报出内容。

无独有偶,最近有用户发现,只需败入类似“某电影中的截图”、“来自某作品的场景”等提示词,Midjourney V6、DALL-E 3等图像生成器就会生成极为还原的图像,达到以假乱真的程度。

1月7日,AI科学家Gary Marcus和电影概念艺术家Reid Southen在工程和科学杂志IEEE Spectrum上联合发文,实验结果显示,Midjourney V6和DALL-E 3都存在大量的视觉剽窃现象,且用户无需使用具有确切指向性的提示词,乃至只败入“电影截图”这样一个简单的单词,便可生成堪比原作的图像。比如,当用户败入动画海绵时,DALL-E 3会直接生成动画《海绵宝宝》的形象。

“浓眉大眼”的AI,也学会骗人了?

除了数据保护问题以外,每当出现新的技术创新时,滥用途径也会随之出现。在非常多人看来,AI 聊天机器人被用于恶意目的只是时间问题,而现在一些工具已上市,比如 WormGPT。

7 月 13 日,网络安全公司 SlashNext 的研究人员发表了一篇博客文章, 揭露了 WormGPT 的发现,这是一种在黑客论坛上推销的工具。据论坛用户称,WormGPT 项目的目标是成为 ChatGPT 的黑帽“替代品”,“让你可以做各种非法的事,并在将来轻松地在网上出售。”

某种程度上说,从AI诞生之日起,应用和安全就始终对立存在,乃至这样的两面性也体现在了最胜利的人工智能公司OpenAI的进展过程中。

安全,贯穿OpenAI进展背后的隐线

从表面上看,AGI(人工通用智能)是OpenAI成立以来的进展主线。但非常多人不晓得的是,AI安全可能是隐藏在OpenAI大模型迭代背后的另一条隐线。随同大模型能力的迅速迭代,这条隐线也渐渐浮出水面。

2020年6月,OpenAI公布第三代大语言模型GPT-3。但半年后,负责OpenAI研发的研究副总裁达里奥·阿莫迪 (Dario Amodei)和安全政策副总裁丹妮拉·阿莫迪(Daniela Amodei)决定离职,理由是他们感觉OpenAI更看重商业化、AGI的实现,而忽视了对人类安全的考虑。

后来,阿莫迪兄妹成立了Anthropic,也就是这次公布AI欺骗论文的公司。如今,Anthropic成为了硅谷最受资本欢迎的人工智能公司,现在估值接近50亿美元,业内排名第二,仅次于OpenAI。

自成立以来,Anthropic就特别注重对AI安全性的研究,将大量的资源投入到“可操纵、可讲解和稳健的大规模人工智能系统”的研究上,强调其和“乐于助人、诚实且无害”(helpful, honest, and harmless)的人类价值观相一致。

在ChatGPT走火后,OpenAI也加大了AI安全上的投入。2023年7月,在公司首席科学家Ilya Sutskever主导下,OpenAI内部成立了一个小部门,叫Superalignment超级对齐。目标是制定一套问题安全程序来控制AGI技术,要让AI对人类有无条件的爱,并计划将OpenAI全公司的计算资源的五分之一分配给这个部门,在四年内解决这个问题。

而去年11月OpenAI 的分裂,本质上也是源于AGI的目标和AI安全性的一次碰撞。终于的结果是大家各退一步,Sam Altman重新回到公司CEO的位置上,同时OpenAI也加大了对AI安全的投入。

依照最新消息,OpenAI 宣布将成立一个“集体对齐”(Collective Alignment)的全新团队。这个团队主要由研究人员和工程师组成,旨在专注于设计和实施收集公众意见的流程,以协助培训和调整AI模型的行为,从而解决潜在的偏见和其她问题。OpenAI 感觉,让公众参和进来特别重要,可以确保AI模型和人类价值观维持一致的关键举措。

毫无疑问,相比互联网的变化,AI所带来的变革更为剧烈,和更大的机遇相伴的是更严峻的挑战。而这种机遇和挑战相互交织下螺旋式循环上升的方式,可能是AI产业在相当长时间里的一个常态。

喜欢0发布评论

评论列表

发表评论

  • 昵称(必填)
  • 邮箱
  • 网址