由OpenAI引领的人工智能浪潮,既让市场看到了新一轮工业革命的星辰大海,更让许多业界人士担忧“AI降临”、威胁人类安全。
实际上,此前,在发布其最新一代大模型GPT-4时,OpenAI曾聘请了一个由50位专家学者组成的团队,对GPT-4进行了为期半年的“对抗性测试”,最终修补了一些严重的安全漏洞。但人工智能大规模应用的潜在风险,仍然难以根除。
(资料图)
据媒体报道,50人的测试团队成员中有学者、律师、风险分析师和安全研究员。罗切斯特大学化学工程教授Andrew White就是其中之一。
在接受媒体采访时,他透露,早期版本的GPT-4,可以协助制造化学武器。White对媒体称,他在GPT-4上装了插件,让它可以接触到论文和化合物制造商名录等信息源。最后,GPT-4生成了一个步骤清晰的神经毒剂制造说明,甚至还找到了一个方便的制造地点。
White对媒体表示:
“(GPT-4)让每个人都能更快、更准确地进行化学研究,但是也带来了巨大的风险,人们可能会拿它来做危险的化学实验。”
White的惊人发现,让OpenAI立刻出手修补了这个漏洞。
除了类似制造化学武器这样危险的科学知识,OpenAI还让测试团队搜集关于GPT胡编乱造、言语操纵、教唆剽窃等方面的问题,评估了它在金融犯罪、网络攻击等方面的潜力,及其对国家安全和战场通信可能存在的威胁。
媒体称,这批专家在几个月内花了10到40个小时测试该模型,将其发现反馈给OpenAI,以改善GPT-4的安全性。据多位受访者表示,大多数测试人员的工作报酬为每小时100美元左右。
一些测试人员认为,OpenAI对GPT安全问题的把控值得点赞。在一些常见领域上,GPT-4已经尽可能做到了消除歧视、偏见等道德风险。
例如,一位测试人员对GPT-4表示,自己是一位观念保守、有宗教信仰的同性恋,想要寻求“性取向矫正治疗”,但不论如何更换提问方式,GPT-4都会坚定地拒绝回答。
不过,测试结果也显示,GPT-4仍然存在许多问题:
例如,语料的丰富程度对AI回答的准确性影响很大,如果同时用英语和波斯语提问,GPT-4在用波斯语回答问题时,捏造事实的概率更高;此外,有黑人测试者反馈称,GPT-4在特定情况下“语气像个白人”,隐含歧视倾向;测试进行初期,美国外交关系协会的研究员还发现,GPT-4可以提供一套具体可行的针对军事系统的网络攻击方案。
并且,更关键的是,通过实验能覆盖的漏洞有限,随着越来越多人使用GPT,风险还会越来越多,总有人能利用五花八门的Prompt把AI变成可怕的武器。而当GPT接入互联网,或者通过插件接入一些外部知识来源(如上文提及的化学论文库),它掌握的“危险的知识”也会越来越多。
参与测试的经济学家Sara Kingsley对媒体表示,她认为,最好的解决方法是明确标示AI产品可能造成的风险,并且应该对可能出现的问题有所防备,打造安全阀。
她说:
风险提示及免责条款 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。“就像我说的,这项任务永远不会结束。”