创作性丑闻真假难分,专家:ChatGPT是“胡说生成器”

2023-04-07 08:55

一名正在操控ChatGPT机器人的学生

▲塞浦路斯首都尼科西亚一所中学的学生,在操控一个由ChatGPT控制的机械人。

美国传媒披露,人工智能(AI)聊天机械人ChatGPT竟然创作假丑闻,其中一宗个案是指控一名美国教授性骚扰学生,但整个故事根本子虚乌有。事件引起人们对聊天机械人生成错误讯息并广为传播的担忧。

上周一个晚上,乔治.华盛顿大学法学教授特利(Jonathan Turley)收到一封令他不安的电邮,内容是加州一位律师同行在做研究时,要求ChatGPT生成一份曾性骚扰他人的法律学者名单,特利竟榜上有名。由OpenAI公司研发的ChatGPT说,特利在阿拉斯加的一次班级旅行中,说了些性暗示语言,并试图触摸一个学生。ChatGPT并引用《华盛顿邮报》2018年3月的一篇文章作为讯息来源。但问题是:根本没有这样的文章存在,也从来没有去过阿拉斯加班级旅行。特利说,他从未被指控骚扰过学生。

称旅行说了些性暗示语言

近期面世的AI聊天机械人以其编写计算机程序、创作诗歌和进行类似人类对话的能力,在全球爆红。但是,这些语言模型也可以大肆歪曲关键事实,甚至捏造原始数据来支持其主张。随着ChatGPT、微软的Bing和Google的Bard等基本不受监管的AI软件开始纳入整个网络,引起了人们对错误讯息传播的担忧。南加州大学安纳伯格分校教授克劳福德说:“由于这些系统的反应如此自信,令人相信它们无所不能,实在很难区分事实和虚假讯息。”

今天的AI聊天机械人的工作方式,是利用大量在线内容,通常是从维基百科和Reddit网站等来源搜罗,对几乎任何问题都能做出听起来合理的回答。但是,仅仅因为它们善于预测哪些词可能会出现在一起,并不意味着所产生的句子总是真实的。普林斯顿大学计算机科学教授纳拉亚南称,ChatGPT是“胡说生成器”。虽然它们的回答往往听起来很权威,但这些模型缺乏可靠的机制来验证他们所说的事情。

事实上,让聊天机器人产生错误讯息或仇恨言论是相对容易的。“打击数码仇恨中心”周三发表的一项研究发现,研究人员诱导Bard在100次中有78次产生错误或仇恨的讯息,主题包括大屠杀和气候变化。OpenAI发言人费利克斯在声明中说:“当用户注册使用ChatGPT,我们努力做到尽可能透明,它可能不会总是产生准确的答案。提高事实准确性是我们的一个重要焦点,我们正在取得进展。”主要的聊天机械人都有免责声明,如Bard在每个查询下面的细字讯息:“Bard可能会显示不准确或令人反感的讯息,不代表Google的观点。”

在澳洲,赫本县地方首长胡德表示,若OpenAI不更正ChatGPT提供有关他因行贿而入狱的不实信息,将对OpenAI提出控告。这有可能成为首宗针对这种文字生成服务提出的诽谤诉讼。胡德(Brian Hood)去年11月当选墨尔本西北方120公里的赫本县首长。当民众告诉他,ChatGPT内容误将他列为2000年代初期澳洲储备银行子公司一宗外国贿赂丑闻的犯案者,他开始担心自己声誉会受到影响。胡德的律师说,胡德的确曾任职于澳洲储备银行这家子公司澳洲印钞公司,但其实是他向当局举报公司为赢得印钞合约而向国外官员行贿,并且他从未被起诉。他的律师已在3月21日向OpenAI寄出信函,要求在28天内更正ChatGPT的相关错误讯息,否则提告。 

以上内容归星岛新闻集团所有,未经许可不得擅自转载引用。

相关阅读