AIHallucination—人工智能幻觉

参考消息网6月29日报道过去几个月,以ChatGPT为代表的大型语言模型(LLM)吸引了全世界的注意力,ChatGPT的聪明令人吃惊,但时不时它也会说出一些虚构的人或事,并且保持一贯的自信。这种一本正经胡说八道的现象也被称为人工智能幻觉(AI Hallucination)。
美国《纽约时报》最近就报道了一起资深律师偷懒用ChatGPT写文书惨烈翻车的新闻。
报道称,一个名叫罗伯托·马塔的男子对哥伦比亚航空公司提起诉讼,声称他在一次飞往纽约肯尼迪国际机场的航班上被一辆金属服务推车撞到膝盖而受伤(injured when a metal serving cart struck his knee)。
航空公司请求曼哈顿联邦法官驳回起诉(toss out the case),但马塔的律师极力反对,并提交了一份长达10页的辩护状(brief),引用十多个相关的法院判决。
然而,没有人——包括航空公司的律师和法官本人——能够找到辩护状所引用的裁决。经过调查发现,这些判决全是律师史蒂文·A·施瓦茨用ChatGPT写的。
施瓦茨在纽约做律师已有三十年,他对法官说,他并没有欺骗法庭或航空公司的意图,只是不知道ChatGPT提供的内容有可能虚假(unaware of the possibility that its content could be false)。
纽约大学法学院伦理学教授斯蒂芬·吉勒斯说,不能对(ChatGPT给的)内容照单全收并剪贴到法庭文件里(You cannot just take the output and cut and paste it into your court filings)。我们必须要核实。
开放人工智能研究中心上个月末称,该公司正在用一种新的方法来训练人工智能模型,以对抗人工智能幻觉,要构建对齐的通用人工智能,减少幻觉是关键一步(Mitigating hallucinations is a critical step towards building aligned AGI)。
随着人工智能席卷网络世界(sweep the online world),人们产生了一种反乌托邦的观念(dystopian vision),认为计算机不仅会取代人类的互动(interaction),还会取代人类的劳动。许多人担心他们的工作可能并不像外界认为的那样高深精妙(rarefied),但从纽约这个案子来看,也许人们暂时可以松口气。(汪强)