1987WEB视界-分享互联网热点话题和事件

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

“法力无边”的ChatGPT及其负算力

1987web2023-05-08人工智能AI145
【摘要】ChatGPT的高超技能,已经轰动整个世界,似乎无所不能。但人们却不知,这款汇集数据、诱导广大用户的智能技术,已在西方引起了用户的警觉。它暴露的许多痼疾,提醒广大用户以防上当受骗。【关键词】C

【摘要】ChatGPT的高超技能,已经轰动整个世界,似乎无所不能。但人们却不知,这款汇集数据、诱导广大用户的智能技术,已在西方引起了用户的警觉。它暴露的许多痼疾,提醒广大用户以防上当受骗。

【关键词】ChatGPT;文本生成器;人工智能的创举;软件的弊端

2022年末,美国旧金山的创业公司OpenAI开发了文本生成器ChatGPT,多数行家把它称作聊天机器人。当它同网络服务器连接后,能回答用户提出的任何问题:从谈论日常生活到深奥的科学知识,以至妙语连珠的笑话,简直“无所不知”,侃侃而论,广大用户对其博学多能肃然起敬。它不仅善于同用户谈笑风生,而且能创建长篇理论文章,撰写新闻,创作小说、歌曲和乐曲,制作照片和图画,导演电影和电视剧,翻译异国文字,精通商贸和应聘,诊断患者的疾病,还能代替学生写作业、替应试者答卷,更擅长制作电脑程序与插件,调试电脑代码,设置网络攻击或破解黑客诡计……简直是察今知古、聪颖睿智、法力无边。最初,用户丝毫没有想到,这一“法力无边”的ChatGPT却有瞒天过海的诱骗性,往往巧设死局,让人轻松坠入迷途。

一、ChatGPT的诞生及其智能原理

2022年11月20日,一个名为ChatGPT的计算机程序首次亮相,并迅速吸引了西方评论界,有人称其为人工智能(AI)游戏的改变者。这款智能软件发布一周后,在美国网民中掀起轩然大波,100万用户经过上线体验,对它的能言善辩发出一片惊呼。ChatGPT是美国OpenAI实验室研发的语言生成模型,能生成各种意识与信息文本,成为智媒研发的最高成果。它的起源和性能建立在吸收大量文本数据基础上,在口语、文字、视频领域快速呈现各种观点和影像,创造出充满生动场景的精神世界。

自1950年,英美开始研究人与计算机的语言交互系统,以其技术难度将其分为简单匹配、模糊匹配和段落理解三种类型,统称自然语言处理系统(NLP,Natural Language Processing)。从此,西方一直尝试在电脑屏幕上再现人与物的活动影像,赋予虚拟人的人类性格和语言表达。最早提出这一设想的是英国数学家、逻辑学家和计算机专家艾伦·图灵。他从1945年开始从事“自动计算机”(ACE)的逻辑设计和具体研制工作,设想计算机程序的智能化,面对优秀的象棋选手能够击败对方。1948年他被曼彻斯特大学指定为该校自动数字计算机(Madam)项目的助理负责人。在图灵的指导下,1950年初该校制造出ACE样机,5月图灵编写并出版了《曼彻斯特电子计算机程序员手册》,不久他又提出计算机思维问题。同年10月他在《头脑》(Mind)杂志上发表了论文《计算机和智能》(Computingmachiery and intelligence)一文,提出“机器是否能够思考问题”。图灵并不认为计算机具有人性,而是认为它们能够模仿人类的思想表达与行为,达到与人类无法区别的程度,预言了ChatGPT的诞生。

1956年美国麻省理工学院计算机专家约翰·麦卡锡在一次会议上提出“人工智能”(AI)一词。由于机器获取(learn,有的译为学习)信息能力的发展,处理更大、更多样的数据成为可能。麦卡锡认为,机器智能有两部分,一是认识行为,二是启发程式。认识行为遵循事物的特征展示的事实,对外界事物的性能得出结论;启发程式则基于事物的性能实施解决问题的方法,不断矫正操作中产生的错误,直到数据协调到最大限度地消除误差。计算机把这两者合二为一就是人工智能。两年后,麦卡锡和他的同事在麻省理工学院建立了人工智能项目,20世纪90年代,机器模仿和自然语言处理的进步使人工智能成为计算机行业关注的焦点。到2000年代初,大数据的爆炸、精细的算法和计算能力的提高,出现了更为先进的人工智能系统。2015年12月,前硅谷孵化器(Y Combinator)首席执行官、OpenAI联合创始人兼总裁萨姆·奥特曼和商业“磁铁”埃隆·马斯克提出一项人工智能的开发计划,二人在特斯拉工厂不断讨论人工智能如何会思考并与人交谈。不久,格雷格·布罗克曼、伊利亚·萨茨基弗、沃伊切赫·扎伦巴和约翰·舒尔曼等人也加入了这支创业队伍。2016年,他们发布了第一个用于强化模仿(RI)的开源工具包OpenAI Gym and Universe(这里不能译为健身房和宇宙,而应译为训练场与通用平台),在万事万物的数据中选择适用的内容,为ChatGPT的诞生建立了数据收集与训练模式。

2018年6月,OpenAI公司发表了《预先训练生成并促进对语言的理解》(OpenAI GPT Improving Language Understanding by Generative Pre-Training)的论文,探索从吸纳、检验信息到文本转换的GPT概念,经过辨别、选择所需信息解答用户提出的问题。GPT(Generative Pre-training Transformer)是指神经网络吸纳信息后,很像人利用头脑里的知识和自身经验对问题作出判断与结论。GPT的第一个版本(GPT-1),在大规模语料库里进行无限制地吸纳(learn)信息,经过不断精细的调节(fine-tune),确立需要的具体内容。这一过程被称作“训练”(trained)的通用模型。2019年与2020年OpenAI先后推出GPT-2和GPT-3。ChatGPT实际是GPT-3模型的变体,拥有1750亿个参数,是迄今为止最强大的信息搜集工具。ChatGPT是人工智能技术驱动的自然语言处理工具,在互联网上搜索各种新闻、科学知识、社会思潮、宗教文本以及所有相关数据,把它们汇聚到模块里,针对用户提出的问题在三种神经网络(TensorFlow、Theano、Keras)框架中存储、评估、选用与编写信息文本。ChatGPT获取的数据来自万维网的大量材料,包括百科全书、科学论著、互联网论坛和新闻报道等信息。神经网络采用数据流图进行数值计算,在信息编选中,代码结构完全由Keras模型高效转换成计算机高级程序语言,在浏览器上快速导出文本。

2022年11月30日,OpenAI公司正式发布ChatGPT聊天机器人研制成功的消息,并上线提供给用户使用。这个最新人工智能的“天才”,不在于它的想法有多新颖,而在于它的可访问性和神速反应。它推出的当月用户就达到5700万,到2023年1月ChatGPT的月用户超过1亿,平均每天有1300万访客,路透社指出,这是历史上用户增长最快的智能媒介。

二、ChatGPT:人类的教父、智囊和助手

ChatGPT是近年来最优秀的智能技术,几个月内就积累了上亿用户,从学生、教师、记者、程序员到作家和电影导演,每个人在网上大量使用它,从这个热情、亲切的“导师”的教诲中学到了许多东西。ChatGPT的设计目的是回答询问,提供信息,解决一系列学习和写作问题。人们把ChatGPT想象为一个广泛阅读不同主题的工具,当你问ChatGPT一个问题时,它会在内存中搜索相关信息,生成相应的文本。从这个意义上说,ChatGPT就像一个知识渊博、博览群书的导师,可以同任何人对话,不受国别、语言、情感或用户个性的限制。

ChatGPT注重减少虚假、欺骗性和有害的信息,被称为“友好型智能”。为防止滥用程序的恶果,它对人类的请教大都以亲切的语言和声调来回答,用户接触的总是一个温和、谦恭和勤勉的导师。任何一个用户要使用ChatGPT,在目前必须访问OpenAI的官方网站并创建一个账户。建立账户前必须提供个人信息,如姓名和电话号码,创建账户后,就可尝试进入ChatGPT程序,目前无需支付任何费用。该网站推出使用ChatGPT程序的详细说明,并把搜索引擎上的数据及其查询方法介绍给用户。OpenAI的官方网站不过问性别和种族差异,避免对特殊访客的歧视。当用户试图寻找或查询答案时,ChatGPT会以详尽的语言把解决问题的方案显示在屏幕上。用户对回复的结果要标注满意或不满意,如果用户不满意,程序更新数据后再回应用户。需要指出的是,输入系统的信息大都是近几年的,用户得到的回复很多不是最新的,这一点远不如Google。如果有人要求用计算机语言创建代码,ChatGPT比Google更容易完成。目前ChatGPT的严重缺陷是,它提供的信息并非100%准确,搜索功能较低,程序开发人员正在努力改善这两项功能。经过两个月的努力探索,2023年2月ChatGPT的搜索能力明显提高。

ChatGPT的主要好处是,用户提出查询时,立即得到详细回答,而且是唯一固定答案。用户在Google上搜索某一问题,会出现各种形式或若干不同的结果,用户依据自己的判断才能确定需要的信息。ChatGPT只给访客提供单一的信息,其用途有无数种,制作和传播信息的样式丰富多彩。2022年11月已经安装了Talk-to-ChatGPT软件,弥补了先前只有文字答案而没有话语回复这一缺陷。现在用户可以通过电脑同ChatGPT对话,当用户按一下“开始”键,发出口头询问后,这一人工智能立刻朗读答案,将文字记录转换为音频播放,还可调整声音的高低和朗读文本的速度。ChatGPT还有图像编辑器功能,能真实、动态地组接视频与影像,使广告更为逼真、生动,显著增加了OpenAI的广告收入。如果把Google的浏览器插件Chrome同ChatGPT混合使用,这两种技术的合力则能创造更为令人惊叹的效果。用户要求ChatGPT以不同风格向他们解释概念、定义和理论,它就会适应你的要求,做出解释,表述简洁的推理和结论。现在,ChatGPT就像一个变形金刚式的AI模型,很难区分它提供的是事实还是虚构。“它只是根据你输入的内容来回答有关某个问题的重要内容或意义,它在回答游戏方面的表现更为出色。”

2023年2月印度智能技术通讯记者拉维·迪察·坎兹在《ChatGPT能做的25件事》的报道中,对ChatGPT的功能做了全面介绍,全方位地总结了这款智能软件的重要功能。称它就像广大用户的智囊,作为人类生存和生活的工具,是每个人须臾不可失去的助手和精神安慰器。ChatGPT能生成电子邮件模板,用其申请一份工作,协调一个项目的进展,帮助用户写邮件,都做得精通得体。ChatGPT能掀起头脑风暴,产生各种史无前例的创意,当用户在复杂问题面前没有了主意,想象力受到限制,都可以向它请教。ChatGPT可以对你提到的任何话题进行深挖,只要你提问,它就会继续回答,对每个问题都能告诉你是对还是错。ChatGPT喜欢谈论用户最感兴趣的话题,可以诉说电影、日常爱好、科学常识和深奥的知识,只要用户给出明确的提示,它就会同你讨论,甚至用几秒钟为你写出一篇你需要的文章。ChatGPT最擅长娱乐,爱说笑话,能玩很多游戏,大多是益智游戏、猜谜和填字,被称为伟大的喜剧演员。

ChatGPT虽然擅长英语,但也可以对其他语言进行翻译,并创建多种语言文本,翻译的结果来自神经网络YNMT。使用ChatGPT向用户推荐电影和书籍,让用户观看电影和连续剧,倾听各种饶有兴趣的故事和音乐,或者为你创作一首诗歌和歌曲,都是它的拿手好戏。此外,在ChatGPT的镜像里旅游、跟着视频锻炼身体或学习一门外语,都能使用户心满意足。在ChatGPT里还有一个Vana Portrait的像素画廊,用它能制作、编辑和展示肖像、油画和漫画,该应用程序作为一个完整的照片编辑器,具有自拍和连缀视频的功能,可以创作任何美术作品。用户常常光顾ChatGPT,不仅能很快提高美学修养,而且对人世的善恶美丑和大自然的秀美产生明晰、深刻的印象。

三、ChatGPT对新闻业的助益与讳忌

仅在三个月内,围绕ChatGPT不可思议的功能在西方新闻界激起浪花。有人赞成使用这款人工智能报道新闻,有人持反对态度,认为这个软件对新闻业具有巨大的风险,不可轻信和盲目地使用。自2015年起,美联社一直在使用人工智能撰写企业盈利报告,因为此类报告往往过于公式化,从文字到文本结构简明扼要,不需要人工输入。美国POLITICO.COM网站专栏作家杰克·谢弗对人工智能改善新闻工作抱有相对乐观的态度,但也有几分忧虑。他写道:“新闻的存在是为了服务读者。如果人工智能帮助新闻编辑室更好地服务读者,应该欢迎它的到来。然而,如果这项技术确实会导致广泛的记者失业,这将是令人困惑的。”美国在线杂志Gawker的前编辑马克斯·里德在他的通讯中写道:“你听到的任何关于使用人工智能的故事,在根本上都是关于劳动自动化的技巧,无论它是否能帮助记者以更少的工作量完成更多的工作,完全是取代人类的一种工具。”尽管ChatGPT目前有很多缺陷,它仍是新闻报道的有益帮手。

英国新闻网站编辑马塞拉·库佐娃在《ChatGPT可以为记者完成八项任务》一文中认为,人工智能不能取代记者,但它可以消除一些日常的繁琐工作,你可以专注于你最擅长的事情,去寻找真正的新闻。谈到新闻编辑室中的人工智能时,记者们通常分为两派,一种是对人工智能过于自信,另一种是忽视它的作用,根本不去碰它。ChatGPT经过验证可以对用户的询问产生类似人的反应,往往能写出头条新闻。只要你清楚它能做什么和不能做什么,它就可以帮助你完成一些琐碎的任务,记者就可专注于观众最关心的事件。记者在使用ChatGPT时,请记住它是智能的,而不是万能的。这台没有意图的机器,不想误导你,也没有什么真实的概念和道德素养,它只是根据大量搜索的信息生成文本。正因为如此,你需要对所有生成的内容进行事实核查,超出你验证的部分,可由记者本人根据事实加以更正。如果没有真实的信息,它可能会编造一个事实,因此,对数字、名称和地点这类重要信息尤其需要核实,以保证这类内容确实客观存在。

ChatGPT可以帮助记者做一些必须做的工作,这些任务是新闻机构大多数记者每天都要经手去完成的,而且是不可拖拉延误和玩忽职守的任务。马塞拉·库佐娃在文章中一共提出八项任务,其中最重要的是以下四项:(1)生成文本和文档的摘要。ChatGPT在总结长篇新闻方面相当出色。当你需要快速浏览、研究新闻文本时,它就派上用场了。你可以让它给你提供内容梗概和其中的重要观点,引用或查找相关的信息。(2)生成评论的观点和答案。当你提出一个不太熟悉的话题或寻找新的角度时,ChatGPT可帮助你对事件和任何事情进行分析,通常会给出合理的建议。遗憾的是,当它不知道答案时,它会编造一些东西,可能生成完全虚构的事实并予以评论。(3)生成新闻标题。它不仅可以根据记者提供的线索,或者无须线索就能对当日或某一天发生的事件进行描述,并提出一个简单的题目。记者要求它把标题改得活泼有趣、消极或积极一些,ChatGPT就会推出一个新的标题。(4)为新闻提供上下文。同上面所有的任务一样,这个任务可能是随机的。记者让ChatGPT提供新闻事件的背景或发生在其他国家与城市的类似事件,比如,为什么英国铁路工人今年罢工,它可以找到相似的同类信息,形成一个版面的组合报道。聊天机器人对提问的反应非常灵活——立即给出听起来似乎合理的答案,做出很专业的解释,并能写出风格华丽的长篇文章。尽管ChatGPT的能力看似不可思议,但它的机制和原理却相对简单,它使用一切在线的全球的文本语料库吸取概念和知识,选择和确定用户需要的答案。事实上,ChatGPT找到“真相”比拥有足够的数据和算法要复杂得多,它不太可能接近人类的能力,该领域的西方权威学者将其描述为一只鹦鹉,对提示的反应类似于“模仿”或“美化的剪切粘贴”。ChatGPT确实可以成为新闻工作转变方式的一部分,但用它来代替记者的全部工作,却是不明智的——等于用不可靠的垃圾充斥互联网,这是对这一人工智能的真实评价。

美国加州大学伯克利分校信息学院数据与社会研究总监珍娜·伯雷尔深入探讨了ChatGPT的优点,以及它如何成为记者的工具。她认为,对记者来说,最重要的任务之一是为普通观众简化复杂的话题,使用ChatGPT完成某项任务变得更容易。记者可以使用这个工具在采访之前更好地整理思路,为采访做准备,列出你想问的问题,软件将根据这些问题创建更多的内容。ChatGPT可以用副本编辑器,在将文章发送给编辑之前进行最后一次审查。伯雷尔警告记者要注意ChatGPT“填补数据空白”的倾向,它永远都不会表示不知道答案;相反,如果它所掌握的数据不能提供答案,它只会编造一个答案,所以它经常产生绝对错误的结果。ChatGPT也存在复制具有偏见的问题,因为它只能复制和反哺已有的数据,收集大量信息强化这种偏见,这样,记者使用ChatGPT就可能上当。记者应当充满自信,人的发现能力永远高于机器,对此伯雷尔的观点是:“ChatGPT吸收了互联网上的一切;你从中得到的是整个互联网扭曲的反映”,“人类将继续变得更有创造力,并能够创造出真正不同寻常的表达方式”。

对于ChatGPT的程序欺骗,美国波莫纳学院经济学教授加里·史密斯在《沙龙》上发表了《GPT-3和其他大型语言模型的局限性和不受欢迎》后,收到了数十条评论,其中包括创意研究有限公司董事、总经理埃尔文·梅耶尔三世的长篇论述。梅耶尔回应说:“人工智能无法使用常识、智慧或逻辑推理来区分真假,怎么能以一种超越大多数人类的方式回答准确的提示?它对事物正在形成常识,已经领先于孩子们通常的能力,这是不小的成就。”梅耶尔提出了一项实验方式,经过改进和训练可以证明像GPT-3这样的大型语言模型可以自我检查,从某种意义上说,它们具有真正的智能,而不仅仅是在模仿他们所吸收的在线数据来编写东西。当ChatGPT拥有惊人的自我事实核查能力,使用一个简单的算法就可构建更全面的人工智能,如果它们可以做到这一点,一开始就不会制造谎言。同样,它不知道单词的意思,没有办法验证一个互联网来源是否可靠,也没有办法知道一个来源是否被证实或反驳它的主张。新闻报道关乎可信度和准确性,ChatGPT可以生成正确的事实信息,但在本质上缺乏验证的可信度。“记者在报道事件时会考虑来源、偏见和其他因素,但ChatGPT缺乏理解人类情感、文化和经验的能力,根本无法给记者提供事实产生的深度理解和背景,只是根据搜集的数据输出信息。这增加了传播虚假信息或误导性事实的风险,易于损害整个新闻业的可信度”。

显然ChatGPT尚需改进,“在收集、分析信息的准确度”没有超过记者,其“智能化、准确率不会有更大的提升” 之前,它可以虚构不存在的事实、历史名称和书籍,或者无法解决某些数学问题。英国人工智能初创公司Speechmatics副总裁威尔·威廉姆斯告诉媒体CNBC,“这些模型的开放性是一把双刃剑”。使用ChatGPT,尽管可以帮助记者在截稿之前更快地写作,在记者难以发挥创造力时激发他们的灵感,确保他们的作品具有良好的风格,但应该始终与人相互配合地使用。记者将其作为一种工具,要认识到其局限性,对稿件中每一件事都必须仔细核查其准确性和来源。为保证新闻稿件的质量,《洛杉矶时报》出版商、首席执行官罗斯·莱文森称,它不打算用人工智能取代记者,记者的人工劳动有独特的优势。彭博社的艾丽西亚·迪亚兹和杰里·史密斯强调,他们使用ChatGPT只是“作为报道内容的参考、视频创作、新闻通讯来源、赞助内容和营销活动”,不能信赖它提供的全部内容。据《华尔街日报》援引一位发言人的话称,告诉员工,使用人工智能并不是为了“减少工作场所”,而是补充人性的某些不足,在新闻编辑室“仍然专注于人工新闻”。

四、ChatGPT对人类认知和道德的潜在风险

马斯克在2022年11月评价ChatGPT是“可怕的好友”,并警告称:“我们离危险的强大人工智能不远了。”根据他的公开声明,他担心先进人工智能的潜在危险是对人类认知和道德的危害,比如人工智能可能被用来抄袭他人成果,破坏选举或开发武器。ChatGPT是“愚蠢”的,但它不完全是白痴。你需要正确地使用它,它生成的内容与客观存在的事实或知识相差无几,那是因为它已经看到了很多这样的资料,不过是在重新编写。如果它告诉你一个特定的事实,那是因为它了解了事实背后的含义,而不是因为鹦鹉学舌般地重复以前听到的话。美国波士顿萨福克大学法学教授安德鲁·帕尔曼发表了一份长达14页的模拟美国最高法院的简报,ChatGPT根据他的提示在一小时内创建了该份简报。帕尔曼表示,对此他的印象极为深刻,但它复制的简报“不完美,有的地方也有问题”。美国法律界一致认为,让机器创建重要文件存在法律风险。

首先,聊天机器人存在侵犯知识产权、制造诽谤性内容和违反数据保护法的行为,因为使用他人的受版权保护的作品进行数据收集和选择,需要事先获得授权,除非该作品已超过版权保护期或因其他原因进入公共领域,否则就是违法。在许多行业中,一些基础工作被ChatGPT取代,借助ChatGPT开展业务活动,不经授权使用企业和商业秘密,被执法部门认定为是不正当竞争行为,可能会承担民事责任。如果您欺诈地使用ChatGPT获取运营实体的名称来骗取他人财产,就构成了犯罪。在收集个人信息时,必须征得被收集人的知情和同意,但ChatGPT完全非法收集个人数据,侵犯了公民的权益和社会道德。

ChatGPT还会引发人们对剽窃的极大担忧,在考试和写作方面弄虚作假,骗取把关人的评价和结论。美国公立学校已经禁止在其服务器上使用ChatGPT,以防止其被用于应付考试。美国沃顿商学院MBA教授克里斯蒂安·特威斯奇对ChatGPT目前的成熟程度发出警告:“为什么学校封锁了它?”“有史以来它是最伟大的作弊工具,因为学生们使用它来完成家庭作业和撰写论文。”美联社转达一位校长对学生的喊话说:“不要使用ChatGPT或任何其他自动写作工具来撰写学校论文。这是作弊行为,我们不会容忍。如果你被发现使用ChatGPT或任何其他自动化写作工具来编写论文,将产生严重后果。”一项研究显示,多达90%的学生知道该软件,89%的学生使用该平台完成作业,目前尚不清楚该工具在多大程度上为学生们服务。

当人们尝试让ChatGPT写一个故事,它就在网络上广泛收集类似的资料和情节,其中包括暴力、杀人和装神弄鬼的恐怖细节。ChatGPT在编造故事时,完全是对写作的嘲弄,甚至是对人们灵魂的攻击。这一“魔杖”严重败坏了社会道德,侵蚀了人类的精神纯洁。ChatGPT所能做的就是为故事创造一个特定的情节,提交的往往是不可读和不合语法的东西。有人使用ChatGPT之后,发现人工智能没有给他们想要的东西,人工智能不可能有创造力。在这里,ChatGPT使用计算原则和方法就是输入和输出垃圾,完全是一种负算力的运用。比如让ChatGPT给人看病,当病人把身体某个部位的疼痛告诉它,它就在网络上搜索医生们发上去的诊断和治疗方案,同这种疼痛表征的数据相对照,最终依据症状相同的数据作出诊断结论。但每个患者在生理上千差万别,造成疾病的病因完全不同,ChatGPT无法依据不同的个案作出正确的诊断。它的治病特长,只是把网络上搜索到的某些症状和药方整合后提出来,完全是一种猜测性的医疗方案。

这种负算力更多表现为淫秽情节的视频。通过特定的算法在互联网上不断回答对这类主题的关注,广泛搜罗这方面的数据让美国人感到羞耻。在美国,网上淫秽材料的增长就像一种快速转移的癌症,ChatGPT似乎是这种癌症的培养基。根据美国色情危害联盟编制的数据,早在2012年美国就有420万个色情网站、3.72亿个色情网页和25亿封每日色情电子邮件。据估计,“色情收入超过了所有职业,超过了足球、棒球和篮球特许经营权的总收入”,从那时起,色情制品的增长速度已经加快。ChatGPT上色情制品的危害层出不穷,散布“色情制品”“新麻醉剂”“色情故事”“红灯区的幸遇”和“奸淫案件”等,每天都推出大量文本与视频,让许多道德低下的人着迷。尽管这款智能产品也安装了控制毒害人类灵魂的软件,但从奥巴马时期起,成人色情行业在互联网、电影业和印刷出版物方面获得了实质上的自由,ChatGPT很难防止把这类内容编辑在程序里。拍摄以兽交和猥亵性行为为主题的电影,在邮件中发送淫秽DVD色情,对儿童性虐待的描述,都成为ChatGPT经常出现的内容。正如美国色情危害联盟的盟友所说,“几年来,司法部主要针对贩卖最极端的色情内容的小型企业,而不是针对色情内容的大规模分销商执行联邦反淫秽法律。因此,非法淫秽色情的内容充斥着我们的国家,危害巨大” 。

用户从ChatGPT文本中提取需要的资料,利用ChatGPT查找特定的信息,大量文字与信息是消极的——其中包括大量的负面信息,比如骂人的话,不适合浏览的充斥恶意动机的信息。在互联网上可以看到许多消沉和不满情绪,除非将其置于更大的背景中,否则ChatGPT将无从得知其意图,简单地复制这类内容等于肆意地扩散精神病毒。OpenAI公司有责任确保ChatGPT的“邪恶”不会被用来获取不道德的利益,应当不断改进智能版本的识别能力。最新的ChatGPT版本拒绝回答任何关于制造炸弹和在考试中作弊的直接提示,证明其功能正在不断改进。但这种大型语言模型难以控制,OpenAI公司还没有提出一个全面解决危害人类的方案,但它的负算力总有一天会大大降低。