ChatGPT已经被用于6件可怕的事情
ChatGPT 已经引起了许多问题。
Open AI的文本生成器在创建事实精确文本(Factually accurate text)或有趣的写作方面并不完美,但它可以立即为几乎任何提示创建(Relatively appropriate text)相对合适的文本。这非常了不起。即使有一堆内置过滤器,但这也可能非常危险。
(注:精确文本指的是描述精确事物的文本,例如对于人物细节刻画描写,或者精确到年月日等;提示文本指相对模糊的文本,例如宏大场景的描述,不需要对具体细节描绘)
也许不足为奇的是,人们已经发现了该工具不太理想的用途。尽管目前没有案例可以体现这一点,但这只是时间问题。
一些调查者收集了人们已经为ChatGPT找到的六个可怕的(或至少是有问题的)用途。而且,请记住,这一切都是在ChatGPT完全成为AI的主流之前,虽然它还处于起步阶段。
1.创建恶意软件
ChatGPT 创建恶意软件确实很可怕。并不是因为恶意软件是什么新鲜事物,而是因为 ChatGPT 可以无休止地这样做。人工智能不需要睡觉。《信息安全杂志》(Infosecurity Magazine)写道:网络安全研究人员能够创建一个高度难以捉摸且难以检测的多态程序。当然我并不是网络安全专家。但基本上,专业人员可以使用该应用程序为恶意软件创建代码,然后使用该应用程序创建该代码的变体,使其难以检测或阻止。
换句话说,我们(研究人员)可以随心所欲地改变输出,让它每次都独一无二。摘自《信息安全杂志》。
2.作弊
一个可以制作关于任何内容的文本的工具......对于一个试图在学校作弊的孩子来说简直是完美的。孩子们喜欢在学校作弊。教授们已经说过他们在全国各地的学区抓到学生(已禁止该应用程序。然而,很难看到这种趋势会放缓,而且人工智能很可能会成为孩子们可以用来学习的另一种工具。
3.用它在约会应用程序上发送垃圾信息
也许垃圾信息不是一个完美的词,但人们正在使用 ChatGPT 与 Tinder (国外的一款手机交友APP)上的比赛聊天。人们让 AI 接管对话。这一点令人细思极恐,因为你不知道和你聊天的究竟是人还是AI。
4.写作
包括很多内容,例如小说。
5.网络钓鱼和诈骗
ChatGPT 或类似的 AI 编写工具非常适合网络钓鱼。例如编写钓鱼和诈骗程序,对于ChatGPT来说应该不是一件难事。
6.它可以愚弄求职者
每个人都知道申请工作的困难。这是一个看似永无止境、常常令人沮丧的过程,希望以一份好工作的回报结束。但是如果招聘者不是真正的HR呢?据报道,一家咨询公司发现应用程序由 ChatGPT 编写的文本击败了80%的人类。很容易看出 ChatGPT 如何锁定所有会吸引招聘人员眼球的关键字,或者更有可能通过 HR 软件设置的过滤器。换句话说,ChatGPT可以比一般的HR更知道求职者关注什么而且甚至比HR更专业!