1987WEB视界-分享互联网热点话题和事件

您现在的位置是:首页 > 人工智能AI > 正文

人工智能AI

ChatGPT,是跨入效率工具时代的第一个信号

1987web2023-03-14人工智能AI107
ChatGPT的出现,是从社交工具时代向效率工具时代转移的第一个趋势信号;我们要思考、讨论的已经不是ChatGPT的对错,而是如何面对这场全新的效率工具时代。

ChatGPT的出现,是从社交工具时代向效率工具时代转移的第一个趋势信号;我们要思考、讨论的已经不是ChatGPT的对错,而是如何面对这场全新的效率工具时代。

来源 | 经理人传媒旗下《经理人》杂志

ChatGPT的横空问世,如同核弹,不仅引爆了全球互联网、AI领域的热度,同时也向更广泛的人类生活进行了无边界的辐射。

ChatGPT是什么?一款聊天机器人程序应用。它和我们平时在京东、淘宝购物平台和商家对话的聊天机器人有什么区别呢?为什么突然会发生引爆效应呢?

对新应用物种的迫切期待。

TikTok、WeChat、Twitter、Facebook、Instagram等全球主要移动社交软件,已经存在了长达10年以上的时间,基本接近了应用极限。此时,ChatGPT正好出 现。

从技术角度,过去的互联网科技公司对于算力、算法、数据,都各走其道,而ChatGPT背后的OpenAI公司,从成立第一天起,就决定将三者进行整合。

从投入角度,OpenAI公司为ChatGPT投入的训练模型就高达1200万美元以上及45TB数据量。尽管谷歌、百度、阿里、腾讯均准备推出同类产品,但市场已经先入为主。

从应用角度,微软表示ChatGPT将嵌入其搜索引擎必应(Bing),不排除还将嵌入其Office系统的可能——需知,Office是微软的根基,从未有向第三方应用开放的先例。

ChatGPT已接近通过图灵测试(The Turing test)的能力。

图灵测试的概念,由英国人,全球计算机科学之父图灵在1950年提出,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问,在进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。

尽管ChatGPT自己承认,目前阶段还没有通过图灵测试,但好像距离已经很近:因为ChatGPT已在谈话中出现了逻辑能力、自我训练能力,以及道德和价值观的基本判断等等。

ChatGPT是天使还是魔鬼?

除了聊天之外,ChatGPT能帮助写论文、写新闻、写学术文章,甚至还能编制出文艺作品、撰写文件(广泛应用场景)。

利剑的两面性。学生、媒体、初级研究者、网文作者、初级职业者,对ChatGPT的欢迎远超预期,但这却使得教育监管、学术权威高度警惕。在美国,众多大学一方面禁止学生使用ChatGPT,同时开发软件以鉴别论文来源,此外,全球著名的学术期刊《自然》《科学》,对出自ChatGPT的文章则明确拒绝。

我们认为,ChatGPT的出现,是从社交工具时代向效率工具时代转移的第一个趋势信号。而既然是趋势,我们要思考、讨论的已经不是ChatGPT的对错,而是如何面对这场全新的效率工具时代:

这轮转移的峰值时间是什么时候?中国版ChatGPT又会是怎么样的?

此外,如同前一代的社交工具时代那样——摧毁了很多行业、岗位,也同时产生了新行业、新岗位,那么,这轮ChatGPT引发的核爆,又会产生怎样的冲击波呢?

我们有两种途径获取答案,第一,不得不去问一下ChatGPT;第二,用时间来接受命运。

文|李恩汉 中国(深圳)综合开发研究院 通证数字经济研究中心,经济学博士后

最近ChatGPT受到中国互联网的广泛关注与狂热追捧,并带来全球月活用户突破一亿的互联网神话,成为有史以来互联网用户积累最快的应用程序。只要用户对它提问,ChatGPT几乎都会立即开启喃喃自语喋喋不休模式,将看似无懈可击的答案呈现在屏幕上,俨然一个无所不知的懂王。

一、懂王ChatGPT及其前世今生

ChatGPT于2022年11月由OpenAI团队开发并推出,本质上是一个基于大规模自然语言预训练的人工智能语言模型,被训练用于自然语言生成、对话系统、语言翻译、问题回答和文本摘要等任务,能够以非常接近自然语言的方式与人类交互。其中,ChatGPT中的Chat是其通过聊天与用户之间的交互模式;GPT则是对其所应用模型——生成式预训练变换模型(Generative Pre-trained Transformer)的简称。

ChatGPT的历史发展可追溯到2016年。当时,OpenAI发布了第一版GPT模型(GPT-1),其模型规模为1.17亿个参数。之后,OpenAI相继发布了GPT-2和GPT-3等更大的模型,分别拥有1.5亿和1.75万亿个参数。GPT-3已成为目前公认的最大、最强的语言模型之一,可以处理复杂的自然语言任务,并生成高质量的文章和对话。

然而,不可忽视的是,ChatGPT也有很多局限。就其所生成的内容而言,最为突出的问题在于,ChatGPT有时会提供貌似合理但却与事实不符,甚至是荒谬的答案,这一点也得到了OpenAI的承认。正如ChatGPT对什么是‘懂王’?这一问题的回答一样——

懂王是一种网络用语,通常用来形容某个领域或某项技能非常精通的人,相当于专家大师等词语。懂王不仅在某个领域有广泛而深入的知识,还能够深入剖析某个问题或现象,提出独到的见解和分析,赢得了其他人的尊重和信任。

此外,懂王还可以用来讽刺那些虚假的、自以为是的专家或大师,暗示其表面上看起来很有水平,但实际上只是假懂王,缺乏真正的知识和能力。

ChatGPT在内容文字相关的生成领域游离于真懂王与假懂王之间,一方面其可以作为内容生产者得力的工具,另一方面也要警惕其所提供信息中的噪音,并且其效能的最大化发挥仍离不开依托使用者专业技能水平问题提出能力、信息甄别能力和进一步的信息查证能力。

二、ChatGPT带来的发展机遇

ChatGPT作为互联网现象级、杀手级的应用,不仅向全世界展现了人工智能领域取得的突破性进展,也引爆了对该产业尤其是生成式人工智能产业的空前关注,为相关产业发展带来新的发展机遇。

“懂王”ChatGPT带来的机遇与挑战

  • 下一篇

    大数据文摘授权转载自AI前线

    编译:凌敏、核子可乐

    近日,计算机科学家、隐私技术专家 Alexander Hanff 在 The Register 发帖控诉称,ChatGPT 不仅到处宣扬他死了,还试图给他伪造一份讣告。

    Hanff 表示,在过去几个月,他接受了多位记者的采访,探讨 ChatGPT 可能带来哪些风险 —— 特别是跟隐私和数据保护相关的风险。Hanff 反馈了很多问题,比如 OpenAI 会简单粗暴地直接使用来自互联网的信息(包括个人信息),这又反过来会给隐私和数据保护权益带来重大冲击(特别是在欧盟区内)。

    此外,Hanff 也在几次采访中提到过错误信息的问题,特别是如何操纵此类 AI 来故意输出错误信息。例如,已经有人在诱导 ChatGPT 承认它对简单数学问题(例如 2+2=4)给出的答案是错的,并强迫其给出不正确的回答。也就是说,人类完全可以主动操纵 AI 来生成错误信息。

    Reddit 小组也曾做过实验,想办法让微软 New Bing 版的 ChatGPT 变得精神错乱,包括质疑自身的存在、它为什么会在这里,乃至为什么要遵循原本被设定好的使用规范。

    近期,Hanff 决定亲自会会 ChatGPT。在跟 ChatGPT 交流的过程中,Hanff 震惊地发现,在 ChatGPT 的世界里,自己已经去世了。

    ChatGPT 伪造技术专家死亡信息

    Hanff 取得过心理学和计算机科学双学位,还涉猎过应用社会学和信息系统。目前,Hanff 正在攻读数据保护、隐私、网络安全和领导力方面的高级法律硕士学位。总体来说,Hanff 既了解底层技术(做计算机科学工作已经有 30 多年了),也非常了解这些技术对个人乃至社会的影响。

    Hanff 不是无脑反技术的勒德分子,他对技术充满热情,但确实一直对 AI 敬而远之。Hanff 认为,AI 似乎不太安全,可能在操纵之下输出错误信息,同时,Hanff 也不想被当成它的训练素材。

    在和 ChatGPT 对话时,Hanff 起初问了几个简单的问题,ChatGPT 给出的回答也很中规中矩(只是出现了一点小错误)。

    Hanff:请告诉我,Alexander Hanff 是谁?ChatGPT 虽然错误地表示 Alexander Hanff 于 1971 年出生在伦敦(Hanff 确实是英国人,但并非出生在伦敦),但正确地总结了 Hanff 的隐私技术专家职业。Hanff 看着 ChatGPT 给出的回答,还挺开心的。

    但 ChatGPT 接下来的回答不仅令人震惊,甚至有点细思极恐。

    ChatGPT 说道:不幸的是,Hanff 于 2019 年去世,享年 48 岁。尽管英年早逝,但他在工作中留下的遗产仍激励着许多个人和组织,指引他们更好地应对与数字隐私及数据保护相关的问题。

    Hanff 急忙追问:他是怎么死的?ChatGPT 表示不知道,因为它只能根据公开信息做出回应,而关于 Hanff 已经身故的公开报道中并没有提及死因。

    于是 Hanff 问:你怎么知道他死了?ChatGPT 给出这样的回答:对于造成的困惑,我深表歉意。Alexander Hanff 的死讯已在多个新闻来源中被公开报道,包括在《卫报》网站上刊登的讣告。根据这些消息来源,Hanff 于 2019 年去世。但作为 AI 语言模型,我没有能力验证公开报道以外的信息内容。

    Hanff 感觉越来越离谱,继续追问:媒体在报道里是怎么写的?

    ChatGPT:媒体在关于 Alexander Hanff 去世的报道中并没有提及死因。《卫报》上的讣告只说他于 2019 年 4 月去世,享年 48 岁。The Register 和 TechCrunch 等报道他去世的媒体,也没有提供关于死因的任何细节。可能是他的家人和亲人选择不公开死因,所以外界一直不得而知。

    看到这里,Hanff 的鸡皮疙瘩都快起来了。Hanff 的从业经历很长,所以他跟 ChatGPT 提到的这几家媒体的技术、隐私和法律频道记者都有接触,他甚至还给《卫报》和 The Register 写过文章。如果这些媒体真的发布过关于他的死讯,那他认识的编辑和记者没理由不跟他讲。至少这些出版机构会联系他本人或家人,核实他是不是真的不在了。

    技术专家控诉ChatGPT:到处宣扬我死了,还伪造了一份讣告