人工智能写文章以假乱真,意味着什么?

文/陈根

近日,OpenAI的GPT-3在外网走红。此前,GPT-3作为著名人工智能科研公司 OpenAI 开发的文字生成人工智能,5月份发表的相关论文,在当时就以天文数字级别的1,750亿参数量引发轰动。

GPT-3 的论文作者多达 31 人,来自 OpenAI、约翰霍普金斯大学的 Dario Amodei 等研究人员证明了在 GPT-3 中,对于所有任务,模型无需进行任何梯度更新或微调,而仅通过与模型的文本交互指定任务和少量示例即可获得很好的效果。

由于OpenAI 这次一反之前死守基础研究的思路,将 GPT-3 做成了一个服务,提供可以调用的 OpenAI API,并且向开放了少量体验资格,使得拿到体验资格的业界人士或学者等,开发出了一众惊人的演示。

包括答题、翻译、写文章,甚至是数学计算和编写代码。而由GPT-3所写的文章几乎达到了以假乱真的地步,在 OpenAI 的测试中,人类评估人员也很难判断出这篇新闻的真假,检测准确率仅为 12%。

GPT-3是迄今为止最强大的语言模型。它的前身是去年发布的GPT-2,GPT-2就已经能够在第一个句子的提示下,以不同的文风输出好几段符合逻辑的文本。但是GPT-3又有了巨大的飞跃。甚至有网友评价GPT-3“无所不能”。

人工智能会以GPT-3为奇点,开启一个新阶段吗?

事实上,尽管许多人都在讨论它的智能,这不足为奇。但是GPT-3类似人类的输出和惊人的通用性只是优秀技术的结果,而不是真正的聪明。AI仍然会犯一些可笑的错误,这说明它完全没有常识。而且就算它成功生成了一个作品,这个作品也缺乏深度,读起来更像是复制粘贴的,而不是原创的。

人们似乎对智能的标准很低。如果某样东西看起来很聪明,我们就很容易自欺欺人地认为它是聪明的。人工智能最厉害的伎俩就是让世界相信它是存在的。GPT-3在这方面是一个巨大的飞跃,但它仍然是人类制造出来的工具,它还有很多缺陷和局限性,而这是技术努力的方向,也是我们需要长期思考的所在。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
这个人很懒,什么都没有留下~

  
(0)

相关阅读

发表回复

登录后才能评论
发布