承认使用爬虫,OpenAI的数据黑箱成谜?

文/陈根

据国外科技媒体Insider最新报道,OpenAI近日承认,其推出了名为GPTBot的网络爬虫机器人,用于抓取和收集数据用于大模型训练。

网络爬虫,是一种模拟人(网络用户)的行为,自动浏览、收集网络信息的计算机程序。目前还不清楚OpenAI的爬虫机器人在网上潜伏了多久,有些人怀疑OpenAI已经秘密收集每个人的在线数据长达数月或数年。

数据来源一直以来就是OpenAI的黑箱之一,公司公开承认爬虫只是OpenAI公司被用户发现之后所承认的危机公关行为之一。可以说,OpenAI的数据不仅会使用爬虫,并且使用用户数据也是在必然之中。

而更值得关注的是OpenAI所训练出来具有一定知识正确性的ChatGPT,这背后的高质量数据来源。在数据来源层面,OpenAI从采取了黑箱操作策略开始,就没打算向外界公布真正的数据来源方式,包括对用户与各种版权方的数据使用。

而我之所以一直说我们当前的类ChatGPT企业无法训练出ChatGPT这类,在知识生成层面具有竞争力的人工智能模型,核心原因就在于我们无法知晓OpenAI的这个数据黑箱。

可以预见的是,只要用户没有发现OpenAI的数据黑箱证据,OpenAI就不会诚实,或者说不会主动采取措施。而当数据黑箱中的一些手法被用户发现之后,OpenAI就会以同样的方式对于发现的部分采取管控。

在AI时代,在大模型时代,数据决定着模型的核心竞争力,廉价、滥用用户数据已经成为了当前监管的最大挑战。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
预见未来科技与商业,洞察前沿趋势新变化。

  
(0)

相关阅读

发表回复

登录后才能评论
发布