GPT-4,为什么不再开源了?

文/陈根

OpenAI自 2022 年 11 月发布ChatGPT-3以来,尽管是一个不完美的应用,但却超乎了几乎所有人对于人工智能的认知。核心就是具备了类人逻辑与语言沟通能力,能像人类一样的逻辑与人类进行交流。当然,在一些特定的专业领域,比如物理、数字、化学等领域,ChatGPT-3还存在着比较大的缺陷。不久前,OpenAI 方面发布了新一代的多模态语言大模型 GPT-4,这是OpenAI真正准备比较充分的模型,各方面的能力可以说是远超GPT-3。

但我们可以留意到,OpenAI 虽然分享了有关 GPT-4 的大量基准测试和测试结果,但OpenAI公司并未提供有关 GPT-4 的架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等技术细节。

其实自 GPT-3 开始,OpenAI 便不再公布大模型相关训练及技术细节,包括训练数据的来源,并明确表示不会开源。

不会开源其实是在意料之中的事情,一方面是基于对人工智能应用的安全层面考虑,实现闭环有助于更好的管理与防止AI朝着不可控的方向发展,尤其是开源之后可能会受到一些不必要的干扰。另外一方面是出于对技术的保护。但OpenAI不开源的态度将会给人工智能领域想推出类GPT技术产品的企业增加难度,因为没有具体技术细节可以仿照。

也正是OpenAI不开源,并且不再公布技术细节,就让我们看到诸多的大厂在推出类GPT产品时,根本无法达到GPT的这种类人逻辑能力的智能,而更多的还只是停留在过去的大数据检索层面。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
预见未来科技与商业,洞察前沿趋势新变化。

  
(0)

相关阅读

发表回复

登录后才能评论
发布