GPT-4新增审核功能,这对AI大模型意味着什么?

文/陈根

8月15日,OpenAI在官网称,其开发了一种使用GPT-4进行内容审核的解决方案,有望减轻人工审核员的负担。

OpenAI表示,将GPT-4用于内容策略开发和内容审核决策,从而实现更一致的标记、更快的策略优化反馈循环,以及减少人工审核人员的参与。

OpenAI称,内容审核在维持数字平台的健康方面发挥着至关重要的作用。使用GPT-4的内容审核系统可以更快地迭代策略更改,将周期从几个月缩短到几个小时。GPT-4还能够解释长内容策略文档中的规则和细微差别,并立即适应策略更新,从而实现更一致的标记。

生成式AI内容的审核主要是出于两方面的考虑,一方面是审核一些敏感性内容,尤其是涉及到危害社会与公共安全方面的内容;另外一方面则是通过人工审核一些特定内容,才能对模型进行进一步的优化。

这也就让我们看到,哪怕是GPT-4阶段的技术,大语言模型依然还存在着生成式内容是否正确、是否越界的问题。

在审核能力上,OpenAI认为GPT-4的标记质量与经过轻度训练的人类审核员相似,但跟经验丰富、训练有素的人类审核员相比仍然存在差距。而对于这个问题,OpenAI强调,审核的过程不应该完全自动化。

其实简单的说,大语言模型目前还不具备人类的自主、道德的判断能力。不论是GPT-4基于人工审核,还是基于自动审核系统,目前都还无法有效解决AI幻觉的问题。如果AI幻觉这个病不能得到有效的治疗,大语言模型要成为通用AI的设想将无法实现。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
预见未来科技与商业,洞察前沿趋势新变化。

  
(0)

相关阅读

发表回复

登录后才能评论
发布