OpenAI悄悄删除军事禁令,ChatGPT会成为武器吗?

文/陈根

最近,在大家都在关注GPT商店的同时,OpenAI又干了件大事,他们在没有没有任何公告的情况下,悄悄地删除了ChatGPT用于军事和战争的禁令。

要知道,从ChatGPT诞生以来,在ChatGPT的“使用政策”页面就一直有这样一条规则,那就是“禁止可能导致严重身体伤害的活动”,具体包括“武器开发”和“军事及战争活动”。

但是,从1月10号之后,这条使用政策虽然依然坚持“禁止伤害自己或他人”,但已经不再禁止被用于“军事和战争”。

尽管OpenAI官方说是这次修改是为了使文件“更清晰”、“更易读”,并包含了许多其他重大的语言和格式变化,但其实我们从前后修改的变化,也能够看出到底发生了什么改变。

如果说在之前,ChatGPT是被明确规定禁止武器开发、军事和战争,那么修改后,使用ChatGPT更强调的就是灵活性和遵守法律

ChatGPT真的会被用于军事战争吗?可以明确地回答,一定会。事实上,人工智能在军事领域的应用并不少,我们今天说智能化,自然也包括了军事领域的智能化,包括各种各样的智能武器的出现。比如,在侦察感知领域,一些国家军队的超视距雷达,就是使用AI对各种类型的空中目标进行快速标记和个体识别,目前已经实现了对无人机等小型目标的自动探测与识别。

从ChatGPT的应用角度来看,虽然目前OpenAI提供的任何产品都无法用于直接作战,显然,ChatGPT无法操纵无人机或发射导弹,但是,像ChatGPT这样拥有类人语言能力的大模型却可以增强许多与杀戮相关的任务,成为军事中优秀的参谋和助手。

比如,基于ChatGPT技术的情报整编系统可针对互联网上的海量信息,作为虚拟助手帮助分析人员开展数据分析,以提高情报分析效能,挖掘潜在的高价值情报。在战场中,基于ChatGPT技术的情报整编系统可将大量战场情报自动整合为战场态势综合报告,以减轻情报人员工作负担,提高作战人员在快节奏战场中的情报分析和方案筹划能力。

ChatGPT还可用于实施认知对抗。信息化智能化时代,各国数字化程度普遍较高,这意味着民众之间的信息交流、观点传播、情绪感染的速度更快,也就意味着开展认知攻防的空间更大。ChatGPT强大的自然语言处理能力,可以用来快速分析舆情,提取有价值信息,或制造虚假言论,干扰民众情绪;还可通过运用微妙而复杂的认知攻防战术,诱导、欺骗乃至操纵目标国民众认知。

事实上,在自然语言处理技术领域,早在2020年,美国兰德公司空军项目组发布的一份报告就明确指出,自然语言处理在“联合全域指挥控制”中有明确的应用——可用于从语音和文本中提取情报,并将相关信息发送给分队指挥官乃至单兵,以提醒他们潜在的冲突或机会。

从OpenAI使用政策的修改,我们也可以明确看到一件事,那就是随着这种自动化文本生成技术的迅猛发展,它已经越来越成为一项实用的工具,并且正在步入一个必然的新阶段——武器。那么,当ChatGPT成为一种武器后,又会给我们的生活带来什么变化?

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
预见未来科技与商业,洞察前沿趋势新变化。

  
(0)

相关阅读

发表回复

登录后才能评论
发布