客服中心

生成式人工智能:距离军事领域全面应用有多远

汇者

· 474次阅读 · 2023-04-14
自2022年11月以来,以ChatGPT为代表的生成式人工智能引爆网络,引起了教育、新闻、娱乐和艺术等多个行业的广泛关注和热烈讨论。如今,生成式人工智能已经能够以高逼真度对人的认知、偏好、情感、行为等多维度进行相似性模拟,并且在功能层面通过与人交互产出和人类的常识、需求、价值观有较高匹配度的强人工智能制品。从AI绘画、AI聊天,到AI编程,生成式人工智能似乎离我们越来越近,影响着我们日常生活的方方面面。

与此同时,也有人提出了一个不容回避的问题:生成式人工智能距离在军事领域全面应用还有多远?

要回答这个问题,首先我们得了解支撑生成式人工智能快速兴起的三个核心要素:

一是基于海量数据的强化学习预训练。生成式人工智能之所以能够为用户带来媲美真人的交互体验,关键在于采用了基于海量数据的强化学习预训练,其中除了大规模的公开语料数据外,主要通过大量人工标注数据进行以人类主观偏好引导下的有监督学习,从而实现对人类认知机制的深度模拟。然而在军事应用层面,由于缺少现代化战争的实战经验,大量数据来源于日常训练和演习,直接影响到人工智能训练效果;此外,训练数据尚未开展人工标注工作,数据的可用性和可解读性差,难以有效支持强化学习预训练。

二是支撑人工智能大模型的开放式交互训练。ChatGPT的兴起揭开了人工智能大模型时代的序幕,当前ChatGPT拥有了多达1750亿个模型参数,谷歌最新推出“通才”大模型PaLM-E拥有世界最大规模的5620亿参数。生成式人工智能在面对复杂度高、专业性强的领域语言结构,需要通过与专业型用户的频繁交互,不断调整优化其大模型参数。然而,在军事领域想开展如此大规模的交互调参工作有巨大难度和工作量。

三是人机交互中的低互信成本限制。目前ChatGPT仍然是黑盒模型,尚不能对其内在算法逻辑进行分解,无法保证其不会产生攻击甚至伤害用户的表述,因此主要是在民用低互信成本限制领域推广使用。而人工智能军事应用最大的矛盾点就是伦理问题,由于技术复杂性和信息不透明性,使得用户无法清晰了解输入和输出之间的必然因果关联,产生的结果无法完全掌控和信任,使其在军事领域的全面深度应用举步维艰。

由此可见,不管是技术应用层面,还是道德伦理层面,生成式人工智能在军事领域的全面应用似乎还比较遥远。但是,从世界范围看,在提升战场的人机交互能力、加快信息处理速度等辅助决策上,生成式人工智能技术已经开始应用,并有较大的发挥空间和提升潜力。笔者认为,任何一项技术的推广应用一方面是技术本身的发展进步,另一方面是适应技术发展的外部环境支持,生成式人工智能在军事领域的全面应用需要在法律道德规范、数据基础储备、计算能力建设、多源交互环境等多方面发力,厚积薄发,才有望让其为人类更好地服务。
【免责声明】 自媒体用户发布在亚太财经网评论发表的所有信息、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决策投资行为并承担全部风险。任何用户私加自媒体用户发布的联系方式由此带来的损失都由用户自行承担。
登录发布

登录可以发布您的资讯
没有账号,请点击注册

Copyright 2024-2040 yzforex.com
上海炯杰信息科技有限公司 版权所有
沪ICP备18016373号-1
申请订阅
关于我们 信息合作 法律声明 加入我们 征稿启事 联系我们 风险提示