训练生成式人工智能在军事应用中的风险分析

导读:今年以来,随着ChatGPT和其他工具的出现,生成式人工智能技术已经获得了近似病毒式的狂热传播 。军事机构既希望获得大型语言模型等生成式人工智能能力 , 同时也对该项技术的获得采取谨慎态度 。以下是对训练生成式人工智能在军事应用中的风险分析 。

训练生成式人工智能在军事应用中的风险分析

文章插图
生成式人工智能需要大量的数据来进行训练和生成结果 。利用该技术需要积极收集和处理国防领域相关的数据 , 以提供给生成式人工智能系统进行训练和应用 。在收集和输入的过程中 , 存在数据泄露和数据真实性两大关键风险 。
安全隐患和隐私泄露
在军事机密网络信息安全方面,生成式人工智能有能力生成模拟的攻击模型和攻击策略 。ChatGPT可用于对特定的目标生成网络攻击代码,包括关键的国家基础设施、军事设施和政府机构 。也可以解密通信、情报数据、讲话和图像,增强攻击者的能力并危及通信安全,同时增加情报泄露的风险 。这些能力对军事安全构成重大风险,因为它使恶意行为者能够获得攻击军事基地或关键基础设施的建议,从而对军事安全构成威胁 。
在军事人员隐私和安全方面 , 大型模型可以分析和解析个人数据和照片,以获取大量敏感信息 , 包括个人身份、位置和移动轨迹 。这些信息可被用来跟踪、追踪和监视军事人员,从而导致隐私侵犯和人身安全威胁 。此外 , 先进的生成式人工智能技术可以通过生成真实的假人和虚假信息来欺骗和提取高级军官和高级官员的敏感数据,从而带来军事安全风险 。
鉴于生成式人工智能的训练和应用可能涉及到敏感信息和技术,因此 , 国防部门可能要采取措施来确保相关的安全和隐私保护 。他们可能需要制定相关政策和规定,以确保生成式人工智能系统的使用符合法律和道德标准 。
虽然开放人工智能、谷歌、微软和其他公司制造的公共访问模型已经存在,但五角大楼敦促部队不要将政府信息输入其中 。
2023年9月29日 , 因数据安全风险,美国太空部队在编人员已暂停在政府电脑上使用ChatGPT等基于网络的生成人工智能工具,包括大型语言模型,除非得到太空部队首席技术与创新官的正式批准 。太空部队首席技术与创新官办公室已经与五角大楼其他办公室组成了一个生成式人工智能任务小组 , 考虑以“负责任和战略性”的方式使用这项技术 。预计会在后续发布关于太空部队使用生成式人工智能的更多指导 。
2023年10月30日,拜登政府发布行政令,命令制定国家安全备忘录(National Security Memorandum)以指导人工智能和安全方面的进一步行动 , 由国家安全委员会和白宫办公厅主任制定 。该文件将确保美国军事和情报界在其任务中安全、合乎道德且有效地使用人工智能,并将指导美军采取行动反击对手对人工智能的军事使用 。
数据集的真实可靠性
生成式人工智能模型可能会无意中纳入来自其训练集的错误数据 。虚假情报数据的产生和传播对军事安全构成重大威胁 。包括创建一些关于军事战略目标、部队位置和行动计划方面的虚假信息,制作一些虚假的图像、视频和文本,用于冒充和军事欺骗 。如果指挥官依赖这些基于虚假情报做出的评估和决策,就会导致错误的行动和不良后果 。因此 , 必须警惕虚假情报的存在,以保护军事行动的准确性和有效性 。
美国国防部已经明确表示不信任目前市场上的商业产品,这些产品已经暴露出问题,它们时而会产生机器“幻觉”并提供一些不准确的信息——这是一种大型语言模型本质上编造不真实信息或虚假事实的现象,这些信息或事实并非植根于实际的真实数据或事件 。
美国国防部负责关键技术的副首席技术官梅纳德·霍利迪(Maynard Holliday)表示,国防部不会在实例中部署像ChatGPT这样的商用现货技术 , 而是将基于国防部自己的数据,使用这些大型语言模型,根据国防部的数据进行定制 , 根据数据进行训练,然后根据国防部的云计算或本地计算,以获得加密效果,并从根本上分析它的反馈 , 尽可能地获取真实可掌控的数据训练的模型 。也有可能未来可能会与业界和学术界合作对相应的技术进行裁剪,以满足军事需求 。
【训练生成式人工智能在军事应用中的风险分析】技术扩散


推荐阅读