IPP评论|英国智库RUSI报告:人工智能与国家安全


近日 , 英国著名的防务智库皇家联合军种国防研究所(RUSI)发布报告 , 系统研究了人工智能对国家安全的威胁以及应用 。 报告指出 , 在科技日新月异的今天 , 数据治理和监管是一个热点话题 。 随着数据量不断呈指数级增长 , 使用更先进的分析工具已成必要 。
但人工智能的恶意使用已经对国家安全构成了“切实威胁” , 例如使用机器学习进行网络攻击、制作恶意软件、散布谣言等非法活动 。 因此 , 安全机关迫切需要采用更先进的数据科学技术 , 以应对人工智能带来的潜在威胁 。 IPP评论组织翻译了这一报告的关键部分 , 供诸君参考 。

IPP评论|英国智库RUSI报告:人工智能与国家安全
本文插图

▲该报告封面
作者:
亚历山大·巴布塔(Alexander Babuta)
英国皇家联合军种国防研究所(Royal United Services Institute for Defence and Security Studies , RUSI)研究员 , 其研究方向为警务、情报学、大数据、人工智能以及机器学习 。
玛丽安·奥斯瓦尔德(Marion Oswald)
RUSI副研究员 , 其研究方向为数字技术对法律、伦理和社会的影响 。
阿迪·贾内夫(Ardi Janjeva)
RUSI政策分析师 , 其研究方向为情报学在大数据、人工智能、机器学习以及司法体系中的应用 。
一、背景
虽然人工智能可以增进现有安全机制的效率和有效性 , 但同时也会带来新的问题 , 这些问题需要在现有法律和监管框架内进行评估 。 最近 , 一些分析人士称 , 人工智能和高级分析技术在监管方面有潜在的风险 , 可能会产生隐私或人权问题 。 科技发展带来的安全挑战是英国的高度优先事项之一 。 根据英国政府通信总部(GCHQ)的说法 , 有必要开展有关国家安全与人工智能的辩论 , 这样有利于更快地获得应对方案 , 也能给公众一个交代 。
GCHQ进一步指出 , “人工智能的应用必须符合伦理规范 , 并接受有效的监管” 。 英国军情五处总干事安德鲁·帕克(Andrew Parker)表示 , 虽然人工智能能够让我们实时地了解成千上万人的生活细节 , 但是我们仍无法通过数据了解人类的思想 。
令人担忧的是 , 许多不成熟的人工智能技术在商业界开始流行 。 英国安全机关在数据的获取和使用方面需要接受额外的审查 , 而私营部门却并非如此 。
因此 , 人工智能的国家安全应用需要比商业应用有更高程度的鲁棒性、弹性和独立性 。 此外 , 英国安全机关需要在不损害社会和伦理价值观 , 以及公众信任的前提下 , 充分利用人工智能带来的机遇 , 制定明确、科学的决策 。

IPP评论|英国智库RUSI报告:人工智能与国家安全
本文插图

人工智能现在仍没有广泛接受的定义 。 人工智能大致可分为两大类:强人工智能(General AI)和弱人工智能(Narrow AI) 。 强人工智能具备与人类同等智慧或超越人类的人工智能 , 能表现正常人类所具有的所有智能行为 。 弱人工智能不具备人类完整的认知能力 , 只处理特定的问题 , 例如语音识别、图像识别和翻译 。 几乎目前所有的人工智能都属于弱人工智能的范畴 。 科学界普遍认为 , 强人工智能的普及还需要几十年的时间才能实现 。
弱人工智能可以理解为“使机器能够有效地执行高度复杂任务的通用数字技术” 。 人工智能通常定义为“执行通常需要人类智能的任务” , 主要由六个关键要素组成 , 即自动推理、自然语言处理、知识表示、计算机视觉、机器人学以及机器学习 。
弱人工智能的发展与机器学习的发展息息相关 。 机器学习能通过经验自动改进计算机算法 , 其特点是使用统计算法进行建模、理解和预测 。 算法可以定义为“为解决一个特定的问题而精心设计的一组数学指令或规则” , 而机器学习是一种特殊算法 , 使用新数据可以优化计算机程序的性能标准 。 机器学习可以大致分为四种类别:监督学习、半监督学习、无监督学习和增强学习 。


推荐阅读