直面人工智能伦理挑战

人工智能的伦理挑战不仅体现在“技术鸿沟”中 , 也体现在更为广泛的领域 。这些挑战集中体现在四个维度
在人工智能技术与规则方面领先的国家,正处于技术优势快速积累周期,这种优势很可能成为诸如半导体领域存在的“卡脖子”工具,为人工智能后发国家的进步带来阻碍
2023年成为全球人工智能伦理治理开局之年 。各国政府及国际组织开始密集讨论人工智能的伦理问题,发布一系列声明、愿景及政策 , 试图规范人工智能的发展路径
相比于治理风险 , 美国更不愿在确保自身技术绝对领先前就严格限制该技术的发展 。因此,美国在人工智能治理上往往落后于各国进度,也滞后于技术发展
文 | 李峥 张岚舒
2023年,伴随着新一代生成式人工智能应用ChatGPT的横空出世,国际社会对于人工智能伦理挑战的讨论也日益升温 。越来越多的观察人士发现,人工智能的快速发展可能超出了人类社会的准备,并认为其带来的风险不可忽视 。伦理挑战已经成为人工智能带来的广泛争议中最为突出的话题,也将对未来人工智能与人类社会的互动过程带来深远影响 。

直面人工智能伦理挑战

文章插图
上海科技创新成果展上的机器人展品(2023 年11月29日摄) 方喆摄/本刊
四个维度看人工智能伦理挑战
与互联网的诞生类似,人工智能也将给世界带来重大变革 。这种影响通常是一柄双刃剑,新技术既改造了世界,又冲击了世界,并不是每个人都能从中均等受益 。人工智能的伦理挑战不仅体现在“技术鸿沟”中,也体现在更为广泛的领域 。这些挑战集中体现在四个维度 。
第一个维度源于人工智能的“自主性”,这意味着该技术相比其他前沿技术更容易脱离人类控制 。相关伦理挑战主要体现在人工智能是否会欺骗人类和控制人类意识,是否会消减人类的发展机会 。
相比互联网及社交媒体 , 人工智能能够更加全面地理解个体、“感知”和预测用户的所想所需 。这种能力与“深度伪造”技术相结合,将进一步加剧针对不同群体的“控制”和“欺骗” 。通过定向信息投喂,人工智能可能制造出更加严密的“信息茧房”、更加深度的“意识操控” 。2023年,英国法院判决了一起人工智能聊天机器人怂恿一名男子刺杀女王的案件,即体现出此类风险 。
以ChatGPT为代表的生成式人工智能不断迭代进步,也让商业界看到了越来越广阔的“人力替代”场景 。根据麦肯锡咨询公司的预测 , 到2030年,随着人工智能等技术的进步,多达3.75亿名劳动者可能面临再就业问题 。调研公司牛津经济也得出类似结论,到2030年 , 全球大约2000万个制造业工作岗位将消失,这些工作将转向自动化系统 , 而被迫转移的制造业劳动力即便转向服务业岗位 , 也同样面临被机器替代的局面 。在众多的岗位中 , 被人工智能技术取代风险最高的工作类型包括程序员、软件工程师、数据分析师等技术类工作,广告、内容创作、技术写作、新闻等媒体类工作,以及律师、市场分析师、教师、金融分析师、财务顾问、交易员、平面设计师、会计、客服等 。这些岗位普遍具有较高学历,人员失业意味着巨大的人力资本损失,将加剧一些国家的结构性失业难题 。
第二个维度源于人工智能的“非透明性”,这意味着该技术隐藏的风险更难以被探知,问题无法及时披露并引起社会关注 。
人工智能应用离不开算力、算法两项支撑,但这两项重要资源均不透明 。对于生成式人工智能大模型来说,每次内容生成均将调用数以亿计的参数和数据,几乎很难解释其决策过程 。过程及内容的不透明让人工智能更容易存在隐患 。大模型的设计缺失或冒进很可能造成隐私信息泄露、数据过度收集和滥用、算法不可控等问题 。生成式人工智能的输出内容有可能带有误导性 , 包含不真实也不准确的信息,误导人类决策过程 。一些犯罪者也可能采用“数据投毒”“算法投毒”的方式误导人工智能系统,引发更大范围的系统性故障 。
近年来,人工智能的军事化部署最令人担忧 。人工智能系统正在被各国加速部署在带有进攻型武器的系统之中 , 这使得“智能作战”系统决策失误从而“擦枪走火”甚至引爆、恶化战争的风险不断上升 。


推荐阅读