AI时代,面对死亡有了第二种选择?( 三 )


隐私如何保护
刘骁奔团队的“种子客户”是一位四五十岁的中年人,他被“数字永生”的理念所触动,准备为父母打造数字生命 。目前,刘骁奔他们已经对其父母开展了3个月的口述史访谈工作,未来还将一直持续下去 。“当老人知道这个东西会留给下一辈时,态度还是很积极的” 。但是从设想到现实,他们正在经历“数据隐私保护如何规范化”等各种挑战,刘骁奔希望有第三方对他们的工作进行监管 。
在于浩公司的相关业务中,伦理和法律争议同样难以避免 。于浩说,他们会尝试从两个方面规避风险:“首先生成数字人要经过本人授权,如果是逝者则需要得到直系亲属的授权;其次对相关数据进行加密保护,上传至云端,这一过程会寻求和相关政府部门合作 。”
实际上,不管是AI“复活”还是“数字永生”,依托的都不是全新的技术 。王涛长期关注AI技术的发展,他解释说,这些应用方向在2018年的时候就被“圈内人”反复提及 , 只是到了2022年,随着AI机器人成功拥有与人类全面对话的功能,这些应用方向才真正得以落地 。
他对近期AI“复活”引发争议并不感到意外,“这方面目前处于灰色地带” 。王涛说,技术的新应用一定会引发争议,争议越早出现越好,“只有这样 , 这一技术才能慢慢‘长大’ 。”
当然,所谓“长大”不能只是盲目的业务扩张,而是相关应用方向有法可依、有章可循 。
北京京师律师事务所律师王辉表示,根据2023年1月10日起施行的《互联网信息服务深度合成管理规定》,“深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意” 。因此使用深度合成服务时,需要取得被编辑个人的同意;如果被编辑人是死者,理应取得具备有义务保护死者肖像权益的亲属的同意 。
此外 , 《互联网信息服务深度合成管理规定》对“数据和技术管理”也作出了明确规范:深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定 。
王辉律师表示 , 随着AI技术的发展和应用,大量个人数据被用于训练AI模型,以提高其准确性和效能 。这些数据包括但不限于个人身份信息、位置数据、消费习惯甚至是生物识别信息 。如果这些敏感数据被不当处理,可能会导致严重的隐私泄露 , 进而损害个人权益,甚至威胁到社会的公共安全 。因此,要持续完善“数据隐私和保护”等相关法律 。
清华大学新闻学院教授、博士生导师沈阳建议:一方面开发商和使用者都应承担起责任 , 确保AI技术不会误导用户或影响人类情感;另一方面也要注意隐私保护和数据安全 。相关服务中,AI需要处理大量个人敏感数据(如面部表情、语音语调甚至生理数据),以此分析用户的情感状态 , 这些数据一旦被滥用或泄露,会对用户的隐私造成严重威胁 。
“AI+情感”可以吗
除了用户隐私如何保护,阿亮还会关注“虚拟对话”服务使用者的身心状态 。在他看来,当下被广泛讨论的技术侵权、诈骗等问题都是有解的,可以依靠法律来实现约束 。但是使用者的身心状态是难以把控和处理的 , 比如有些人因为思念逝去的亲人,会对这一功能产生沉迷 , 或者假如AI说错某句话,也可能会对使用者的心理产生影响 。
“很多时候即使你做了规避措施,比如不能聊‘自杀’,但是用户可能还是会因为AI的某句话而受到伤害 。”阿亮希望和研究机构合作,共同关注这一问题 。
魏冉是国家二级心理咨询师、中国心理学会注册心理师,在她看来,AI“复活”逝者等技术的出现,的确可以在一定程度上缓解丧亲之痛,弥补一些未了的遗憾,尤其是没有机会与逝者郑重告别的遗憾,使用得当可以帮助生者更好地接受所爱之人的离世 。
与此同时,魏冉也发现 , 相关技术有可能会成为哀伤过程的阻碍 。她进一步解释说,有关人类面对死亡时所出现的心理反应,心理学界普遍认同“哀伤五阶段”,即否认、愤怒、讨价还价、沮丧和接受 。其中的“讨价还价”阶段指的是,生者会因无法接受所爱之人的离去,而试图施加控制来改变情况 。


推荐阅读