专访欧洲工商管理学院AI专家:“AI监管将是一个不断学习的过程”

作者: 高雅
[ 最近美国参议院对AI target=_blank class=infotextkey>OpenAI首席执行官阿尔特曼(Sam Altman)的听证会就是如此 。他们知道,如果没有监管,人们将不信任技术,就有可能失去创新和进步 。监管并不反创新,监管也可以支持创新,理解这一点非常重要 。]自ChatGPT推向市场,人工智能(AI)能做什么,以及能做到什么地步,这些突破既使人们惊叹,也引发了人们的担忧 。
从对个人数据的囤积和信息泄露,到诈骗,再到损害企业竞争,这些风险的威胁让各方提高了警惕 。近一个月来,从七国集团会议领导人到科技公司首席执行官,都呼吁为人工智能(AI)技术制定国际标准和更强力的法规 。
带着这些问题,第一财经采访人员专访了欧洲工商管理学院(INSAED)的决策科学和技术管理教授埃夫根尼奥(Theos Evgeniou) 。
第一财经:为什么随着ChatGPT等生成性AI的普及,AI监管的重要性更突出了?
埃夫根尼奥:我们要意识到三点 。第一,生成性AI有多强大 。我认为几乎所有人,包括生成性AI的开发者,都没有预想到它们的能力 。
第二,生成性AI的行为方式如何 。现在有一些关于突现行为(emergent behavior)的讨论 。这种行为可能比预期更有影响 。而且,生成性AI涉及人类语言和人类身份 。而人类语言是帮助我们定义“我们是谁”和“我们做什么”的重要部分 。因此,如果技术可以模仿那些能够定义人类身份认同的东西,就带来了新潜在风险和新可能性 。
第三,像ChatGPT这样的生成性AI技术是所谓“根基模型”(foundation models) 。人们可以在这种模型的基础上开发大量产品,并能够进行微调 。换言之,它们不是单纯的产品,而是核心技术,是人们可以开发的产品之核心所在 。这种核心技术本身已经非常强大,我们甚至无法预测人们将依靠它们开发出什么 。我们也从未仔细考虑过如何管控和规范根基模型 。这是一种新概念 。
第一财经:意大利等国禁用了ChatGPT,当我们担忧AI带来的风险时,我们到底在担心什么?
埃夫根尼奥:有些国家或企业会禁用这些技术,可能是因为有潜在的风险,比如能泄露重要知识和信息,也可能因为很难控制这种AI能带来什么 。
例如,据报道,前几个月,韩国三星公司的工程师通过ChatGPT上传了代码,最后可能泄露了一些涉及公司知识产权的信息 。因此,AI的使用存在知识产权和隐私风险,这是技术开发者禁用或限制使用它的原因之一 。
另一方面,一些国家禁用它可能是因为存在政治或健康风险,这可能关乎人们的国家认同 。具体来说,这些生成性模型有点像“特洛伊木马” 。基本上,ChatGPT在某种程度上浓缩了全球互联网 。因此,如果针对一个特定的网站,禁止访问它很容易,但有了ChatGPT,你无法知道这些网站的内容是否从中暴露 。
所以,无论是开发商还是消费者,无论是企业还是国家,都有理由限制这些技术的使用 。我们面对的是一种新的传输信息的方式,当你不知道到底会发生什么,要控制它就更难了 。
第一财经:近期,我们看到了一些AI诈骗的现象,例如模拟名人或熟悉的人的声音进行电话诈骗 。我们应该如何监管这种行为?
埃夫根尼奥:首先,这些技术本身可以被应用于一些有价值的创造,改善人们的信息流 。比如,企业可以用这种技术来优化广告营销信息或开发创意内容 。在美国大选中,也可以以此来优化电子邮件活动 。
然而,一旦这种技术越界,就可能从“销售”或“营销”变成“操纵”,比如通过电子邮件进行钓鱼或传播错误信息,甚至是对未成年的人进行诱骗 。这是长期以来一直存在的东西,只是有了生成性AI后,好的和坏的方面都被放大了 。
很明显,我们需要其中一些部分进行监管 。要注意的是,我们要规范和监管的是内容审核的过程,而非内容本身 。一些国家和地区已着手制定有关内容审核的法规 。例如,欧洲提出《数字服务法》(DSA),涉及规范在线平台的内容 。在我看来,这是一个很好的法规,因为它带来了一个公平和透明的内容审核程序 。
总之,我们需要法规来规范如何公平和透明地审核内容,至于内容来自人还是来自人工智能,这在某种意义上并不重要 。
第一财经:欧盟即将对《人工智能法案》进行投票 。你认为欧盟在AI监管上最侧重什么,与美国有何不同?
埃夫根尼奥:欧美在监管上有异同之处 。从相似点来说,很多法规都是按照行业划分的 。


推荐阅读