深度学习不是AI的终极答案( 五 )


另一个关于多智能体和大型语言模型的有趣问题是,如果AI系统只是相互交流,它们是不是就不需要人类语言了?我们是否能为这些AI系统设计更有效的语言?
然而这又会引发了另一些问题,我们需要给这些代理、AI程序的交流制定规则,人类该如何管理由AI构成的人工智能社会?

深度学习不是AI的终极答案

文章插图
Siri的问答
AI无法代替人类坐牢
英国科学家迈克尔·法拉第(Michael Faraday)于1831年发明了电动机,他也没预料到会产生电椅这种刑具 。1886年获得汽车专利的卡尔·本茨(Karl Benz)肯定无法预言,他的发明在未来的一个世纪里会造成数百万人的死亡 。人工智能是一门通用技术:它的应用仅仅受限于我们的想象 。
在人工智能跨越式发展的同时,我们也需要注意人工智能可能带来的潜在风险和挑战,如数据隐私、就业岗位流失等问题 。因此,在推动人工智能技术发展的同时,我们也需要谨慎地考虑其社会和伦理影响,并采取相应的措施 。
如果我们真的能构建具有人类智力和能力的AI,那么它们是否应该被视为与人类平等的存在?它们是否应该拥有自己的权利和自由?这些问题需要我们认真思考和探讨 。
虎嗅:中文互联网有一个有趣的观点,“AI永远不可能从事会计、审计工作 。因为AI不能坐牢 。”AIGC在版权方面同样存在这样的问题,AI可以轻易抄袭人类的绘画、写作风格,同时人类利用AI进行的创作也存在权属不明的问题 。那么您对人工智能在法律、道德方面面临的风险怎么看?
迈克尔·伍尔德里奇:“AI不能坐牢”这个想法非常妙 。有些人认为AI能成为他们的“道德代理人”,对其行为负责 。然而这种想法明显曲解了人类对于“对、错”的界定 。我们不该去考虑怎么制造“有道德责任”的AI,而是应该以负责任的方式研究AI 。
AI本身无法负责,一旦AI出了问题,拥有AI、构建AI和部署AI的人就要负责 。如果他们使用的AI触犯了法律,或者他们将AI用于犯罪,那么应该被送进监狱的一定是人类 。
此外,ChatGPT在隐私保护方面需要加强监管 。如果ChatGPT收集了整个互联网的信息,那么他一定也读到了关于我们每个人的信息 。例如,我的社交媒体、我的书籍、我的论文,以及其他人在社交媒体上对我发表的评论等,甚至是已经删除了的信息 。AI可能还能根据这些信息描绘每个人的画像,从而进一步侵犯或伤害我们的隐私 。
目前有很多关于人工智能法律方面的讨论,并不只针对ChatGPT,人工智能的法律问题一直存在,且日趋重要,但目前社会各界对此还仍在讨论和摸索阶段 。
我认为ChatGPT或是其他的AI技术在未来几年中将会变得越来越普遍 。但是,我也认为我们需要谨慎地使用它,确保我们不会失去人类的关键技能,例如阅读和写作 。AI无疑可以帮助人类提高生产效率、生活质量,但它不能完全取代人类的思维和创造力 。

【深度学习不是AI的终极答案】


推荐阅读