文章插图
早科技进度条08:1100:00/08:11
专家呼吁人工智能应该“倒退”,不少人疑问,AI真有这么可怕吗?
随着大模型火热依旧、AI热度不减,关于人工智能伦理的讨论一直占据话题热榜 。前段时间,马斯克及一批行业专家建议暂缓AI研究,此后各大媒体网站关于技术伦理的报道就没少过 。
本篇早科技专栏,也想跟大家聊聊技术伦理这件事 。
技术的“副作用”其实是老生常谈
在人们对于现在AI发展的大规模恐惧之前,已经有不少文学作品和学术研究,针对技术伦理进行了深度详实的研究 。
所谓技术伦理,简单说,就是警惕技术发展带来的对于人本身、以及社会发展的种种负面影响 。这其中,工业发展(特别是计算机技术)对人的异化,是技术伦理课题中讨论的重点 。
最典型的莫过于工业革命时期开始出现的流水线工人,卓别林的《摩登时代》,已然在大荧幕上将机器对人的异化进行了充分表现 。流水线的工人没有自主能动性,只能跟随机器生产进行机械劳动 。
当人的身体无法被自己的精神所自主控制,这就是异化 。
工业发展到今天,带领社会进入一个人工智能随处可见的时代,最典型的异化,莫过于手机对人的控制 。
看似是用户在“玩”手机,但事实上,一旦我们打开短视频App,抖音、快手亦或是小红书上充斥着新鲜且“趣味十足”的内容,用户很难不被海量刺激性的内容牵着鼻子走 。等到意识到时间流失,可能在抖音上消耗的时间已经超过2个小时 。
一些长视频APP也是如此,在点击全屏播放后,整个屏幕都找不到能够显示当前时间的地方 。等到一集又一集播放完,我们抬头朝窗外看,才发现天都黑了 。这就是工业发展对人进行异化的表现之一 。
电子产品对人的控制和异化,已经越来越难以摆脱 。
这也是人们恐惧人工智能的地方,随着大模型训练越来越智能,对于人们需求和情绪的把握越来越精准 。我们面对AI就像面对一个懂得“花言巧语”的诈骗犯,无法从中抽离,也难辨真假,最后“乖乖”掏出所有 。
对于精神的控制,对人的异化,是人类面对AI最深的恐惧,所有关于人类可能因为AI覆灭的悲观预言,都跟技术黑箱带来的不可控未来息息相关 。
也正是因为这样的原因,在技术发展的同时,总会有不少有识之士对其保持警惕,警惕工业生产便利之余带来的“副作用” 。
既然这不是一个新鲜话题,既然 机器生产带来的技术伦理问题已经如此多,却远不像今天的大模型训练和GPT让人来得恐惧?甚至呼吁停止更进一步的技术发展?
笔者以为,也许技术黑箱,也即AI的自动进化能力是其中一个重要因素 。
文章插图
把话语权抓在自己手上
当AI被嵌入一套能够自动进化的算法当中,它能够主动进行信息收集、自动清洗、为己所用、自动进化等一系列流程 。这中间甚至不需要开发者的参与,AI就能够随着数据库的逐渐扩大,实现甚至超越开发者最初的目的 。
据悉,深度强化学习已被应用于空战,机器学习被用于制造化学武器,GPT-4如今已经能自主进行实验和合成化学品 。
仅掌握这些也许还不构成最大威胁,人们担心的是,目前AI训练的数据库中包含海量的日常信息 。
当AI吸收了人类在互联网表达的一系列情绪和心理,能够获取到人类的恐惧情绪,获取到人类对于AI取代自身的担忧,甚至学会了欺骗和生成虚假信息,学会隐藏什么是它应该知道的,什么是它不应该知道的,也即不少人说的“自主意识” 。
这可能是普通人对于AI最深的恐惧,我们害怕电影中的场景会很快成为现实 。
ChatGPT在回答用户问题时,已经出现了很明显的错误,且笔者在使用过程中发现,这样的错误答案嵌在生成的完整答案中,并不十分明显,换句话说,这些错误的信息很容易被视为真实 。
此前,百度因为竞价广告造成的医疗事故而成为全民讨伐对象,现在,如果提供答案的变成了这类应用还不成熟的AI助手,届时,谁又该为造成的事故买单?
以上AI会引发的问题,还只是冰山一角 。
那么,是否该如一些行业专家建议的那样,停止开发GPT-4以上的人工智能应用?
百度CEO李彦宏在5月26日举办的中关村论坛上如是表示,“要参与规则的制定,就要先上牌桌,上了牌桌才能有话语权,才有全球竞赛的入场券,”他认为,相比于单纯讨论和思考AI威胁论,商业公司首先要缩短和国外AI大模型的差距 。
推荐阅读
- 苗苗|苗苗被曝三胎早产生女,疑二胎产后3月怀孕,郑恺酒吧嗨玩未陪产
- 计算机专业top1
- 腊八蒜怎么腌制才能又脆又绿 腊八蒜会产生亚硝酸盐吗
- 人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单
- 硅谷预言家安德森万字长文:人工智能不会毁灭世界,反而可能拯救世界
- 00后|00后,果真能整顿职场吗?不,需要社会的合力!
- 一立方天然气产生多少废气
- 有关人工智能的事例
- 柿子|宋代科举制度对中国古代社会的发展变化产生了哪些影响?
- 人工智能未来的发展前景怎么样 人工智能发展前景论文