人工智能的开发和传播不仅是风险 , 更是我们对自己、对我们的孩子、对我们的未来的道德义务 。我们应该在人工智能的世界中生活得更好 , 现在我们可以了 。
2、 那么为什么会出现恐慌?
当前关于人工智能的讨论充满了恐惧与偏执 , 原因是人类的竞争直觉 。但这种恐惧在大多数情况下是错误的 。我们生活在一个和平的世界 , 一切相互促进 。我们需要更积极、开明地看待人工智能 , 看到它的潜力 。
人工智能将带来深远的变化 , 改善生活、改变世界理解 。我们应警惕潜在问题 , 负责任地研究人工智能 , 确保积极影响 。人工智能能解决复杂问题 , 比如气候变化、疾病、贫困、战争、认知限制 。
关于人工智能风险与规制的讨论 , 有"浸信者"与"私酒贩" 。"浸信者"是真诚关心人工智能风险的人 , 他们可能来自学术界、科技道德领域或公众利益集团 。"私酒贩"可能从规制中获得经济利益 , 例如大型科技公司CEO或有权力、影响力的人 。他们可能将新的人工智能规制视为竞争壁垒 , 保护市场地位或阻止竞争 。
我们的目标是在开放、透明环境中 , 公正、理性评估各方论点 。我们需理解担忧、考虑提议、探索解决方案 , 而非简单贴标签 。"浸信者"的担忧不能被忽视 , 人工智能确实存在潜在风险 。"私酒贩"可能提出有价值观点 , 如利用规制促进人工智能安全、负责任使用 。
我们需要更开放、包容、理性地对话环境 , 让所有利益相关者参与决策 , 而非少数人主导 。
3、 AI风险#1:AI会毁灭我们吗?
最原始的AI末日风险便是AI决定消灭人类 。我们的文化深深根植于这种由我们创造的科技可能会崛起并摧毁我们的恐惧 。《普罗米修斯神话》、《弗兰肯斯坦》以及《终结者》等各个版本的故事都反映出这个观念 。我们应该理性分析新科技的潜在风险 , 因为虽然“火”可以被用来毁灭 , 但它也是现代文明的基础 。
我认为AI会毁灭人类的观念是一个范畴错误 。AI不是经过进化竞争的生物 , 而是由人类构建、拥有、使用和控制的数学和代码 。相信AI会发展出自我意识并试图消灭我们 , 简直就像迷信 。AI并非有生命的实体 , 它无法比烤面包机更具有生命力 。
然而 , 一些真正相信杀人AI的人 , 被称为洗礼者 , 已经获得了大量的媒体关注 。他们主张对AI施加极端的限制 , 甚至认为我们必须采取预防性立场 , 可能需要采取大量的物理暴力和死亡以防止存在性风险 。对此 , 我质疑他们的动机 , 因为他们的立场过于非科学和极端 。
具体来说 , 我认为有三件事正在发生:一些人过于夸大自己工作的重要性 , 为罪恶赚取荣誉;有的人被付钱成为末日论者 , 他们的声明应该谨慎对待;加利福尼亚有一些被教派吸引的边缘人物和一些实际的行业专家 , 他们把“AI风险”发展成一个教派 。
实际上 , 这种末日论教派并不新鲜 。西方有持久的千禧年末日论教派传统 , AI风险教派就有所有的千禧年末日论教派的特征 。这些信仰者 , 无论真诚或不真诚、理性或非理性 , 都需要得到适当的回应 , 因为他们可能会激发有害行为 。理解他们的动机和他们所在的社会环境 , 可以帮助我们找到合适的回应方式 。
4、 AI风险#2:AI会毁掉我们的社会吗?
AI风险的另一种观点提出 , AI有可能通过产生有害的输出对社会造成深远的影响 。此类观点主张AI的风险可能源于社会影响 , 而非实际的生理伤害 。AI的社会风险主要表现在“AI对齐” , 即AI应与人类价值观相对齐 , 但到底应对齐哪一种价值观 , 就是一个复杂的问题 。
此类风险的问题在社交媒体的"信任与安全"战争中已经有过体现 。社交媒体多年来一直受到来自政府、活动家等压力 , 要求审查和限制各种内容 。而类似的关注点也在AI领域出现 , 人们开始关注AI的对齐问题 。
社交媒体审查的经验告诉我们 , 一方面 , 言论自由并不是绝对的 。任何生成或促进内容的技术平台都会有某种限制 。另一方面 , 审查一旦开始 , 就可能产生滑坡效应 , 涵盖的范围会越来越广 , 这种现象在社交媒体审查中已经有过体现 。
推荐阅读
- “AI 教父”Geoffrey Hinton:AI 会欺骗人类,控制超级智能非常重要
- “深度学习之父”Geoffrey Hinton:超级智能体可能会比预想的更快到来
- 人工智能,真能产生自主意识吗?
- 电视机哪个品牌的好一点
- 内置麦克风摄像头为什么没有声音了
- 为什么黑人的比较长粗 黑人的又大又粗为什么不硬
- 网上冲浪英文过去式 网上冲浪英文
- 黑涩会鬼鬼真名 黑涩会鬼鬼
- 为什么大三的女生都很富有啊?打一生肖? 为什么大三的女生都很富有啊?
- 吴速玲|与曹格离婚半年!吴速玲火辣约会全被拍,亲揭感情状态