清华教授沈向洋:创新就要做到极致,用开源的方式培养未来工程师( 五 )


第二个阶段 , 技术已经能够让你成长 , 但就出现了新的伦理问题 。 以尤瓦尔的《未来简史》为例 , 它提到医疗在发展过程中 , 需要把更多的个人隐私贡献给机器 。 里面的一个人物茱莉做了乳腺手术 , 因为他们在观察过她的基因后 , 认为她患癌症的概率比别人大好几倍 。 这个在西方得到一片赞誉 , 都觉得她特别勇敢 。 但假设茱莉不擅长做决定 , 那机器能否再做一步 , 询问她是否把决定权交给它 , 那就是机器帮你做决定了 。 人会变得更健康 , 但人的自由、自主性就开始下降了 。
今天我们都在用百度地图 , 大家在开车的时候已经低开高走了 。 因为在用地图时 , 我们已经开始无脑使用 , 机器告诉你走哪里 , 你就走哪里 , 它的全局数据比你的准 , 你算不过它 。 这时候机器开始进行全局统筹 , 与人做沟通 , 不给你全部信息 , 只给你局部信息 , 告诉一半人这条路不堵 , 告诉另外一半人 , 那条路不堵 。 这个时候决策权不在我们手里 , 已经交给机器了 。 不管生命健康还是交通出行 , 从恶意到善意的决策 , 人类一直在丧失自己做决策的能力和机会 。
以后我们的决定有50%以上由机器做 , 我们现在面临的困境是 , 该怎么去突破 , 这个事情我现在也没有答案 。 但是我是一个机器主义者 , 机器把人取代了 , 机器升级完了 , 生成人类的下一代 , 也挺好的 。 就像埃隆·马斯克讲的 , 人类是机器的Preloader , 这种解答可以让自己心安一点 , 作为一个技术人可以这么想 。 总体来讲 , 机器做决定与人做决定 , 带来了人的自由这样的矛盾 , 除去隐私、机器恶意不谈 , 这些都会带来人的意义的变化 , 这是需要思考的 。
王超:这个问题你一定要说一下 。
沈向洋:首先小川讲得非常好 , 做决策的伦理是非常重要的一点 。 不要讲AI伦理了 , 比如说核武器 , 毫无疑问 , 今天有核武器 , 但要不要扔 , 这里就有伦理的问题 。
第二 , 我前面提到了 , 可解释的人工智能有必要做 。 因为你如果不理解它 , 就很难去下判断 , 即这件事该不该做 。 在国外对AI的伦理讨论非常多 , 国内也有很多人在做 , 如果能对标国外一个机构 , 有100多家公司来参与 , 大家来讨论、正视这个问题 , 才能解决它 。
清华教授沈向洋:创新就要做到极致,用开源的方式培养未来工程师文章插图
王超:刚刚小川跟向洋讲到 , 从哲学来看 , 人还有没有独立意志、又从哪儿来 。 还有一个研究说 , 潜意识比表现出的意识要强几万倍 , 每天吸收的信息都在影响我们的潜意识 , 所以算法对于我们判断或者决策的影响会越来越大 。 小川 , 你可以就这个问题再谈两句 。
王小川:Harry提到 , 不知道机器怎么做决策 , 我稍微互动一句话 , 人也不知道自己怎么做决策 。
王超:程立有没有一些要分享的内容?针对这个问题 。
程立:小川和Harry讲的比较深 , 我回到更加实用的范围来讲 , 我拿区块链举个例子 , 区块链出来的时候可以做很多事情 , 也有很多人用区块链圈了很多钱 , 对我们蚂蚁金服来讲 , 一些事情做还是不做 , 这是非常现实的问题 。 我们当时提出蚂蚁金服做区块链的三要和三不要 , 通过这样的方式来确保在这个方面不会出问题 。 我之前在蚂蚁科技的时候也犯了很多的错误 , 错了以后就要不断的反思 , 不断的完善企业的规则体系 。
此外 , 涉及到某些基础的研究 , 要做还是不做呢?的确这里有一些基础技术 , 潘多拉的盒子到底要不要打开 , 这个可能是更深的问题 。 对企业来说 , 如果往基础技术去看的话 , 我这里姑且还没有碰到这样的问题 , 主要是在服务客户形态当中 , 怎么把这个服务规范做进去 。
沈向洋:我还是想讲 , 特别是大公司 , 还是有这样的责任 , 就是在AI伦理这件事情上 。 举个例子 , 最近的外卖到底多少分钟?技术上今天可以做 , 但是公司有这种社会责任 , 必须要去面对这样的问题 , 而且会需要做一些非常痛苦的决定 , 很有可能是对他的业务不利的决定 。


推荐阅读