AI 入侵前端,哪类工程师最危险?( 三 )


石川:行业标准的形成是各方利益博弈的结果,在未来的标准制定过程中,人工智能是否也会参与?
贺师俊: 目前我所参与的标准组织 T39 和 W3C 还没有看到将AI直接纳入考虑范畴,比如在制定标准时考虑使用者是人或是AI,可能需要一段时间 。在标准制定的过程中,现在的 GPT 可能会有所帮助 。比如在设计过程中需要查阅大量文档和会议记录来理解先前特性的设计原因,这需要耗费大量时间和精力 。相比之下,使用针对特定场景进行优化设计的语言模型,例如 GPT,可能会提供更好的解决方案 。
产权与安全问题仍充满争议
石川:代码著作权、安全性和产权问题也是大家比较关心的事情 。如果我们使用AI 工具来开发代码,那么它属于谁?
杨森:这里其实是两个问题,一个是数据合规 。大公司可能会遇到限制和要求,不允许将公司内部资料和代码外传 。因此,使用 ChatGPT 代码的上下文就会被作为入参传给 API,这将违反公司的基本安全要求和规定,是公司明确不能接受的 。
另一个问题是产生的代码反而引起了争议 。人工智能生成的代码和图片版权归谁?目前似乎还没有清晰的定义,但我了解到有一种思路——看人类在整个创作过程中付出的努力 。比如输入的词是自己想出来的,生成的图片著作权应归于人类 。反过来,如果输入的是简单的词汇或直接抄袭别人的,生成的图片可能会因神经网络而有所不同,但著作权就不归属于个人 。看人类参与的程度如何决定著作权问题 。
贺师俊:我感觉很难界定 。代码问题相对较小,但生成的图画涉及的著作权纠纷非常严重 。它利用现有的插画师和针对特定风格的训练模型,严重侵犯了插画师的利益 。这里的著作权问题还没有解决,更别说代码了 。前端的大部分代码都是公开的,因此我们对其并不是很关注 。在这种情况下,我们需要重视著作权和归属问题,这些问题没有确定的答案,也没有得到很好的关注 。
王安:我注意到一些情况,在美国那边已经广泛应用 AI 能力了,这造成了很多社会影响 。在那边的处理方式基本上是这样的:AI 直接生成的东西是没有版权的,但是你可以进行加工修改 。你可以使用 AI 写作,但必须说明你在文章中改动了哪些、补充了哪些内容,都必须通过修订的方式体现出来 。AI 生成的图片也没有版权,但如果你的 Prompt 很复杂,可以申请版权,只要它们具有独创性 。
贺师俊:在我国这个问题挑战非常大 。可以考虑美国是否有相关的判例,如果有,他们可能会建立新的准则 。但是它们是在 GPT 出现之前,中国也有一些先例,有些个案认为AI所做的图片受到著作权保护,尽管是AI做的,但人付出了更多的劳动 。在法律实践中这是非常困难的 。
石川: 某些平台允许开发者在使用 GPT 时进行反馈,一些则不允许 。在未来,是否应该给用户选择是否将生成的内容反馈给该平台?安全和合规问题该引起重视,又该如何解决?
杨森:如果作为一个提供融合 AI 能力产品的供应商,提供这样的选项给用户非常重要 。但如果你是一名企业内部员工使用 AI 工具,当你的代码通过公共 API 发送到连接互联网的服务端时,这理论上都违反了公司的保密协议 。
另一条思路或许能解决这个问题,那就是隐私计算 。如果大家担心将自己行业的垂直数据交给 AI 背后的公司进行训练或预测,隐私计算就可能会成为一种选择 。通过非对称加密或其他方式,确保数据被发送给 AI 公司,实际上他们并不知道具体内容 。对于隐私计算领域来说,这可能是一个新的挑战 。在传统的隐私计算中,更多是解决客户信息共享或数据要素交换的问题 。但在处理 AI 数据方面,隐私计算如何发挥作用,可能还没有完整的解决方案 。但我认为,这可能是一种可行的选择 。对大公司来说,既要顾及自身的数据、隐私和安全问题,又不得不使用公共 AI 服务,进退两难 。
AI 加剧平均化还是两极分化?
石川:技术升级让人与人之间的差距变得更明显了,前端程序员之间的技能差距会加大吗?
王安:科技的赋能会让少数掌握科技的人变得更强,其他人变得更平均 。历史上有几次大的技术升级,原本做线下销售的硬件公司比如 IBM,非常强大 。但在互联网时代,谷歌更好地利用了科技杠杆,成为更有实力的公司,服务更多的客户,挣更多的钱 。在 AI 时代也是如此,能真正掌握新技术的企业会拥有比前辈们更高市值的机会 。


推荐阅读