AI 正在杀死旧 Web?( 二 )


不过,一味地阻止 AI 使用的扩展,并不是解决问题的根本 。Stack Overflow 针对 AI 的使用,计划向那些在构建自己的人工智能工具时抓取其数据的公司收费 。除此之外,Stack Overflow 自身也有计划提供 AI 相关服务 。
另一个受到 AI 影响较大的平台便是问答社区 Reddit 。“Reddit 的数据很有价值,但是我们不需要将所有这些价值免费提供给世界上一些最大的公司”,当 Reddit CEO Steve Huffman 说出这句话时,便意味着该公司会有所动作了 。
令人万万没想到的是,其更新了 Reddit API 收费政策 ,想要从中获得更多收入,也为了让其数据有一定的价值体现时,却遭到了很多版主实施封锁社区版块以示抗议 。
最后,作为很多网站访问的入口,全球第一大搜索引擎 Google 掌握着现代 Web 网站的命脉 。不过,受 Bing AI 和 ChatGPT 作为替代搜索引擎的趋势推动,Google 也正在采取行动,有媒体报道称,Google 正寻求打造一款由 AI 技术驱动的全新搜索引擎,新引擎的一大特点是“能够猜到用户的需求”,该引擎将根据用户的搜索内容,学习并预测用户想要知道的事情,并且将提供预先挑选的购买物品、研究信息和其他信息的清单 。如果 Google 真的实施这一计划,那么 AI 对传统网站带来的影响将是巨大的 。
让 AI 掌舵 Web 网站,会发生什么?
毋庸置疑,AI 现在变得无处不在,倘若所有的平台,都被 AI 蚕食,又会有什么样变化?
对此,科技网站 Tom's Hardware 的主编 Avram Piltch 指出,尽管人工智能拥有重组文本的能力,但最终创建底层数据的是人——无论是采访人员拿起电话核查事实,还是在遇到电池问题时 Reddit 用户能很高兴告诉你是怎么修复它的 。
相比之下,AI 语言模型和聊天机器人产生的信息通常不一定对,更为棘手的是,当它出错时,其错误方式往往很难被发现 。因此,这需要时间和专业知识来进一步核实 。
如果机器生成的内容取代了人类的作者身份,那么在原本只有人犯错的基础上,有多了 AI 本身就会犯错,甚至一定程度上阻碍了人类专业知识的汲取能力,那么纠正我们集体错误的机会就会减少 。

AI 正在杀死旧 Web?

文章插图
与此同时,The Verge 采访人员 James Vincent 指出,人工智能对 Web 的影响并不是那么简单就可以概括的 。即使在上面引用的少数例子中,也有许多不同的机制在起作用 。
在他看来,最成功的网站往往是利用规模发挥其优势的网站,要么通过增加社会联系或产品选择,要么通过对构成互联网本身的巨大信息群进行分类,但这种规模依赖于大量人类来创造潜在价值,在大规模生产方面,人类显然无法击败人工智能 。
但这一定是一件坏事吗?
其实不然,James Vincent 认为,“有些人会说这只是世界运行的一种方式,并指出 Web 本身杀死了之前的事物,而且往往是为了变得更好 。例如,印刷版百科全书几乎已经绝迹,但我更喜欢维基百科的广度和可访问性,而不是《大英百科全书》的厚度和保证 。对于与人工智能生成的写作相关的所有问题,也有很多方法可以改进它——从改进的引文功能到更多的人工监督 。 另外,即使 Web 尽管充斥着人工智能垃圾,但它可能会被证明是有益的,能够刺激资金更充足的平台的发展 。例如,如果 Google 总是在搜索中给你提供垃圾结果,你可能会更倾向于为你信任的来源付费并直接访问它们 。”
事实上,人工智能目前造成的变化只是 Web 历史上长期斗争中的最新一个 。从本质上讲,这是一场信息之战——谁制造信息、如何访问信息以及谁获得报酬 。但仅仅因为战斗是熟悉的并不意味着它不重要,也不能保证后续的系统会比我们现在的系统更好 。新 Web 正在努力诞生,我们现在做出的决定将决定它的发展方式 。

【AI 正在杀死旧 Web?】


推荐阅读