ChatGPT让人人都能创造自己的元宇宙,也能制造各种偏见( 二 )


ChatGPT让人人都能创造自己的元宇宙,也能制造各种偏见

文章插图
Midjourney创建的插图,提示为“拥有电光眼睛和深沉凝视的美丽金发女人的4k高清肖像” 。然而,要将Elspeth制作成一个移动流畅且符合物理规律的完整3D人物,还需要一些仍在开发中的工具 。英伟达和谷歌等公司已经发布了从文本创作3D建模的人工智能模型,但这些模型仍处于早期阶段,没有完全准备好公开 。例如,英伟达的研究人员在2022年11月发布了Magic3D,可以根据“一只蓝色毒箭蛙坐在睡莲上”等提示创建3D模型 。但这一过程仍然需要40分钟,而且有关青蛙本身的数据量十分有限 。
目前,英伟达正在其3D模拟引擎Omniverse中训练人工智能,这样它们就能快速学习如何给东西贴标签和建造,如何在空间中移动,以及如何回应用户的查询 。
当被问及普通用户还需要多久才能建造自己想象的虚构小屋时,埃卢尔说人工智能的进步不是线性的,有间歇和爆发,很难预测 。他还说:“我们正在挑战这方面的极限,而且发展得非常快 。我敢说,十年后,大多数人将能够通过与计算机对话来创建高质量的3D内容 。”
人工智能释放的危险信号
人工智能的快速发展有很多好处,但也有很多可怕的方面,包括在沉浸式空间中的伦理问题 。用户将会不知道自己是在和一个真人还是一台机器说话 。人们将更容易被欺骗,接受人工智能的不良建议,或者对它们产生情感依赖 。埃卢尔承认,这一领域存在严重的风险,需要谨慎对待 。
“更加可信的虚假信息的散布可能会达到一个全新的水平 。”埃卢尔说,“用户可以随时创建新的身份、角色,这可能是滥用人工智能开始的地方 。”
当直接向ChatGPT询问其类人能力的危险时,ChatGPT回答说:“重要的是要记住,我们不是人类,我们不应该被当作人类对待 。我们只是提供有用信息和帮助的工具,但关键决策或复杂任务不应依赖我们 。”
人工智能基于它们训练过的数据怀有各种偏见,并产生了大量有害内容,包括错误信息和仇恨言论 。《时代》最近的一项调查发现,创建ChatGPT和DALL-E的OpenAI公司雇佣了每小时工资不到2美元的肯尼亚工人来审查有害内容,以训练他们的算法 。

【ChatGPT让人人都能创造自己的元宇宙,也能制造各种偏见】


推荐阅读