全球近 50 亿网民,正在成为 AI 成人内容的受害者

本文来源于微信公众号爱范儿(ID:ifanr),作者 | 张成晨,钛媒体经授权发布 。
上世纪末的作品《攻壳机动队》中,全身义体化的素子,怀疑自己是否仍然存在 。身体、记忆和其他人的关系,当这些事物都能够被复制,也就无法成为肉身生命的论据 。

全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
AI 歌手爆火之时,孙燕姿也在回应里提出类似的观点,你并不特别,你已经是可预测的,而且不幸你也是可定制的 。
我们可以加上一句,任何人都是可以被 AI 描述和生成的,哪怕你从未做过某些事情 。
鲁迅真的说过,一见短袖子,立刻想到白臂膊 。人类的想象力是共通的,毫不意外,每当技术有新进展,某个垂直赛道会被开发得越发成熟:搞黄色 。
从明星网红,到每个普通人
2017 年兴起的色情 Deepfake 有续集了 。
之前是换脸的「移花接木」,眼下是数行文字的「无中生有」 。
AI 作图发展到如今,已经有了很多分享 AI 模型的网站,你可以用来生成各种风格的图片,莫奈笔调风景画、韦斯·安德森配色产品图,当然也包括仿佛真人出镜的色情场景 。
「Create Anything(创造任何东西)」,这是其中一个网站(避免有宣传之嫌,名字就不透露了)打出的旗号 。虽然啥都能干,不少用户更愿意在「十八禁」大展拳脚 。
【全球近 50 亿网民,正在成为 AI 成人内容的受害者】
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
在文本框输入名人名字,加上「裸体」等提示词,就会得到一个模糊的图像 。接下来是另外的价钱,每月 4 美元试水基础版,或者每月 15 美元尊享专业版 。
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
付费解锁界面,NSFW 意为「工作场所不宜」,一般指色情、暴力等内容.
不仅如此,生成图片之后,提示词公开可见,让类似喜好的其他用户沿用或者迭代都很方便 。
另外,这个网站在聊天软件 Discord 有 3000 多名成员和数十个聊天室,他们讨论的都是怎么精进提示词技巧,从而更符合自己对某个部位和姿势的想象 。
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
好莱坞女星的 AI 模型,已经下载 1300 次.
网站的创始人在接受采访时说,NSFW 只占平台内容的一小部分,每月有 100 万个活跃的创作者产出独特的作品 。
在另一个类似的网站,用户可以上传、共享和发现自定义模型,同样是什么风格都有,动漫风、游戏风、胶片复古风......但人性所致,带颜色的模型人气居高不下,最热门的几个已经被下载六七万次 。
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
一个「擦边球」模型.
色情固然是互联网的一部分,然而问题在于,训练这些模型的真实人物图片,是在互联网擅自抓取的,并没有经过本人的同意 。
有些图片也不是完全露骨,而是让名人穿着内衣,或者某个部位看起来更大,但五十步笑百步的做法,仍然是不道德的 。
这时候就需要稍微解释下原理 。很多个性化的 AI 模型,都是基于开源的 Stable Diffusion 微调,而 LoRA 又是一种主流的模型微调训练方法,因为它相对轻量化,用少量图片训练,便能生成特定的人物、物体或画风 。
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
之前很火的赛博 COSER 用的也是 LoRA. 图片来自:@勘云工造
那么对于色图,谁成为了微调数据集呢?
独立媒体公司 404 Media 调查发现,其中一个模型的训练数据,来自「美版贴吧」Reddit 的几个成人主题社区 。
愿意上传图片,不代表愿意充当 AI 的口粮 。一位负责管理社区的 Reddit 用户怀疑,大多数在 Reddit 发布裸照的人,可能并不知道照片正在被用来喂养 AI 模型 。
倒也不是发出裸照才有威胁 。7 月初,德国电信发了一条关于儿童数据安全的广告,展现个人数据被拿去使用是多么容易,后果又是多么严重,呼吁家长尽量少在互联网分享儿童隐私 。
全球近 50 亿网民,正在成为 AI 成人内容的受害者

文章插图
德国电信广告部分截图,儿童照片可能会被用于制造成人内容.
这也意味着,威胁不仅在明星和网红头上盘旋,也可能击中在互联网路过的普通人,恐怕离人人都有一个 AI 模型的未来也不远了,只要你我在互联网上有过数字痕迹 。


推荐阅读