|求求你们别用这些技术搞黄色啦

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片

|求求你们别用这些技术搞黄色啦

文章图片


随着 AI 技术的发展 , 无中生有这件事对于大家来说 , 已经越来越容易了 。简单一点的 , 就像很多人手机里都有的 AI 美颜一样 。通过人脸检测 , 自动识别脸部特征点 , 然后通过 AI 化妆、添加滤镜 , 达到锦上添花的效果 。机哥相信这些玩法 , 大家都已经非常熟悉 。但是嚯 , AI 能做的其实远远不止这些 。划重点 ,它还能够通过算法自动更换画面里的元素。什么意思呢?其实这事说起来并不难理解 , 就是类似大家耳熟能详的抠图技术 。只不过在 AI 的加持之下 , 这一切都可以通过程序自动完成 , 而不需要像以往一样 , 在电脑前一点一点地精细处理 。
例如大家熟悉的 AI 换脸 。机哥之前给机友们介绍过 , B 站上就有很多类似的视频 , 像是把吴彦祖的脸换到苏大强的身上 。讲真 , 的确是毫无违和 。后来的事情 , 大家也知道啦 。这项技术被不少人用在歪路子上 , 就是将别人的脸换在了xx视频上搞黄色 , 包括大家熟悉的明星 。于是各大平台便纷纷开始 , 扼制这种滥用 AI 进行非自愿换脸的行为 。不过万万没想到…最近类似的 AI 搞黄色软件卷土重来 。机哥今天想说的是 , 就是另外一款通过AI 技术 , 实现 一键脱掉衣服 效果的软件 。机友们可能对这个 AI 程序不太了解 , 机哥抱着普及知识的心态 , 先简单给大家介绍一下 。这个程序基于加州大学伯克利分校研究者开发的开源算法 pix2pix 创建 , 使用 1 万张xx图片加以训练 。只要上传特定的照片 , 程序就能借助神经网络技术 , 分辨出照片的特征点 。然后 , 这个程序可以将衣服覆盖的身体部位 , 自动替换成毫无遮掩的效果 , 一张足以骗过大多数人的私密照就此诞生 。有勇敢的国外用户 , 使用自己的照片对这个程序进行了测试 。这个小姐姐上传了一张自己身穿泳衣的照片 。 虽然照片里的她露出了自己的身材 , 但相对来说还是比较健康的穿着 。但经过程序这么一处理 , 不仅小姐姐照片上的衣服不见了 , 程序还给她换上原本不属于她的身体部位 。从细节上看 , 处理效果非常逼真 。 比起以往移花接木的 Photoshop 假照片 , 简直是能够以假乱真 。虽然这个程序只有在照片里的人物穿着比较清凉的时候 , 才能达到这种效果 ,但 情况还是一下子 就变得一发不 可收拾。为啥呢?包括明星在内的很多用户 , 都曾经在社交平台上分享过相同类型的照片 , 甚至有一部分已经被有心人士做成xx图片 , 在互联网上开始流传 。即便这些照片是假的 , 但还是一定程度上对她们造成巨大的影响 。于是 , 在 察觉到 被滥用之后, 开发者很快就宣布关闭这个网站及程序 。
(开发者在社交媒体宣布关停)但是别忘了 , 互联网并没有秘密 。由于这个程序的开发者曾 经将代码 , 上传到开源网站 , 所以犯罪分子很快就将这个程序作为他们的作案工具 。有技术研究人员通过调查表示 , 这个程序现在已经被内置在国外 某个App 上。
(媒体揭露这个 App 当中的程序运作)按照技术人员的说法 , 在这个 App 当中 , 只要加入特定的群组 , 就能进行一键脱衣 。目前 , 已经有超过 68 万名女性用户的照片 , 被上传到这个 App 上 , 并且在未经其知情或同意的情况下 , 变成那种模拟*体照片 。而这些照片 , 还在某些群组当中流传 。为了一探究竟 , 机哥下载了这个 App , 为大家亲身体验下这个卷土重来的功能 。费了一番功夫 , 机哥终于加进去几个类似群组 。
在这个群组当中 , 几乎所有的消息都是:使用这个程序制造出来的假照片 。

仔细看还能发现 , 几乎每一张照片 , 都吸引了几千人的观看 。


机哥瞄了一眼 , 这些示范的照片除了专业的模特泳装照片之外 , 还有从别人社交网络上抓取的自拍照 。试想一下 , 如果碰巧在这里看到熟人的*体照 , 虽然是 AI 制造出来的假照片 , 那也是相当尴尬 。

那么 , 这些假*体照是怎么制作出来的呢?
这些照片的下方 , 有链接能直接跳转到某个小程序 。在这里 , 开发者甚至还会亲切地帮用户指引 , 告诉用户哪些照片才能获得更好的 AI 脱衣效果 。
按照系统的指示 , 只要发送合格的照片 , 就能获得相应的假*体照 。于是机哥抱着帮大家揭开这个程序真面目的心情尝试了一下 , 发现……这居然还是收费的 。根据成片的规格 , 还有不一样的收费 , 从人民币 4 元到 100 元不等 。而付款之后 , 用户就将在对话框中收到这张假*体照 。
机哥体验了几个群组下来 , 大概都是这样的操作 。有的开发者还会设置关键字 , 确定你的年龄是否达到可以浏览的程度 , 还挺贴心 。不过讽刺的是 , 根据技术研 究人员的调查报告显示 , 这里面的部分受害者 , 本身就是未成年人 。按照调查人员的说法 , 甚至有部分群组 靠“未成年人”的噱头 , 获得不少收入 。

这并不是这个 AI 程序第一次被用到犯罪活动中 。在另外一个国外的社交平台上 , 这个脱衣程序也同样泛滥 。 机哥随手一搜 , 就发现大量类似的内容 。看看这个文案 , 写得更加露骨 。
在这些广告里 , 他们还直接引导用户发送朋友或同学的照片 。可以说是非常过分啦 。
(忽略渣渣翻译)
老规矩 , 机哥尝试了一下 。这些社交平台上的一键脱衣程序 , 跟上面那些群组一样 , 都是通过这种方式获得非法收入的 。
其实 , 更早之前的社交软件当中 , 就出现过类似的诈骗行为 。以往 , 犯罪分子会诱导用户发送自己的真 *体照, 从而进行勒索;但通过这个程序 , 犯罪分子只需要得到一张日常的照片 , 就能开始犯罪行为 。不仅如此 , 犯罪分子还能通过木马获取用户的通讯录 , 并且会用这些假照片 , 对通讯录当中的亲友进行勒索 。这么一来 , 身边毫不知情的人就会出于阻止*体照传播的目的 , 想犯罪分子支付所谓的“赎金” 。不得不说 , 就这样一个 AI 程序 , 可谓是闹得人心惶惶 。甚至有一些女性用户已经开始 , 有意减少在社交平台上发照片的频率 。就连前不久印度的互联网站上网友发起的“纱丽挑战” , 都被媒体警告可能会有风险 。
(女士们小心 , 你的“纱丽挑战”图片可能变成*照)
按照媒体的说法 , 这些女孩是身上的 纱丽 在 , 在 一键脱衣程序面前 , 简直不值一提 。
而且 , 这个挑战活动还涉及个人隐私泄露 。一旦在挑战中艾 特自己的好友 , 那么就相当于为犯罪分子提供勒索对象 。潘多拉魔盒被打开 , 那就不是那么容易就可以关上的 。特别是各种各样的 AI 技术 , 被滥用的后果 , 简直是细思恐极 。当然 , 各种从 AI 技术衍生出来的犯罪行为 , 该打击还是得打击 。但更重要的是 , 如何从根本上解决这个问题 。面对这个一键脱衣程序 , 目 前还没有一个完美的方法 , 大概只能寄希望于其他开发者 , 能开发出一套让照片无法被 AI 识别的方法啦 。机哥还是那句老话:求求你们别再用这些 AI 技术搞黄色了啊……(图片来源自网络)

【|求求你们别用这些技术搞黄色啦】别滥用技术啊


    推荐阅读