用科技解决隐私难题,一家创业公司正在批量出售 AI 合成的“色图”

价格仅一美元,但他们似乎并没有解决问题。

根据外媒 VICE 和 Dailydot 的报道,近期,国外一家叫 "These Nudes Do Not Exist" ( 以下简称 TNDNE ) 的科技创业公司想出了一个看上去颇有创意的点子——和他们的公司名一样,用 AI 技术合成出实际生活中并不存在的裸体。

这家公司的创始人认为,他们的技术不但可以满足有需求者,还可以有效解决一些人面临的侵害隐私问题,可谓两全其美。

简单来讲,TNDNE 有一个网站,用户可以在上面付费获得合成裸照。

整个过程很简单:你只需要在他们提供的网站上点击那个显眼的 "That ’ s it! Click Here to get started" 按钮,页面会跳出已经生成好的图片,此时你可以决定放弃这张图去生成其他图片,或是将这张图片放进购物车。每张图片仅售一美元。

不过目前网站可选的内容本身也非常少。尽管人物形象有明显区别,但是照片中的躯体部位基本差不多,而生成的照片,目前就是这样仪态端庄的半裸 " 证件照 "。

在选择了几张照片放进购物车后,网站会显示由于素材有限,用户不能够继续添加购物车。

在公司网站首页,有一排裸体女性的的正面照,上面也配着这行显眼的字:These Nudes Do Not Exist(这些裸体并不存在),公司创始人在接受国外媒体 VICE 采访时,要求对公众匿名,因为他和他的搭档并不想公开他们和自己的产品之间的联系。

TNDNE 声称,他们为自己的人工智能引入了 GAN(生成式对抗网络)技术,这也是网站上假裸体照的制造来源。这种技术对于普通网友而言早已不稀奇了。

2017 年引发国外网友争议的 DeepFake 事件一度让 AI 换脸进入人们视线,随后一款名叫 DeepNude 的可以一键给女性照片 " 脱衣 " 手机 APP 更是将 DAN 技术带入民间,彻底引发了社会各界对于这种技术的担忧甚至抵制。在一众反对声中,DeepNude 官方以永久下架该 APP 为回应,结束了这场猥琐的闹剧。

去年,一夜引爆国人微信朋友圈的换脸软件 ZAO,也因为可能存在的众多社会问题而迅速下架。看上去这位 TNDNE 的主意不但不新颖,而且同样存在被叫停的风险。

不过 TNDNE 并不这么想,面对可能存在的社会问题,他本人回应自己的网站和 DeepNude 有明显不同,而不同的关键点在于素材库。DeepNude 的素材来自任何人,还极有可能来自非自愿的女性。

而 TNDNE 的网站使用的素材,也就是女性的裸体照片,据他们所说," 我们非常小心的使用一些从公共领域或者是有信誉的供应商那里购买到的素材。"

当被问到如何保证素材的合法合理性时,TNDNE 声称他们会对图片进行反向图像搜索处理,然后根据图片来源是否为付费或是货币化网站、报复性色情网站、在线论坛等,如果是,那么这些图片将会被排除在外。

同时 TNDNE 也承认,他们的 AI 系统没有道德标准,只能根据网站性质来判断情况,因此很有可能会出现合成素材来自非自愿用户的问题。

但 TNDNE 对他们的公司仍然颇为乐观,他认为这些问题将来都有可能得到解决,不过怎么解决他目前也不是很清楚。尽管目前只有半裸 " 证件照 " 这一种看不出和色情有什么关系的展示模式,TNDNE 表示他们未来会拓宽领域,未来还会增加各种各样的照片甚至视频。

不过目前他们只能合成女性照片,TNDNE 说他们用户对男性裸照的需求不大。

可惜 TNDNE 的乐观并没有说服关注他的媒体,媒体记者在文章中举一反三道:如果你真想要这种照片,为什么不去花钱整个定制的呢?同时他们还给出了犀利的吐槽:这些裸照不是真实存在的,当然我也不知道你们为啥要存在。

不过媒体的关注带来了恰好相反的结果。在被报道后不久,TNDNE 的 Twitter 更新了动态,说因为闻讯前来的网友过多,导致网站出现间断性瘫痪,付款信息处理延迟等问题,为此他们还特意更换了专用服务器。

为此,TNDNE 特意转发了那篇媒体报道,并欣喜的对这家对他们评价不高的媒体表示了感谢。

" 这将是全球用户第一次有机会购买人工智能制作的色情内容 ",TNDNE 说," 投资人们一定会感兴趣!"