黄色电影 脸被东说念主偷走,用来驳诘和抨击?AI假相片是新的霸凌妙技,但还要靠AI管理问题……

发布日期:2024-09-19 10:07    点击次数:181

黄色电影 脸被东说念主偷走,用来驳诘和抨击?AI假相片是新的霸凌妙技,但还要靠AI管理问题……

撰文 | Skin黄色电影

审校|Ziv

西班牙的米丽亚姆·阿迪布的犬子本年14岁,有一天,犬子告诉她我方被“霸凌”了,她拿入手机,向阿迪布展示了一张不属于我方,但却有我方的脸的露骨相片。

算作妇科大夫的阿迪布提到,若不是她敷裕了解犬子的体魄,果真会合计这张相片是果真。而这张以伪乱果真相片依然在当地的应对媒体群组里不断传播。

我方的脸忽然出当今其他“体魄”上,但看起来像是果真?|图源鸠合

近一个月,换取的事情也发生在英国和韩国。韩国女孩Heejin(假名)在应对媒体上发现,她竟然有一个专属于我方的“聊天室”,在内部,很多张她几年前拍的,如故学生时的相片上的脸,被放在不属于我方的假的露骨相片上。

Deepfakes是一个近些年来才出现的词,它由“深度学习(deep learning)”和“失实(fake)”两个词合成,顾名念念义,即是用AI器具来作念出的假的图像、视频或音频。在AI的匡助下,这些假相片越来越传神了!

你也许早已在应对媒体上见过许很多多的假相片,比如各式名东说念主作念着他们“其实从未作念过的事”。2017年,有东说念主想看演员尼古拉斯·凯奇主演的经典电影,便将他的脸换到各式知名电影片断中;2018年,这种换脸的门槛变得越来越低,在deepfake网站或手机APP上,你就算统统不懂AI,也能很快作念出一张失实相片。

有很多网站可以让你看到“假”相片。然则 当你上传相片想望望老去的我方时,是否阅读过此网站的阴事声明?你的脸也有可能遭到阴事走漏|FaceApp

而不需要门槛的作秀时刻很快就繁殖了一系列具有威迫性和违警的行为:假新闻、金融欺骗,以及越来越时常发生的青少年、儿童和女性碰到到的露骨相片恶性事件。

面临莫得门槛的作秀时刻,咱们需要的,可能是莫得门槛的拒抗它的时刻。鸠合上沿途传播平淡的deepfake性违警事件被揭露后,中国科学院自动化所的扣问团队VisionRush就晓喻开源他们的AI打假器具。

AI器具可以分辨的确相片和deepfake相片之间的那些幽微离别。|pixabay

而这种叛逆AI作秀的时刻,其实亦然通过AI来收场的。在前期,AI将学习各式AI生成图片的特征,也即是成为“作秀图片各人”,因此在识别阶段,就能拿着一些脱落的“放大镜”,用不同的角度来查验相片中的像素,况且凭据学到的推行,来特地索求这些相片中容易出错的“特征”,比如说纹理,光照,形势和角落的细节。

AI作秀时刻需要靠AI的分析来分辨。|Pixabay

这项时刻参与了一个月前举办的外滩大会AI更动赛·全球Deepfake攻防挑战赛。而在8月30日,这项比赛的组委会就倡议大众,可以将参赛的模子开源。而比赛中获奖的VisionRush和JTGroup便很快晓喻将我方的模子开源。

而这亦然但愿时刻东说念主员能够协力作念出愈加完善的模子,况且作念成网站、APP,让普通东说念主也能轻肤浅松地使用叛逆deepfake违警的器具。

而在另一个方面,最近互联网巨头微软的Bing也作念出了叛逆Deepfake的动作。9月初,Bing晓喻和StopNCII互助,但愿能匡助到deepfake受害者。

StopNCII粗略可以匡助到受害者。|StopNCII

StopNCII是一个匡助受害者保护我方的免费数据库。在鸠合上,淌若一张相片借用了受害者的脸,岂论它奈那边理,那张脸的“代码”王人是相似的。

当受害者发现我方的相片可能依然被走漏,以致有被作秀的风险后,他们可以给我方的脸肯求一个专有的“数字指纹”。而StopNCII和一系列其他的应对媒体平台互助,则会同步这些指纹,在平台上搜索是否有这些“指纹”。淌若有,平台上的干系影像将会被下架。

如今,依然有很多应对媒体平台和StopNCI互助,Bing是第一个和它互助的搜索引擎,除此以外还有reddit,TikTok,Instagram,Snap等。

而谷歌的搜索引擎也晓喻将会缩短搜索推行中露骨和AI合成推行的权重,明天也将帮受害者删除那些非自发的伪造推行。

从检测假相片,到删除假相片,现时也许王人有了一些管理有狡计,如今也但愿能愈加完善。而算作互联网的用户,咱们如今如故不得不从起源上保护咱们的个东说念主阴事,比如,尽量少在互联网上共享儿童和青少年影片,警惕偷拍行为,以及稽察APP对你个东说念主信息的看望权限等。

参考尊府:

[1]https://www.theguardian.com/world/article/2024/jul/09/spain-sentences-15-school-children-over-ai-generated-naked-images

[2]https://www.bbc.com/news/articles/cpdlpj9zn9go

[3]https://stopncii.org/

[4]https://blogs.microsoft.com/on-the-issues/2024/09/05/an-update-on-our-approach-to-tackling-intimate-image-abuse/

将“把科学带回家”

可以过每条兴味兴味科学推文!

原创著述版权归微信公众号“把科学带回家”统共

牛奶姐姐 足交

转载请磋磨:bd@wanwuweb.com

凡本公众号转载、援用的著述 、图片、音频、视频文献等尊府的版权归版权统共东说念主统共,因此产生干系着力,由版权统共东说念主、原始发布者和推行提供者承担,如有侵权请磋磨删除。

‍‍

▲ 爱护咱们,点亮在看,共享一下