美少妇

自拍偷拍 斯坦福证明:AI图像生成器具使用多数儿童性荼毒图片进行西席

         发布日期:2024-10-06 04:15    点击次数:54

自拍偷拍 斯坦福证明:AI图像生成器具使用多数儿童性荼毒图片进行西席

一项最新证明浮现,热点AI图片生成器具使用了数千张儿童性荼毒图片进行西席,该证明敕令关联公司罗致步调,惩处它们莳植的时间存在的无益残障。

这些图片使AI系统更容易生成传神露骨的罪状儿童图像,况兼不错将青少年在酬酢媒体上衣着衣服的相片造成赤身相片,这引起了全国各地学校和法则部门的警惕。

奇米影视盒播放器

直到最近,反荼毒议论东谈主员还以为,一些不受逼迫的AI器具生成罪人儿童图像的惟一才略,就是把它们从成东谈主色情本色和良性的儿童相片这两组在线图像中索要的信息组合在一齐。

但斯坦福互联网不雅察站(Stanford Internet Observatory)在宽广的AI数据库LAION中发现了3,200多张疑似儿童性荼毒图片。LAION是一个在线图片与标题索引,被用于西席Stable Diffusion等刻下最初的图像生成器具。该不雅察组织来自斯坦福大学(Stanford University)。它与加拿大儿童保护中心(Canadian Centre for Child Protection)和其他反荼毒慈善机构迷惑,发现罪人材料,并将原始相片集合举报给法则机关。

它们的活动很快赢得反映。在2023年12月20日斯坦福互联网不雅察站证明发布前夕,LAION对好意思联社(The Associated Press)示意,它仍是临时移除了其数据集。

LAION黑白渔利组织大限制AI怒放收集(Large-scale Artificial Intelligence Open Network)的缩写。该组织在一份声明中称,其“关于罪人本色宝石零容忍的计谋,咱们罗致了高度严慎的作念法,把LAION数据集下线,会在保证安全之后再再行发布。”

天然这些图片在LAION约58亿张图片索引里仅仅九牛一毛,但斯坦福互联网不雅察站指出,它可能会影响AI器具生成无益效果的智力,并让屡次出现的简直受害者再次回思开始前遭到的荼毒。

证明的作家、斯坦福互联网不雅察站的首席时间民众大卫·泰尔示意,这个问题并阻止易惩处,原因约略回首到很多生成式AI口头因为竞争强烈而“急于上市”,并大边界推行。

泰尔在接受采访时说:“汇总扫数这个词互联网上的数据,并将数据集用于西席模子,这本应该仅限于议论揣度,不应该是开源的,哥也色蝴蝶谷娱乐网而且必须接受更严格的监管。”

LAION的一个主要用户是位于英国伦敦的初创公司Stability AI,它为LAION数据集的莳植提供了匡助。Stability AI莳植了文本生成图片的模子Stable Diffusion。斯坦福的证明称,天然新版Stable Diffusion使用户更难生成无益本色,但2022年发布的一个旧版块(Stability AI称其并未发布该版块)依然被整合到其他诈骗和器具当中,而且仍然是“最受宽饶的生成露骨图片的模子”。

加拿大儿童保护中心的信息时间总监劳埃德·理查森示意:“咱们无法回收这款模子。它被很多东谈主装配在腹地的机器上。”加拿大儿童保护中心崇敬运营加拿大的在线性克扣举报热线。

Stability AI在12月20日示意,其仅提供经由筛查的Stable Diffusion版块,况兼“自从收受了对Stable Diffusion的独家莳植任务之后,公司便积极罗致了防护步调,以减少其被突然的风险。”

该公司在一份预先准备的声明里称:“这些过滤器具会圮毫不安全的本色干涉模子。这么作念又不错反过来匡助圮绝模子生成不安全的本色。”

LAION源自德国议论东谈主员和教师克里斯托弗·舒曼提议的一种理念。他在2023年早些时期告诉好意思联社,他之是以但愿把一个如斯宽广的可视化数据库对外公开,部分原因是为了确保将来AI的发展不会被几家强盛的公司所逼迫。

他说:“要是咱们约略将AI发展民主化,使扫数这个词议论界和全东谈主类王人不错从中受益,这将是更安全、更公正的作念法。”

LAION的大部分数据来自另外一个数据库Common Crawl。Common Crawl不断从怒放互联网中执取数据,但其实际董事里奇·斯克伦塔指出,LAION“有义务”在使用数据之前进行扫描和过滤。

LAION在2023年年底示意,其莳植了“严格的过滤器具”,约略在发布数据集之前监测和移除罪人本色,况兼依旧在奋发完善这些器具。斯坦福的证明承认,LAION的莳植者也曾试图过滤掉“未成年”露骨本色,但要是他们预先征求儿童安全民众的见地,本不错作念得更好。

很多文本生成图片的器具王人使用了LAION数据库进行西席,但尚不祥情具体的名单。DALL-E和ChatGPT的莳植者OpenAI示意,其并未使用LAION,况兼校正了其模子,约略拒却触及未成年东谈主的性本色肯求。

谷歌(Google)的文本生成图像器具Imagen模子基于LAION的数据集,但2022年,由于谷歌对数据库审查后“发现了多数不良本色,包括色情图像、种族沮丧性谈话和无益的社会刻板印象”,因此公司决定清除公莳植布该模子。

回首性捣毁关联数据贫寒重重,因此斯坦福互联网不雅察站敕令罗致更激进的步调。其中一项步调是,任何东谈主要是基于LAION-5B(该模子中包含跨越50亿个图片-文本数据对,因此而得名)莳植了西席数据集,就应该“删除数据集,或者与中间方迷惑清算关联材料”。另外一项步调是让旧版Stable Diffusion从互联网最苍茫的边缘隐没。

泰尔示意,“正当平台不错住手提供关联版块下载”,尤其是在器具被频频用于生成不良图像且莫得圮绝此类步履的安全防护步调的情况下。

举例,泰尔点名了CivitAI平台。该平台被东谈主们用于制作AI生成的色情本色而受到宽饶,但该平台短缺阻绝生成儿童图片的安全步调。证明中还敕令AI公司Hugging Face罗致更有用的才略,举报和删除荼毒材料的集合。Hugging Face为模子提供西席数据。

该公司称,它永恒与监管部门和儿童安全团体迷惑,识别和删除儿童荼毒材料。CivitAI并未回报在其网页提交的置评肯求。

斯坦福的证明还质疑,把柄联邦《儿童在线阴私保护法案》(Children’s Online Privacy Protection Act)轨则的保护步调,未经家东谈主答允,是否应该把任何儿童的相片,即就是最良性的相片,输入AI系统。

反儿童性荼毒组织Thorn的数据科学总监瑞贝卡·波特诺夫示意,她方位机构的议论发现,天然AI生成的儿童性荼毒图像在荼毒者中并不流行,但这类图像的流传边界正在赓续扩大。

莳植者约略保证莳植AI模子所使用的数据聚积不含儿童荼毒材料,从而减少这些伤害。波特诺夫称,即使在模子发布之后,仍旧有契机透顶减少这类无益的使用。

科技公司和儿童安全团体现在正在为视频和图像添加“标签”,通过这种特有的数字象征追踪和移除儿童荼毒本色。波特诺夫指出,这种理念也适用于被突然的AI模子。

她说:“AI行业现在还莫得这么作念。但我以为,他们不错而且应该罗致这种步调。”(金钱中语网)

译者:刘进龙

审校:汪皓自拍偷拍



 
友情链接:

Powered by 松岛枫av @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2013-2024