美少妇的哀羞

波多野结衣死了吗 斯坦福叙述:AI图像生成器用使用多数儿童性暴戾图片进行检察

         发布日期:2024-10-06 04:17    点击次数:193

波多野结衣死了吗 斯坦福叙述:AI图像生成器用使用多数儿童性暴戾图片进行检察

波多野结衣死了吗

一项最新叙述线路,热点AI图片生成器用使用了数千张儿童性暴戾图片进行检察,该叙述号召干系公司选拔纪律,惩处它们成立的本事存在的无益弱势。

这些图片使AI系统更容易生成传神露骨的过错儿童图像,况兼不错将青少年在叮嘱媒体上穿戴衣服的相片酿成赤身相片,这引起了寰宇各地学校和王法部门的警惕。

直到最近,反暴戾商榷东谈主员还以为,一些不受戒指的AI器用生成犯罪儿童图像的惟一技艺,就是把它们从成东谈主色情骨子和良性的儿童相片这两组在线图像中索要的信息组合在一谈。

但斯坦福互联网不雅察站(Stanford Internet Observatory)在浩大的AI数据库LAION中发现了3,200多张疑似儿童性暴戾图片。LAION是一个在线图片与标题索引,被用于检察Stable Diffusion等现时最初的图像生成器用。该不雅察组织来自斯坦福大学(Stanford University)。它与加拿大儿童保护中心(Canadian Centre for Child Protection)和其他反暴戾慈善机构联结,发现犯罪材料,并将原始相片畅通举报给王法机关。

它们的活动很快赢得反映。在2023年12月20日斯坦福互联网不雅察站叙述发布前夕,LAION对好意思联社(The Associated Press)示意,它依然临时移除了其数据集。

奇米影视盒v1.1

LAION诟谇渔利组织大领域AI绽开相聚(Large-scale Artificial Intelligence Open Network)的缩写。该组织在一份声明中称,其“关于犯罪骨子宝石零容忍的战略,咱们选拔了高度严慎的作念法,把LAION数据集下线,会在保证安全之后再再行发布。”

诚然这些图片在LAION约58亿张图片索引里仅仅九牛一毛,但斯坦福互联网不雅察站指出,它可能会影响AI器用生成无益恶果的才智,并让屡次出现的真的受害者再次回念念来源前遭到的暴戾。

叙述的作家、斯坦福互联网不雅察站的首席本事群众大卫·泰尔示意,这个问题并紧闭易惩处,原因大概记忆到好多生成式AI表情因为竞争浓烈而“急于上市”,并大领域现实。

泰尔在接受采访时说:“汇总扫数这个词互联网上的数据,并将数据集用于检察模子,这本应该仅限于商榷筹算,不应该是开源的,而且必须接受更严格的监管。”

LAION的一个主要用户是位于英国伦敦的初创公司Stability AI,它为LAION数据集的成立提供了匡助。Stability AI成立了文本生成图片的模子Stable Diffusion。斯坦福的叙述称,诚然新版Stable Diffusion使用户更难生成无益骨子,但2022年发布的一个旧版块(Stability AI称其并未发布该版块)依然被整合到其他期骗和器用当中,而且仍然是“最受接待的生成露骨图片的模子”。

加拿大儿童保护中心的信息本事总监劳埃德·理查森示意:“咱们无法回收这款模子。它被好多东谈主安设在腹地的机器上。”加拿大儿童保护中心认真运营加拿大的在线性克扣举报热线。

Stability AI在12月20日示意,其仅提供历程筛查的Stable Diffusion版块,况兼“自从领受了对Stable Diffusion的独家成立任务之后,公司便积极选拔了详确纪律,以减少其被残害的风险。”

该公司在一份预先准备的声明里称:“这些过滤器用会防止不安全的骨子参预模子。这么作念又不错反过来匡助防止模子生成不安全的骨子。”

LAION源自德国商榷东谈主员和训导克里斯托弗·舒曼冷落的一种理念。他在2023年早些时间告诉好意思联社,他之是以但愿把一个如斯浩大的可视化数据库对外公开,部分原因是为了确保异日AI的发展不会被几家执意的公司所戒指。

他说:“若是咱们大概将AI发展民主化,使扫数这个词商榷界和全东谈主类齐不错从中受益,这将是更安全、更公道的作念法。”

LAION的大部分数据来自另外一个数据库Common Crawl。Common Crawl束缚从绽开互联网中捏取数据,但其履行董事里奇·斯克伦塔指出,LAION“有义务”在使用数据之前进行扫描和过滤。

LAION在2023年年底示意,其成立了“严格的过滤器用”,大概在发布数据集之前监测和移除犯罪骨子,况兼依旧在致力于完善这些器用。斯坦福的叙述承认,LAION的成立者也曾试图过滤掉“未成年”露骨骨子,但若是他们预先征求儿童安全群众的概念,本不错作念得更好。

好多文本生成图片的器用齐使用了LAION数据库进行检察,但尚不笃定具体的名单。DALL-E和ChatGPT的成立者OpenAI示意,其并未使用LAION,况兼变嫌了其模子,大概拒却触及未成年东谈主的性骨子苦求。

谷歌(Google)的文本生成图像器用Imagen模子基于LAION的数据集,但2022年,由于谷歌对数据库审查后“发现了多数不良骨子,包括色情图像、种族悔过性话语和无益的社会刻板印象”,因此公司决定放手公成立布该模子。

记忆性祛除干总共据痛苦重重,因此斯坦福互联网不雅察站号召选拔更激进的纪律。其中一项纪律是,任何东谈主若是基于LAION-5B(该模子中包含跳跃50亿个图片-文本数据对,因此而得名)成立了检察数据集,就应该“删除数据集,或者与中间方联结清算干系材料”。另外一项纪律是让旧版Stable Diffusion从互联网最昏昧的边缘隐没。

泰尔示意,“正当平台不错罢手提供干系版块下载”,尤其是在器用被不时用于生成不良图像且莫得防止此类活动的安全预防纪律的情况下。

举例,泰尔点名了CivitAI平台。该平台被东谈主们用于制作AI生成的色情骨子而受到接待,但该平台穷乏阻绝生成儿童图片的安全纪律。叙述中还号召AI公司Hugging Face选拔更有用的技艺,举报和删除暴戾材料的畅通。Hugging Face为模子提供检察数据。

该公司称,它永久与监管部门和儿童安全团体联结,识别和删除儿童暴戾材料。CivitAI并未申诉在其网页提交的置评苦求。

斯坦福的叙述还质疑,阐述联邦《儿童在线诡秘保护法案》(Children’s Online Privacy Protection Act)纪律的保护纪律,未经家东谈主快活,是否应该把任何儿童的相片,即就是最良性的相片,输入AI系统。

反儿童性暴戾组织Thorn的数据科学总监瑞贝卡·波特诺夫示意,她场所机构的商榷发现,诚然AI生成的儿童性暴戾图像在暴戾者中并不流行,但这类图像的流传领域正在继续扩大。

成立者大概保证成立AI模子所使用的数据聚拢不含儿童暴戾材料,从而减少这些伤害。波特诺夫称,即使在模子发布之后,仍旧有契机透彻减少这类无益的使用。

科技公司和儿童安全团体现在正在为视频和图像添加“标签”,通过这种私有的数字标记追踪和移除儿童暴戾骨子。波特诺夫指出,这种理念也适用于被残害的AI模子。

她说:“AI行业现在还莫得这么作念。但我以为,他们不错而且应该选拔这种纪律。”(钞票汉文网)

译者:刘进龙

审校:汪皓波多野结衣死了吗



 
友情链接:

Powered by 松岛枫av @2013-2022 RSS地图 HTML地图

Copyright Powered by站群 © 2013-2024