专家:随着网络上出现的儿童性虐待图像,人工智能可能使其“正常化”

国际热点作者 / 花爷 / 2025-01-19 13:21
"
      专家警告称,人工智能正在为一种令人不安的趋势打开大门,即人们在性场景中为儿童创造逼真的图像,这可能会增加现实

  

  

  专家警告称,人工智能正在为一种令人不安的趋势打开大门,即人们在性场景中为儿童创造逼真的图像,这可能会增加现实生活中针对儿童的性犯罪案件的数量。

  从去年年末到2023年,随着聊天机器人ChatGPT的发布,模仿人类对话或创造逼真图像的人工智能平台迅速流行起来,成为人工智能应用的分水岭。

  随着世界各地人们的好奇心被用于工作或学校任务的技术所激发,其他人则出于更邪恶的目的接受了这些平台。

  英国打击有组织犯罪的主要机构国家犯罪局(NCA)本周警告说,机器生成的儿童露骨图像的激增正在产生“激进化”的效果,使恋童癖和针对儿童的令人不安的行为“正常化”。

  NCA总干事格雷姆·比格在最近的一份报告中说:“我们认为,观看这些图像——无论是真实的还是人工智能生成的——极大地增加了罪犯对儿童进行性侵犯的风险。”

  该机构估计,有多达83万成年人(占英国成年人口的1.6%)对儿童构成某种形式的性危险。

  AI

  据比格说,这个估计数字是英国监狱人口的10倍。

  比格说,大多数儿童性虐待案件都涉及观看露点的图像,在人工智能的帮助下,创建和观看性图像可以使现实世界中的虐待儿童“正常化”。

  比格说:“(估计的数字)部分反映了人们对历史上被低估的威胁有了更好的理解,部分是由于互联网的激进效应造成的,在互联网上,儿童被虐待和强奸的视频和图片广为流传,团体分享和讨论这些图片,使这种行为正常化。”

  在美国国内,使用人工智能创造儿童色情图像的爆炸式增长正在展开。

  “儿童图像,包括已知受害者的内容,正在被重新用于这种非常邪恶的输出,”丽贝卡·波特诺夫(Rebecca Portnoff)上个月告诉《华盛顿邮报》,她是一家致力于保护儿童的非营利组织Thorn的数据科学主管。

  Child

  她说:“受害者的身份识别已经是大海捞针的问题,执法部门试图找到一个处于危险中的孩子。”

  “这些工具的易用性和现实性都是一个重大转变。这让一切都变得更具挑战性。”

  可以根据简单提示创建图像的热门人工智能网站通常有社区指导方针,以防止创建令人不安的照片。

  这些平台是在互联网上数以百万计的图像上进行训练的,这些图像是人工智能的基石,可以为不存在的人物或地点创造令人信服的描绘。

  跟上最新的晚间更新。

  例如,《Midjourney》要求PG-13级的内容避免“裸体、性器官、对裸露乳房的关注、淋浴或厕所里的人、性意象、恋物癖”。

  而OpenAI的图像制作平台DALL-E只允许g级内容,禁止显示“裸体、性行为、性服务或其他旨在引起性兴奋的内容”的图像。

  然而,根据各种关于人工智能和性犯罪的报告,一些心怀不怀好意的人在暗网论坛上讨论如何制作令人不安的图像。

  Biggar指出,人工智能生成的儿童图像也让警察和执法部门陷入了从需要帮助的真实受害者的图像中破译虚假图像的迷宫。

  “为此目的使用人工智能将使识别真正需要保护的儿童变得更加困难,并进一步使犯罪者和犯罪边缘的儿童性虐待正常化。”我们还评估,观看这些图像——无论是真实的还是人工智能生成的——会增加一些罪犯在现实生活中对儿童进行性虐待的风险,”比格在向福克斯新闻数字频道提供的评论中说。

  “通过与我们的国际警务合作伙伴合作,我们正在结合我们的技术技能和能力,以了解威胁,并确保我们拥有正确的工具来处理人工智能生成的材料,并保护儿童免受性虐待。”

  人工智能生成的图像也可以用于性勒索骗局,美国联邦调查局(FBI)上个月就这类犯罪发出了警告。

  深度造假通常涉及使用深度学习人工智能编辑人们的视频或照片,使他们看起来像其他人,并被用来骚扰受害者或收钱,包括儿童。

  联邦调查局在6月表示:“恶意行为者利用内容操纵技术和服务,利用照片和视频——通常是从个人的社交媒体账户、开放的互联网上捕获的,或者是受害者要求的——制作出与受害者相似的性主题图像,然后在社交媒体、公共论坛或色情网站上传播。”

  “许多受害者,包括未成年人,都不知道他们的照片被复制、篡改和传播,直到其他人提请他们注意。”

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读