联合国儿童基金会呼吁各国政府将人工智慧产生的虐童资料定为刑事犯罪

avatar
Decrypt
02-05
本文为机器翻译
展示原文

联合国儿童基金会周三发出紧急呼吁,敦促各国政府将人工智慧产生的儿童性虐待材料定为刑事犯罪。该基金会引述令人震惊的证据称,过去一年中,全球至少有 120 万名儿童的图像被窜改为露骨的深度伪造影片。

根据联合国儿童基金会战略与证据办公室 Innocenti、ECPAT International 和国际刑警组织牵头的「消除伤害第二阶段」研究计划周三发布的声明随附的简报,数据显示,在一些国家,每 25 个儿童中就有 1 个受到伤害,相当于一个典型教室里的 1 个孩子

这项研究基于一项具有全国代表性的家庭调查,调查对象涵盖 11 个国家的约 11,000 名儿童,研究结果揭示了犯罪者现在可以如何在儿童不知情或不参与的情况下,制作出逼真的儿童性图像。

数据显示,在一些研究国家中,高达三分之二的人表示担心人工智慧可能被用来制作他们的虚假性爱图片或视频,尽管各国之间的担忧程度差异很大。

联合国儿童基金会表示:“我们必须明确一点。利用人工智慧工具产生或篡改的儿童性化图像属于儿童性虐待材料(CSAM)。深度伪造技术造成的伤害是虐待,这一点毋庸置疑。”

随著法国当局周二突袭了X在巴黎的办公室,作为对该平台人工智慧聊天机器人Grok涉嫌儿童色情制品进行刑事调查的一部分,这项呼吁变得更加紧迫。检察官传唤了伊隆·马斯克和几位高阶主管进行讯问。

上个月发布的一份打击数位仇恨中心报告估计,Grok在 12 月 29 日至 1 月 9 日的 11 天期间制作了 23,338 张儿童性化图片

与该声明一同发布的简报指出,这些事态发展标志著“儿童在数位环境中面临的风险急剧升级”,儿童的受保护权可能会“在从未发送过任何信息甚至不知道发生过的情况下”遭到侵犯。

英国网路观察基金会在一个月内在暗网论坛上标记了近 14,000 张疑似人工智慧产生的图像,其中约三分之一被确认为犯罪行为;与此同时,韩国当局报告称,2022 年至 2024 年间,与人工智慧和深度伪造技术相关的性犯罪案件激增了十倍,其中大多数嫌疑人被确认为青少年。

该组织紧急呼吁各国政府扩大儿童性虐待材料的定义,将人工智慧产生的内容纳入其中,并将此类内容的制作、取得、持有和传播定为犯罪行为。

联合国儿童基金会也要求人工智慧开发者实施安全设计方法,并要求数位公司阻止此类材料的传播。

该简报呼吁各国要求企业进行儿童权利尽职调查,特别是儿童权利影响评估,并要求人工智慧价值链中的每个参与者嵌入安全措施,包括对开源模型进行发布前安全测试。

联合国儿童基金会警告说:“深度伪造技术滥用造成的危害是真实存在的,而且迫在眉睫。孩子们不能再等法律跟上形势了。”

上个月,欧盟委员会正式启动了一项调查,以确定 X 是否因未阻止 Grok 产生非法内容而违反了欧盟数位规则。同时, 菲律宾、印尼和马来西亚已经禁止了 Grok,英国澳洲监管机构也展开了调查。

来源
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
68
收藏
18
评论