儿童性虐待材料的识别,最常用的办法是将视频、图片与此前已经确认的虐待内容比对,比如微软开发而被 Facebook、Twitter 部署的工具 PhotoDNA。这是一种很有效的办法,但其缺点是不能识别还没有被判定为非法的内容。所以人类管理员需要介入审核。
Google 使用其在机器视觉方面的专长开发出的 AI 工具能够帮助人类管理员更快地审核相关材料,因为 AI 工具可以标记出优先需要审核的很可能是 CSAM 内容的材料。Google 称 AI 工具在同等时间内帮助人类审核 CSAM 内容提升 700%。
互联网观察基金会(IWF)的副 CEO 说,Google 的 AI 工具能够使有限的人力资源发挥更大效用。此前,他们只是单纯地让人类去判断。
IWF 是位于英国的致力于阻止 CSAM 内容在网络上传播的最大型组织之一。包括 Google 在内的大型互联网公司均有资助 IWF。IWF 使用人力去识别虐待材料,也在十几个国家有运营接受互联网用户对可疑材料的反馈信息,它的调查机构还会识别出 CSAM 内容网站并配合执法部门将其关闭。
IWF 将测试 Google 的 AI 工具。这种半自动的工具是向全自动的识别工具迈进的关键一步。未来人们可能开发出完全不需要人类干预而能够识别出 CASM 材料的系统。
不过,IWF 副 CEO 强调此种工具只可以在“明确的”案例下被信任。几年前,他认为需要五六年才能够有这种系统,不过现在看来只需要两到三年在某些案例下就会有自动化识别系统了。
https://www.theverge.com/2018/9/3/17814188/google-ai-child-sex-abuse-material-moderation-tool-internet-watch-foundation
Google 使用其在机器视觉方面的专长开发出的 AI 工具能够帮助人类管理员更快地审核相关材料,因为 AI 工具可以标记出优先需要审核的很可能是 CSAM 内容的材料。Google 称 AI 工具在同等时间内帮助人类审核 CSAM 内容提升 700%。
互联网观察基金会(IWF)的副 CEO 说,Google 的 AI 工具能够使有限的人力资源发挥更大效用。此前,他们只是单纯地让人类去判断。
IWF 是位于英国的致力于阻止 CSAM 内容在网络上传播的最大型组织之一。包括 Google 在内的大型互联网公司均有资助 IWF。IWF 使用人力去识别虐待材料,也在十几个国家有运营接受互联网用户对可疑材料的反馈信息,它的调查机构还会识别出 CSAM 内容网站并配合执法部门将其关闭。
IWF 将测试 Google 的 AI 工具。这种半自动的工具是向全自动的识别工具迈进的关键一步。未来人们可能开发出完全不需要人类干预而能够识别出 CASM 材料的系统。
不过,IWF 副 CEO 强调此种工具只可以在“明确的”案例下被信任。几年前,他认为需要五六年才能够有这种系统,不过现在看来只需要两到三年在某些案例下就会有自动化识别系统了。
https://www.theverge.com/2018/9/3/17814188/google-ai-child-sex-abuse-material-moderation-tool-internet-watch-foundation
评论
发表评论