在网络上发表评论,我觉得是一种非常重要的交流观点的途径。但是,讨论你所关心的问题有时候并不那么容易[1]。线上的谩骂和骚扰,可能使很多人不去表达他们的看法,同时放弃的,还有他们去了解不同观点的机会。 1. Jigsaw 发布 Perspective API 检测评论的”毒性“。 Google 姊妹公司 Jigsaw 推出了 Perspective[2],一个使用机器学习抗击线上骚扰的项目。首先发布的 Perspective API 用于识别评论中的“毒性”成分,即自动检测侮辱、骚扰和辱骂的言论。“毒”的定义是那些很可能让人退出讨论的粗鲁、不尊重或无理的评论[3]。评价一则评论“有毒”的程度从“非常有毒”到“非常健康”。 Perspective 项目是 Jigsaw 团队所致力于的 Conversation AI(对话 AI)行动的一部分。Conversation AI 一直是开源项目,Perspective API 则让开发者能够接入这个运行在 Google 服务器上由机器学习训练的毒性言论检测工具,来识别和过滤无论是社交网络还是新闻网站评论中的骚扰、辱骂言论。 Jigsaw 和几个合作伙伴正在测试这个工具。维基百科使用它来对其编辑讨论页进行研究。《卫报》和《经济学人》在测试其改进评论区的能力。《纽约时报》计划使用它来对辱骂评论进行初步标记。6 月,Recode 报道称[4],《纽约时报》借助 Jigsaw 的 Perspective 项目所开发的软件,年底将扩充可用在线评论的数量,从文章的 10% 提升至 80%。增加更多评论,而不需要增加人手来管理。 2. Perspective API 的准确性存在问题。 Perspective API 在识别“毒性”评论方面,效果并不好,研究者发现[3,5]。工具不能识别一些仇恨言论,却把一些无害的词语组合判定为有毒[5]。jigsaw 团队注意到这个问题,强调软件还处于初期测试阶段,还不适合于大规模部署。Jigsaw 有两个办法:向服务提供评论毒性的评级;反馈评级错误的信息。随着数据的积累和时间的推移,Perspective API 有可能能够理解更多形式的仇恨言论和毒性评论。 3. 对 Jigsaw 此项目的批评和回应。 批评者认为这是一种审查。使用自动识别系统来删除评论,有可能造成误报,