Google 公布指导其 AI 工作的一系列原则[1]。"原则"明确表示 Google 将不会使用 AI 来开发武器,此外还涵盖了 AI 在“偏见”、“隐私”和“人类监督”方面的规定。
按照 Google 博客[2]的表述,AI 应用的目标是:(1)对社会有益。如何界定“有益”?Google 采纳广泛的社会和经济因子来作为参考。Google 尊重不同国家的文化、社会和法律规范。(2)避免造成或强化不公平的偏见。不以种族、民族、性别、国籍、性取向、政治或宗教信仰等对人施加不公平影响。(3)开发和测试以保证安全。(4)有人问责。AI 系统可供人反馈,有解释和上诉。(5)隐私原则。(6)技术创新扎根于科学方法的应用和对开放式查询、学术严谨、创新、协作的承诺。Google 将和一些股东一道推动这方面的工作,与 AI 社区分享 AI 研究的方法和资料。(7)限制潜在的伤害和滥用,根据如下原则部署 AI 技术。它们是:主要目的和用途;独特性或普遍适用;(影响)规模;是否提供通用工具、集成工具或开发定制解决方案。
Google 的 AI 应用不致力于:(1)造成或可能造成总体伤害的;(2)武器和其他目的是伤害人的技术;(3)收集或使用信息用于监控的技术;(4)违反被广为接受的国际法和人权原则的技术。
Google 与国防部的合同是 Project Maven,一个使用 AI 分析无人机影像的项目。媒体报道此合作后,引发广泛关注,Google 内部数千名员工联名抵制。Google 将执行此合同到明年,之后不会继续参与其中。
Google 与国防部的这个合同曝光后,外界多批评 Google 违背其“不作恶”信条。Google 宣布撤出此合同,仍然有批评 Google 的声音。他们的立足点,或者说看问题的角度不同,所以才有这些争议。关于这些不同的意见,参考此前的帖文[3]。这也说明了一个事实,那就是不同——尤其是观点的不同——是普遍存在的。无论你做了什么事,都不可能令所有人满意。
据报道,Google 与国防部的 Project Maven 合同,部分原因是为了帮助 Google 获取国防部“诱人的” 100 亿美元“大合同”。IBM、Amazon、微软是竞争对手。Google 将继续竞争此合同,只要其合同内容符合原则[4]。
“原则”要求 Google 不应用 AI 于武器开发,不使用 AI 进行违反“国际公认规范”的监控项目,以及违反“被广泛接受的国际法和人权原则”的项目。AI 研究的中心点应该是对社会有益。Google CEO 说,“如何开发和使用 AI 将会给社会带来深远影响,我们有深深的责任感来使它走上正轨。”
国际社会对 AI 的研究和使用,长期以来存在广泛的讨论和担忧,其中不乏知名人士提出的警告。5 月,人权和科技组织联盟发布了《多伦多宣言》,呼吁政府和科技公司确保算法尊重平等、不歧视的基本原则。大赦国际、Access Now、人权观察、维基媒体基金会已签署此宣言。
Google 发布的“原则”很难涵盖更广泛的应用场景,却有相当的弹性使 AI 可以发挥出若干有益的用处。监督和讨论是必不可少的,这是保证 AI 对社会和整个人类有用的关键。
(注:粗体字是我自己加的)
1. https://ai.google/principles
2. https://blog.google/topics/ai/ai-principles/
3. https://plus.google.com/u/0/+GoogleFansPageBlogspotGFP/posts/SiArVzuGQy7
4. https://www.theverge.com/2018/6/7/17439310/google-ai-ethics-principles-warfare-weapons-military-project-maven
按照 Google 博客[2]的表述,AI 应用的目标是:(1)对社会有益。如何界定“有益”?Google 采纳广泛的社会和经济因子来作为参考。Google 尊重不同国家的文化、社会和法律规范。(2)避免造成或强化不公平的偏见。不以种族、民族、性别、国籍、性取向、政治或宗教信仰等对人施加不公平影响。(3)开发和测试以保证安全。(4)有人问责。AI 系统可供人反馈,有解释和上诉。(5)隐私原则。(6)技术创新扎根于科学方法的应用和对开放式查询、学术严谨、创新、协作的承诺。Google 将和一些股东一道推动这方面的工作,与 AI 社区分享 AI 研究的方法和资料。(7)限制潜在的伤害和滥用,根据如下原则部署 AI 技术。它们是:主要目的和用途;独特性或普遍适用;(影响)规模;是否提供通用工具、集成工具或开发定制解决方案。
Google 的 AI 应用不致力于:(1)造成或可能造成总体伤害的;(2)武器和其他目的是伤害人的技术;(3)收集或使用信息用于监控的技术;(4)违反被广为接受的国际法和人权原则的技术。
Google 与国防部的合同是 Project Maven,一个使用 AI 分析无人机影像的项目。媒体报道此合作后,引发广泛关注,Google 内部数千名员工联名抵制。Google 将执行此合同到明年,之后不会继续参与其中。
Google 与国防部的这个合同曝光后,外界多批评 Google 违背其“不作恶”信条。Google 宣布撤出此合同,仍然有批评 Google 的声音。他们的立足点,或者说看问题的角度不同,所以才有这些争议。关于这些不同的意见,参考此前的帖文[3]。这也说明了一个事实,那就是不同——尤其是观点的不同——是普遍存在的。无论你做了什么事,都不可能令所有人满意。
据报道,Google 与国防部的 Project Maven 合同,部分原因是为了帮助 Google 获取国防部“诱人的” 100 亿美元“大合同”。IBM、Amazon、微软是竞争对手。Google 将继续竞争此合同,只要其合同内容符合原则[4]。
“原则”要求 Google 不应用 AI 于武器开发,不使用 AI 进行违反“国际公认规范”的监控项目,以及违反“被广泛接受的国际法和人权原则”的项目。AI 研究的中心点应该是对社会有益。Google CEO 说,“如何开发和使用 AI 将会给社会带来深远影响,我们有深深的责任感来使它走上正轨。”
国际社会对 AI 的研究和使用,长期以来存在广泛的讨论和担忧,其中不乏知名人士提出的警告。5 月,人权和科技组织联盟发布了《多伦多宣言》,呼吁政府和科技公司确保算法尊重平等、不歧视的基本原则。大赦国际、Access Now、人权观察、维基媒体基金会已签署此宣言。
Google 发布的“原则”很难涵盖更广泛的应用场景,却有相当的弹性使 AI 可以发挥出若干有益的用处。监督和讨论是必不可少的,这是保证 AI 对社会和整个人类有用的关键。
(注:粗体字是我自己加的)
1. https://ai.google/principles
2. https://blog.google/topics/ai/ai-principles/
3. https://plus.google.com/u/0/+GoogleFansPageBlogspotGFP/posts/SiArVzuGQy7
4. https://www.theverge.com/2018/6/7/17439310/google-ai-ethics-principles-warfare-weapons-military-project-maven
评论
发表评论