谷歌撤回不使用人工智能用于武器或监控的承诺
在人工智能(AI)伦理政策上的重大转变中,谷歌的母公司Alphabet Inc.已取消其之前承诺不使用人工智能来开发武器或监控工具。接下来,我们将详细探讨这一政策变更及其影响。
历史背景
2018年,在谷歌员工因允许五角大楼使用其算法分析军事无人机影像而广泛抗议后,谷歌宣布了一项AI原则。这些原则中包括一部分标题为“我们将不追求的AI应用”,明确禁止开发可能造成伤害的技术,包括违反国际公认规范和人权的武器和监控工具。
政策变更
谷歌现在已更新其AI伦理政策,删除了列出公司不打算追求的应用类别的部分。新政策不再明确禁止使用AI来开发武器或监控技术。而是提供了一个更模糊的承诺,即“开发和部署那些预期整体利益大大超过可预见风险的模型和应用”。
变更原因
更新政策的决定源于全球安全格局的演变以及对AI领导地位的竞争加剧。在一篇博客文章中,谷歌高级副总裁詹姆斯·马尼卡(James Manyika)与谷歌DeepMind联合创始人德米斯·哈萨比斯(Demis Hassabis)强调,“自2018年首次发布AI原则以来,技术迅速发展”,并表示“民主国家应在AI开发中发挥领导作用,以核心价值观,如自由、平等和尊重人权为指导”。
对国家安全的影响
更新后的政策反映了一场关于AI治理和风险,特别是在军事应用方面的广泛辩论。放弃对武器和监控使用AI的承诺,表明谷歌可能现在考虑那些增强国家安全的AI应用。这一转变与公司认为民主国家应在AI开发中发挥领导作用以保护人们、促进全球增长和支持国家安全的立场相一致。
专家意见和担忧
专家们对自主武器系统可能带来的危险表示担忧,并呼吁全球范围内的监管。英国计算机科学家斯图尔特·拉塞尔(Stuart Russell)警告称,这些系统带来的风险,并倡导更严格的监管。
财务与竞争背景
这一政策变化正值Alphabet Inc.面临财务压力和AI及云计算市场激烈竞争之时。Alphabet最近的财报显示,收入略低于分析师预期,主要由于谷歌云业务的增长放缓。为保持与微软、亚马逊和Meta等科技巨头的竞争,公司计划在2025年投资750亿美元用于资本支出,重点放在AI基础设施和扩展上。
公众与伦理考量
这一决定引发了关于在潜在有害应用中使用AI的伦理影响的辩论。谷歌历史上的座右铭“不要作恶”,后来被降级,并最终从Alphabet的伦理规范中删除,现在在这一政策变更的背景下受到质疑。此举引发了对技术进步与伦理责任之间平衡的担忧。
结论
谷歌决定撤回不使用AI于武器或监控的承诺,标志着公司在AI伦理方面的重大转变。随着AI在日常生活中越来越普遍,明确的伦理指导方针和国际规范的必要性也将愈发重要。这一政策变更的影响将受到科技行业和全球社会的密切关注。
欲了解更多关于谷歌更新AI原则的信息,请参阅公司的官方博客文章:
谷歌AI原则。
要实时了解AI伦理与治理的演变,可以关注以下权威消息源:
IFLScience 和
财富。