Navigation

人工智能面临伦理考验

谷歌炒掉自己的伦理专家后会发生什么?

2018年10月,“谷歌大脑”项目联合创建人与谷歌人工智能资深研究员Jeff Dean在介绍谷歌的“AI for Social Good"倡议。 Keystone / Elijah Nouvelage

谷歌(Google)这类科技巨头并不完全明白他们正在开发的人工智能(AI)工具,该领域的瑞士科研人员表示。近期谷歌解雇一名伦理专家的事件备受各界关注,此事令人不由怀疑,围绕人工智能的道理准则究竟是不是大型科技企业关心的头等大事。

此内容发布于 2021年03月27日 - 09:00

“我们研究的算法关乎公共利益,而非个人喜好,”这是El Mahdi El Mhamdi在2020年12月其经理Timnit Gebru一夜之间被解雇后所发的推文。他是在欧洲参与“谷歌大脑”(Google Brain)的雇员中唯一一位与人工智能伦理团队合作的,而“谷歌大脑”研究团队的目的则是使用深度学习体系来复制人类大脑的运转。

Gebru被视作人工智能伦理领域最为才华横溢的科研人员之一。她在与其他研究者合写的一篇论文(英)外部链接中就大型语言模型的伦理危险提出警告,而构成谷歌搜索引擎及其业务基础的正是这类模型。

Timnit Gebru,人工智能伦理的捍卫者

Timnit Gebru出生于埃塞俄比亚首都亚的斯亚贝巴,父母都是厄立特里亚人。因埃塞俄比亚与厄立特里亚发生战争,她15岁那年作为难民抵达美国。后来她被斯坦福大学录取,并在斯坦福人工智能实验室获得计算机视觉专业博士学位。她的学位论文探讨了使用大规模公共图像来进行社会学分析,这篇论文取得一定成功,并被《纽约时报》与《经济学人》登载。当她联合发表了一份开创性科研报告,展示了人脸识别系统存在针对女性与有色人种的不精确性与歧视后,她便一跃成名。2018年Gebru在为微软科研工作时被谷歌挖走,聘其联合组建该公司的人工智能伦理团队。

End of insertion

Gebru警告说,这些模型分析互联网上数量巨大的文字材料,但其中大多数都来自西方世界。这种地理性偏见所带有的风险就是,网上的种族主义、性别歧视与侵犯性语言有可能进入谷歌的数据,被系统复制。谷歌对此做出的反应是要求Gebru收回论文。而当她拒绝后,他们就炒了她的鱿鱼。

外部内容

其他科研人员也已发现并指出人工智能体系不受控制的演化所具有的风险。瑞士西部应用科技大学数据挖掘与机器学习教授Alexandros Kalousis表示存在“房间里的大象”(译注:即显而易见却被视而不见的事物):“人工智能无处不在,并在迅速进步;然而人工智能工具与模型的开发人员往往不真正清楚,一旦被运用在复杂的真实世界环境下,它们会如何表现,”他警告说,“假若真有什么有害后果,人们也没办法预知。”

外部内容

但是就如Gebru的经历所示,预言这些后果和提出警示的科研人员不总能得到他们就职公司的欢迎。

“Timnit Gebru受聘于谷歌就是要处理人工智能伦理,被解雇也是因为她处理人工智能伦理。这表明谷歌对伦理问题到底有多关心,”柏林洪堡互联网与社会研究中心(Humboldt Institute of Internet and Society)科研人员与新技术伦理专家Anna Jobin感叹道,“既然他们不惜用这种方式对待一位人工智能伦理的世界知名专家,那么谷歌又怎能企望变得更道德?”

“伦理漂白”

科技世界的劳动力由白人男性主宰,而Gebru是这个世界当中新一代女性黑人领袖的一位标志人物。她与同事Margaret Mitchell(今年2月也被谷歌解雇)一道组建了一支跨文化团队,以研究与推动谷歌人工智能系统的道德性与包容性开发。

谷歌与伦理之间有争议的关系

谷歌在着手编撰人工智能道德原则指导方针后,又于2019年决定建立了一支独立组织来完成其内部管理结构,即“先进技术外部顾问委员会”(ATEAC),负责监督该公司人工智能系统的开发。

“这个组织将考虑在我们的人工智能原则下出现的谷歌最复杂的挑战,例如人脸识别与机器学习的公正性,以提供多种视角来告知我们的工作。我们期待着围绕这些重要问题与这个委员会的成员展开交流,”谷歌全球事务高级副总裁Kent Walker在谷歌博客中写道。

尽管有这些前提,这个组织在开办不到两周后即被关闭,原因是两名委员会成员有争议性的任命引起轩然大波:一名被认为是个“反跨性别者、反对一切非异性恋者和反移民”的保守人士,而另一名成员也随后辞职。

End of insertion

但Jobin称,除非这个问题被妥善处理,并授权此类团队基于他们的发现采取行动,否则“‘人工智能伦理’可能会是一股不道德的力量”,一个用来掩盖商业追求的纯粹虚饰的标签,而这种商业实际上已同道德原则有着公开的冲突。就像一边搞环保宣传一边却对环保政策无动于衷的企业所谓“漂绿”(green washing)行径一样,我们也可以将科技企业的做法称为“伦理漂白”(ethics washing),即用伦理装点门面。“这就像是在说:我们是道德的,所以别来打扰我们,”Jobin解释道。

软件工程师Burak Emir是位已在谷歌苏黎世分公司供职13年的资深员工,他也不由对Gebru遭解雇后本公司伦理研究背后的用意提出质疑。

这位工程师自问:“如果只能写些中听的话,那么我们还要伦理部门做什么?如果目的只是发表好听、温和的科研,那么就不要说这么做是为了增添知识。我们需要更多的透明度。”

许多科学家与科研人员都表示与Gebru站在一起,其中不乏在瑞士生活与工作的该领域人士。谷歌在美国本土之外的最大研发中心就在苏黎世,他们的研究重点便包括机器学习与人工智能。目前已有2600多名谷歌员工在支持Gebru的请愿书(英)外部链接上签名,质问该公司对人工智能伦理的态度,Emir也是签名者之一。

穿起袈裟不一定就是和尚

谷歌否认自己“审查”了Gebru。瑞士资讯swissinfo.ch联系谷歌瑞士时,其公关部要我们阅读谷歌高管层此前做出的官方声明。其中一份声明(英)外部链接的作者是谷歌人工智能主管Jeff Dean,文中称Gebru共同署名的研究论文未达发表门槛,该公司也未曾解雇她,而是接受了她的辞呈(Gebru则说她从未提交过辞呈)。

外部内容
外部内容

圣加仑大学的科研员Roberta Fischli也在支持Gebru的请愿书上签了名,她表示自从这位伦理研究人员遭解雇后,谷歌在伦理与人工智能界的形象受到打击。Fischli认为,在做会质疑企业内部现存做法的研究时难免出现利益冲突,因此从一开始便已牵涉到一定风险。

“理论上讲,大多数企业欢迎有批判性的科研人员;但在实践中,如果这样的科研人员开始批评自己的雇主,那么即使不是故意,也会导致利益冲突,”她解释。Fischli强调说,试图在人工智能伦理领域做开创性工作的科研人员经常没有太多选择,最后都会进私营企业工作,因为那里才是集中了大多数资源的地方。“所以当他们尝试更好地理解某些机制,从内部改变情况时,往往没有什么好结果。”

Gebru被炒之后,这家互联网巨头似乎仍然不受打扰地继续其业务,但有样东西正在搅动人心。该公司的一群美国员工于1月份组建了大型跨国科技企业内部的史上第一个工会-“字母表工作者工会”( Alphabet Workers Union,英)外部链接。随后世界各地的谷歌员工组建了分布在10个国家的全球工会联盟,其中也包括英国和瑞士。

房间里的大象

然而谷歌与所谓GAFA(Google、Amazon、Facebook和Apple等公司名称的首字母缩写)集团的影响远远超出这些企业的办公室。这些科技巨头在做、在计划的一切都决定了全球学术研究的日程表。“在大型学术与科研机构所做的研究里,很难找到不跟大型科技企业相关的,甚至不是由它们出资的项目,”Kalousis透露。

鉴于这样的影响,他认为能有独立与跳出陈规的声音,来指出科技巨头不受控制的数据利用的危险,这至关重要。

“这是我们社会中存在的大问题,”Kalousis指出。“围绕伦理的讨论有时可能会分散”舆论对大型科技企业这种随处可见的控制的“注意力”。

科研能不能获得应有的独立性,以客观地质疑大规模运用人工智能技术的风险?现状似乎表明,很难。这个问题超越了谷歌,牵涉到市场上所有的企业,它们都在没有规则、没有限制地使用人工智能系统。对我们而言,这意味着科技正在决定从道德角度而言什么可以接受,什么不可接受,而这影响着我们的生活与思维方式。

外部内容

(译自英语:小雷)

加入对话

分享此故事

加入对话

开设一个SWI帐户,您就有机会在我们的网站上发表评论和留言。

请在此登陆注册