Navigation

人工智能面临伦理考验

“人工智能解决不了我们的所有问题”

人工智能有可能让我们变得更聪明,因为它的运作方式与我们截然不同。 Keystone

人工智能会取代人类这一理论一直受到关注,而新冠疫情一暴发,就在短短的几周内给全球经济带来了重创,这也让我们看到,人工智能对社会产生的影响,它真的像有人警告的那样,会威胁到人类的就业市场?

此内容发布于 2021年02月03日 - 09:00
Markus Christen, Higgs.ch

閱讀本文繁體字版本請 點擊此處

End of insertion

现在的情形并不是人工智能控制的机器人或者软件直接取代了人类的工作,实际情况是为了减少病毒的传播,目前很多人被禁止去工作。就算人工智能会导致职场变革,也不会以迅雷不及掩耳之势到来。

但在某种意义上,新冠疫情还是让我们感受到,人工智能的广泛使用,对社会的转型可能带来一定影响:比如收入结构上的改变带来社会负荷,最后国家不得不出手干预。然而,人工智能真的会为人们的工作和生活带来如此重大的改变吗?

作者

Markus Christen是苏黎世大学数字社会倡议委员会(Digital Society Initiative外部链接)主席,也是数字伦理实验室的负责人。目前,他正在研究人工智能和网络安全的伦理问题、自主系统与人类的互动,以及电脑游戏在伦理教育中的应用。他是TA-瑞士人工智能研究的三位首席研究员之一。

End of insertion

仔细分析近年来围绕人工智能展开的辩论,会感到非常混乱,但至少能总结出三个基本结论:

首先,人工智能作为信息技术的焦点常常被寄予厚望或被视为威胁;其次,使用人工智能不会让我们从那些一直存在的生活本质问题中解脱出来;第三,有效利用人工智能的起点,不是技术的发展,而是这一基础科技与我们人类之间的互动。

担心失去控制

让我们从第一个结论开始分析:任何一种技术都不会像信息处理技术这样,能激发出乌托邦和其他怪诞的想象。原因可能是我们人类越来越多地将自己的特质(有意识地)与处理信息的能力绑在一起。而当机器侵入这个领域时,人类显得超级无助并进入失控模式。

但是,那种面对”人类会失去控制权,而未来社会将由机器主宰“的担心,纯粹是多余的。因为人工智能是人创造的,人类根据自己的需求设计人工智能,因为机器能更好的胜任某些工作。

就算在全自动领域,人工智能系统也无法自行完成,因为人类会定期测试系统是否在做着它该做的事情,其中重要的一点是:人工智能如果出现了“危险”举动,一定不是技术本身的问题,而是操控它的人造成的。

针对人工智能的批判性态度更多的与乌托邦思潮有关:人工智能控制论在公众中广泛传播,这背后隐藏的是,与”我们人类时而会做出非理性判断和偏见“形成鲜明对比的“理性、客观和公平判断的理想主义”思想。

然而,抛开所有关于数据质量和偏差等这些复杂问题不谈,以海量数据为基础的人工智能系统所做出的纯理性决定,是否真的适合于人类,目前还值得怀疑。

例如,如果未来按照这种“理性标准”,只有人工智能系统能决定,是否发放一项贷款,也会失去“多样性”,而这将成为一个问题。因为人类的判断失误对于整个社会系统来说不一定是坏事。

法律的不同解释

这便引出对上面提到的第二点结论的思考:人工智能虽然看似客观,但它无法解决许多与人类决策相关的本质问题。这一点可以用一个众所周知的例子来说明:2016年,美国Northpointe公司研发的被美国法院用于评估被告犯罪可能性的一款案件管理和决策支持工具Compas出了一档子事。

该人工智能系统为美国法官提供一些即将被提前释放的罪犯重新犯罪的风险评估。一个名为ProPublica的调查性新闻组织调查了该系统的运作过程,并得出结论:该系统做出的预测带有种族歧视倾向。

Compas系统输送的数据显示,非裔美国人的重新犯罪率几乎是白人的两倍-尽管肤色被明确排除在该评估的标准之外。但是,ProPublica最初做出的“软件开发者在编写计算程序时不够谨慎,甚至隐含种族歧视”的判断-后来被否定了。

研究人员最后得出结论,预测系统背后存在一个本质问题,那就是对于“公正”的解释有所不同。古哲学家亚里士多德早就说过:“正义存在不同的类型”。

如果将这些都具备合理性的“不同解释”注入到计算程序中,它们有可能相互排斥,但是去掉任何一种形式的不公平都有可能自动导致另一种形式的不公平。

这里,我们不能回避的一个本质问题是:“针对某个案子应该使用哪一种”公平“。由此可见,我们必须接受这样的事实:人工智能可以给出一个貌似客观的答案,但却无法回答我们提出的本质问题。

人与机器的互动

然而,这并不是说,因为被赋予厚望或者被视为威胁,人工智能就是一种被高估的技术。人工智能系统中的"深度学习"(deep learning)模式,让我们人类找到了解决难题的新出路,人工智能有可能让我们变得更聪明,因为它的运作方式与我们截然不同,可以处理大量数据,这是我们人类无法做到的。

这样的运作程序或许能够让我们注意到偏见和系统性错误的存在;它让我们有机会反省自己。人工智能不会剥夺我们的决定权,但它可以提供一种形式的参考。

这是一件好事,特别是涉及到艰难的决策时。然而,最重要的一点仍然是,人与机器之间必须保持互动。进一步理解和优化这种互动应该是未来研究人员的工作目标。

文章只反映作者观点,不代表swissinfo.ch编辑部的观点。

本文于2020年4月15日发表在瑞士独立知识杂志《Higgs.ch》上。SWI瑞士资讯swissinfo.ch陆续转载该杂志的文章。

End of insertion

(译自德文:杨煦冬) 

这篇文章下方的评论区已关闭。您可以在这里找到读者与我们记者团队正在讨论交流的话题。

请加入我们!如果您想就本文涉及的话题展开新的讨论,或者想向我们反映您发现的事实错误,请发邮件给我们:chinese@swissinfo.ch

分享此故事

加入对话

开设一个SWI帐户,您就有机会在我们的网站上发表评论和留言。

请在此登陆注册