4. 人工智能伦理: “负责任的”,“公平的”,“公开的” 人工智能?

人工智能技术的快速发展带来的效率提升和社会福祉改善,同时也带来了如何去监督和管理这些技术的压力。本期节目主要讨论人工智能伦理问题:什么是“好的”,对我们人类发展进步有益人工智能?节目提出数据隐私和安全是主要问题,提到了2018年爆出的Facebook和剑桥分析公司的数据丑闻。节目讨论了“电车难题”及其在自动驾驶汽车等自主系统中的应用,强调了决策算法的节目还重点讨论了人工智能伦理考量、责任归属和透明度;并提到了麻省理工学院的“道德机器”研究,展示了不同文化背景下的道德决策差异。两位主持人强调了人工智能在教育中的伦理考量,特别是数据隐私和安全问题,以及教育目标和公平性。叶老师和橙子表示将继续探讨人工智能伦理和治理方面的问题,鼓励听众批判性地去思考这些问题。



  • 叶老师,橙子Author for 4edu.ai
  • 28/11/2024
  • AI, Education
  • Podcast

第一季,第四集

主持人 叶老师 (Y): 大家好!欢迎再次回到叶老师AI教育这档节目。 

主持人 橙子 (C): 大家好,我是橙子。欢迎大家继续收听我们的节目!叶老师,最近在忙什么?

Y: 最近开始考虑女儿上初中的问题。女儿今年上小学八年级,明年9月份就上中学了。小学的老师今天放暑假之前已经给出了一个所谓的‘advies’ 建议,也就是说老师认为我的女儿可以上哪个水平的中学。

C:就是开始分流了吧?

Y:  正是。荷兰的中等教育系统啊,或者说中学呢,分为三种主要的类型:为期四年的预备职业教育;为期五年的高级普通中等教育;还有呢,就是为七/六年的大学预科教育。哎,你还别说,结果收到建议那天晚上,我女儿直接给我上了一课。

C: 哦?此话怎讲?

Y: 那天晚饭后一家人围着餐桌聊着当日发生的事。我欣喜的对女儿说:“妈妈很为你骄傲,老师认为你可以上最好水平的中学!” 女儿听到了以后,严肃地看了我一眼,说:“妈妈,你不能这样说。是最适合我的水平中学。” 我不禁惭愧,女儿说的非常有道理。你看我自己学教育的,一旦关系到自己的孩子,得意之下,这亚洲人在学习上的执念就出来了。的确,荷兰的教育从小学开始就会教育孩子们无论是以后受到什么类型的教育,做什么样的工作, “适合自己的才是最好的”。 好了,转回正题。 橙子,除了教育, 人工智能已经日益渗透到我们生活的各个领域,从城市基础设施、执法、银行、医疗保健等,再到娱乐、购物甚至约会。人工智能无处不在。

C: 确实如此!和人工智能有关的各项技术,如果使用得当,确实有可能提高工作效率,改善社会福祉。但是,人工智能如此快速而且迅猛地发展,也给监督和管理带来了越来越大的压力。比如马斯克(Elon Musk)对于超级人工智能就多次表达了担忧,警告未来远超人类的人工智能,可能会对人类产生威胁。今年诺贝尔奖的获奖者,被称为AI教父的辛顿,一直就在提醒大家要小心人工智能对人类产生的潜在危险 。我自己是科幻迷,很多大家熟知的影视作品里都有描述一些很极端的恐怖场景,比如想消灭人类的“终结者”;还有在系列电影《矩阵》里,人类沦为了生物电池来给机器发电。我想马斯克等的担忧不是没有道理的。

Y: 一点没错!我们如何才能确保人工智能是负责任的(responsible)、公平(fair)和公开(trasparent)的?什么是“好的”人工智能? 这些问题涉及伦理、法律和技术方面的考虑。因此,今天让我们来谈谈人工智能伦理这个非常重要而紧迫的问题。

C:  谈这个之前,我们是否先在这里简要解释一下“伦理”是什么意思?我自己对这个概念也好像一知半解。

Y: 好的。伦理是规范个人行为或某项活动的道德原则。它不仅包含行为规范,还涉及深刻的哲学意义上的思考和原则。

C:那么你提到行为规范,伦理和法律是个什么关系?

Y:  法律的出发点是要确保人们不做坏的事情。伦理的出发点是规范引导人们去做对的事情。伦理学系统地思考和研究关于道德观念方面的问题, 像善与恶,对与错,美德与恶行,正义与犯罪一类的概念。

C:  那么,这些伦理概念如何应用于人工智能呢?

Y:  就像任何变革性技术一样,人工智能的某些应用可能会引发新的伦理和法律问题。例如,关于问责制的问题,尤其是在人工智能被用于做出可能存在偏见的决策时。

C:  那你来举一些具体的例子说明一下?

Y:  好的。我来试试。人工智能伦理方面的大量工作都集中在数据上。我们需要考虑数据是如何被收集,被分析的。被收集数据的人是否知情,是否同意。还有就是数据被分析时是否基于有偏见的假设,以及算法是否透明度等等问题。

C:  对呀,数据隐私是当今社会的一大问题。我们都看到过关于数据泄露和个人信息滥用的头条新闻。

Y:  你说得完全正确。2018 年 Facebook 和剑桥分析公司(Cambridge Anylytica) .的数据丑闻给社会带来了冲击,引发了广泛的讨论。它清楚地表明,数据很容易被黑客攻击和操纵。

C:  你来给我们的听众讲讲,那次丑闻中发生了什么吗?

Y:  好呀。剑桥分析公司是一家数据分析公司,它通过 Facebook 上一款名为“这是你的数字生活”(This Is Your Digital Life)的看似无害的性格测试应用程序收集用户数据。这款应用程序不仅收集了参与测试用户的个人信息,同时还获取了这些用户好友的数据。最终,剑桥分析公司收集了高达 8700 万 Facebook 用户的个人信息。

C:  哇,8700 万!这样说,这8700万是骗取来的数据呀!这可算是巨大的信任危机。他们用这些数据做了什么?

Y:  这才是真正令人担忧的地方。这些数据随后被用于分析和影响了 2016 年美国总统大选,帮助特朗普的竞选团队进行精准广告投放。这一数据滥用事件曝光后,Facebook 面临着巨大的舆论压力和法律挑战。Facebook 的首席执行官马克·扎克伯格不得不前往美国国会作证,公司也被罚款 50 亿美元。

C:  这可是个不小的代价!而且金钱是一方面,另一方面,对公众信任的损害更大。

Y:  的确如此。这一丑闻引发了公众对社交媒体平台如何处理用户数据的广泛担忧,并促使全球范围内加强数据隐私和保护的立法和监管。这也将人工智能的伦理问题推到了风口浪尖。

C:  说到伦理问题,就让我想起了经典的电车难题了。它是一个经典的伦理学思想实验。基本的设定是:有一条分叉的电车轨道,一条轨道上绑了5个人,另一条轨道上绑了1个人。这时有一辆失控的电车正向这里快速行驶。而你是它的驾驶员,但是你唯一能做的是搬动操纵杆,选择这俩失控的电车开向哪一条轨道。它由英国哲学家菲利帕·福特(Philippa Foot)在 1967 年首次提出,旨在探讨道德决策中的两难困境。如果不采取行动,这五个人将会被撞死。如果你拉动操纵杆,这一个人将会被撞死,但那五个人会得救。

Y:  对于人工智能,特别是自动驾驶汽车等自主系统而言,电车难题让我们看到这些人工智能技术面临的伦理挑战。你说呢?

C:  对。让我们考虑以下几点:
●决策算法的伦理考量:自动驾驶汽车需要在紧急情况下做出决策:例如,如何在不同的伤害可能性之间进行权衡,要避开行人,还是要避开车辆。
●责任归属:如果自动驾驶汽车在紧急情况下做出错误决策,导致事故发生,责任应归于谁?是制造商、软件开发者,还是车辆所有者?
●透明度和信任:为了获得公众信任,自动驾驶系统的决策过程需要透明。用户和监管机构需要了解这些系统如何在紧急情况下做出决策,以及这些决策的伦理基础。
●我们还要考虑到不同文化和社会对伦理问题的看法可能不同。例如,麻省理工学院的一项研究显示,不同国家的参与者在面对类似的电车难题时,表现出不同的道德偏好。

Y:  这太有意思了!你来详细介绍一下麻省理工学院的研究?

C:  当然可以!麻省理工学院有一个项目,叫“道德机器”(Moral Machine),他们设计了一个平台, 模拟了各种自动驾驶汽车在紧急情况下的伦理决策情境。这个在线平台收集了来自全球数百万参与者的反馈。 这项研究发现,不同国家和文化背景的参与者在道德决策上存在显著差异。

Y:  那么,他们发现了什么呢?

C:  一些国家的参与者更倾向于保护年轻人的生命,而另一些国家则更倾向于保护老年人。某些文化背景的参与者更倾向于遵守法律和规则,例如保护行人,即使这意味着牺牲车内乘客;在某些国家,参与者更倾向于保护社会地位较高的人,例如医生或高收入者。

Y:  这些差异真是太惊人了!这些发现对自动驾驶汽车技术的发展有什么意义呢?

C:  它们强调了在设计和开发面向全球使用的自动驾驶系统时,必须考虑不同的伦理视角。如果我们希望这些系统在全球范围内得到接受和信任,我们就需要对不同文化中关于道德的价值观和信仰保持敏感。工程师很容易忽略了这个问题。

Y: 有关人工智能伦理的讨论真的是非常的复杂! 而且挑战远远不止自动驾驶汽车。人工智能的伦理考量扩展到许多其他领域。例如,教育数据和学习分析的伦理问题正变得越来越重要。与一般的人工智能一样,为支持人工智能教育与发展而收集的大量数据,比如说记录学生的能力、推断的学生的情绪状态、研究学生做题的策略等,也令人担忧。与一般的人工智能一样,人工智能在教育中应用 的主要伦理问题也集中在数据隐私和数据安全上。

C:  人工智能在教育中的应用有哪些独特的伦理考量?

Y:  虽然数据安全是一个首要问题,但人工智能在教育中的伦理考量不仅仅是数据或计算方法的问题。这个领域的研究需要解决教育伦理中已经长期存在,但是经常被忽视的问题。例如,教育的最终目标应该是什么?教师的目标是帮助学生在考试中取得好成绩,还是培养他们的自我实现?教师们如何批判性地审视哪些教学方法是最符合伦理和最有效的?技术是会取代人类教师,还是会增强他们的能力?我们又如何保证教育机会的公平性? 人工智能有可能实现个性化学习,并为学生提供量身定制的支持,但我们必须确保这些机会的分配是公平,公正的。

C:  看来有很多事情需要考虑!

Y:  是的,还有更多的话题需要讨论!例如,我们需要对教师和学生在教育中对人工智能系统的实际需求进行更多研究。教师和学生在学生能动性和隐私等问题上的观点是否一致?这些都是至关重要的方面,值得进一步探讨,也许我们可以在以后的节目中一一展开讨论。

C: 好主意!很明显,随着人工智能越来越融入我们的生活,我们需要进行这些关于伦理和责任的对话。

Y: 感谢大家再次收听我们的节目。我们希望这次讨论能够鼓励大家批判性地思考人工智能的伦理问题。欢迎大家留言,告诉我们你们认为什么是好的人工智能。那么如何确保好的人工智能为人类所用呢?下一次的节目中我们来讨论目前在人工智能治理方面的问题和现状。最后和大家分享我们的AI应用实例。这次是我们用Suno做的节目片头音乐。具体细节教程放在我们的网站,资源这个栏目里面。谢谢大家的收听,下次节目见。

名人名言

I think we should be very careful about AI. If I had to guess at what our biggest existential threat is, it’s probably that.  - Elon Musk
“我认为我们应该小心人工智能。如果一定要我猜让人类毁灭最大的威胁是什么?恐怕就是它。”