5. 人工智能伦理原则 (ethics principle) 和治理 (governance)
本期节目延续上期节目对人工智能伦理问题的讨论,继续探讨人工智能伦理和治理方面的问题。AI 系统的快速发展和自主运作的潜力要求与其他技术不同的治理方法。 提出了五个 AI 伦理核心原则:行善、不伤害、自主、公正和可解释性。 这些原则强调了确保 AI 系统促进人类福祉、不造成伤害、尊重个人自主权、公平应用并在决策中保持透明的重要性。将于 2024 年 8 月生效的欧盟人工智能法案被作为这些原则如何在实践中得到应用的示例。该法案根据风险级别对 AI 系统进行分类,并引入了透明度、问责制和人工监督的要求。 除了人工智能法案之外,欧盟还发布了关于教育工作者在教育中使用人工智能的伦理指南。 主持人强调了他们对人工智能及其在教育中的作用的兴趣,并与听众分享了他们对该主题的持续学习过程。
-
13/12/2024
-
Education, AI
-
Podcast
第一季,第五集
主持人 叶老师 (Y): 大家好!欢迎再次回到叶老师AI教育这档节目。
主持人 橙子 (C): 大家好,我是橙子。欢迎大家继续收听我们的节目!
Y: 橙子,我们的节目播出以后,有听众反馈说人工智能好像离我们很远。但其实它和我们联系非常近。
C: 和我们息息相关,生活中已经有很多的事情和它相联系了。比如说很多上网的时候会被要求图形验证码。也不是所有系统,有些系统是通过这种方式来调整自己的AI模型。
Y:那换句话说,就是我们每一个人都在不知不觉中帮助人工智能日益完善。但不是每个人都意识到了,其实我们早已经被卷进了时代的洪流中去了。那还有听众朋友们说,我感觉人工智能无处不在,好像身边的人在日常生活中都会用一些相关的词汇,像什么机器学习,算法啊。感觉他们都好像比我懂的多。
C:其实用这些词的人未必真正理解这些词的含义。
Y:我给自己做个广告啦,我们的节目也是希望能够在有关人工智能的方方面面给大家做一个梳理。从人工智能的基本概念出发,引到它对我们的影响,然后思考它对我们的教育,学习带来的影响, impact,或者是说冲击。在上一期节目中,我们谈到了人工智能在社会中日益增多的使用带来的不仅是机遇,更是风险以及与此相关的人工智能伦理问题。 我们用经典的电车难题来说明人工智能,特别是自动驾驶汽车等技术发展面临的伦理挑战。今天,我们将讨论如何应对这些伦理挑战以及如何治理人工智能。
C: 这也是目前各国政府和学者们所关心和研究的科学命题!那么,叶老师“治理”到底是什么意思呢?
Y: “治理”可以被视为组织,引导和管理社会活动的一个过程。它指的是建立某种规则、法规、制度以及流程,来帮助协调参与者的行为,并实现一个对这些参与者都有利的结果。
C: 所以,治理就是为一个复杂系统带来秩序,对不对?
Y: 没错。其实治理这个概念在古代部落中就存在了。随着社会变得越来越复杂,我们需要越来越复杂的治理体系和治理方式。你想呀,从原始部落到现在的各国政府、各个社会组织以及市场的发展,所有这些都是由各个时期出现的新技术实现的。
C: 你说的这些新技术像比如说笔墨,纸张,印刷术,到后来的打字机,电话,电报,在以后的电脑,互联网,再到现在的人工智能。。。
Y: 这些技术的发展使我们能够处理更多信息并更好地进行交流。而信息,根据尤瓦尔·赫拉利的百万畅销书《人类简史》,是我们作为智人(Homo sapien) 在7万年多前能够在同类中胜出的关键。赫拉利指出大约在七万年前发生的认知革命使智人发展出复杂的语言和沟通技能。这使他们能够分享关于环境、社会结构,甚至抽象概念(如神话和传说)的详细信息。人工智能技术的发展给信息治理带来了最新的可能,但也带来了前所未有的挑战。
C: 治理人工智能与治理其他技术有什么不同?
Y: 嗯,有两个主要区别。首先是人工智能发展的速度。各个政府机构探讨和制订治理规范的速度远远难以赶上人工智能技术发展的速度。 真所谓“计划没有变化快”。其次是人工智能系统具有不需要人机回环 (human in the loop) 的发展趋势。
C: 你能解释一下“人机回环”是什么意思吗?
Y: 人机回环是一种将人类的判断融入人工智能系统的交互方式。是指由于现代AI模型可以通过大量数据进行自我训练和优化,减少了对人类标注和反馈的需求。
C: 那也就是说人工智能最做为一个新技术我们需要去治理它。 这个治理理可以是小到保证大语言模型输出的内容是否正确, 是否安全,大到保证人工智能的持续发展是始终建立在有益于人类发展和福祉的大方向的。这种持续发展是与人类的伦理价值观相符的。
Y: 正是。
C: 那么我们该如何治理人工智能呢?我们应该遵循哪些原则?
Y: 有学者研究比较了包括未来生命研究所, 欧盟的欧洲委员会科学与新技术伦理小组, 英国上议院人工智能委员会在内的国际组织发表的人工智能治理原则,提出了人工智能伦理的五项核心原则。其中四项来自医学伦理学。它们是:行善 或有益性(beneficence), 无害性或避免伤害 (non-maleficence),自主 (autonomy)、正义 ( justice)和可解释性 (explicability)。
C: 今天的内容用词,可能比较学术性。想和大家强调一下的是我们做节目用到的资料基本上是根据我们所读过或参照过的我们认为有价值的资源和学术资料。 我们一般都会把这些资料与我们的谈话文本一起在网站上分享给大家。 有兴趣的话,大家可以去看一下。 好,课代表总结了哈,大家记住这些重要的关键词!让我们一个一个来分析。在人工智能的背景下,“行善”是什么意思?
Y: “行善”本质上意味着人工智能系统应该被设计成做好事。它们应该致力于改善人类福祉,有益于人类的发展进步,避免造成对人类的伤害。具体来说,“beneficence” 包括以下几个方面:
- 促进福祉:AI系统应当设计和使用以提高人类生活质量和社会福利。
- 避免伤害:确保AI系统不会对用户或社会造成任何形式的伤害。
- 公平和公正:确保AI系统的益处公平地分配给所有人
C: “无害”的意思是“不造成伤害”,对吧?
Y: 是的,这是一个很好的说法!这类似于医生的希波克拉底誓言。“无害性”强调防止对用户或社会造成任何形式的伤害,无论是身体上的、心理上的还是经济上的。具体来说,“non-maleficence” 包括以下几个方面:
- 避免直接伤害:确保AI系统不会对用户或社会造成物理、心理或经济上的伤害。
- 预防潜在风险:在设计和部署AI系统时,识别并尽量减少潜在的风险和负面影响。
- 负责任的使用:确保AI系统的使用符合伦理标准,不会被滥用或用于有害目的
C: 所以,这两者粗粗听上去有点相同。实则不一样。“行善”是关于最大化人工智能的积极影响,而“无害”是关于最小化其潜在的负面影响。
Y: 没错!这两个原则在医疗、人工智能等领域都非常重要,确保在追求进步和创新的同时,不会对人类和社会造成负面影响。
C: “自主”呢?这对人工智能意味着什么?
Y: “自主”就是尊重个人的选择权和控制权。在人工智能领域,这意味着确保用户了解人工智能系统的工作原理,并能够控制它们的决策。这也意味确保用户能够理解和控制AI系统的行为和决策。使用AI系统时,用户应当被充分告知它的功能、风险和潜在影响,并在知情的基础上做出使用的决定.
C: 所以,不能偷偷摸摸地让人工智能在没有我们知情或允许的情况下做决定!
Y: 对!然后是“正义”。这一原则强调了公平与公正的重要性。它指的是确保人工智能的利益和风险在社会中公平分配,这包括AI系统应避免对使用者的种族、性别、年龄等方面的偏见和歧视。同时AI系统要确保不同社会群体能够公平地获得和使用AI技术.
C: 这是一个关键点,尤其是考虑到大家担心人工智能会加剧现有的社会不平等。最后一个原则,“可解释性”,是怎么一回事?
Y: “可解释性”强调人工智能系统需要透明度和可理解性。这意味着我们应该能够理解人工智能系统的工作原理以及它们如何做出决策。这对建立信任和确保问责制至关重要。
C: 所以,“可解释性”是人工智能伦理与其他领域真正不同的地方。
Y: 这个“可解释性”原则,既包含认识论意义上的“可理解性”(回答“AI系统是如何工作的?”这个问题),也包含伦理意义上的“问责制”(回答“谁对AI系统的工作方式负责?”这个问题),是人工智能伦理原则至关重要的部分,也是和其他领域的伦理原则最大的区别。
C: 那么有没有具体的例子来说明这些原则是如何付诸实践的?
Y: 有的!欧盟一直走在人工智能监管的最前沿,他们实施了人工智能法案,也就是所谓的EU AI Act. 该法案于2024年8月1日生效。 它根据风险级别对人工智能系统进行分类,从最低风险到不可接受风险,并为每个类别设定了具体的要求。教育被是设为高风险领域。
C: 你能不能给我们具体讲一下风险类别?
Y:在这个法案中人风险被分成四个类别:
- 最低风险:包括垃圾邮件过滤器等系统,无需特定义务。
- 有限风险:如聊天机器人,必须告知用户他们正在与人工智能互动。
- 高风险:包括在医疗和招聘等关键领域使用的人工智能,需严格遵守安全、透明和监督措施。值得一提的是教育被认为是一个高风险领域。
- 不可接受的风险:对安全和基本权利构成重大威胁的人工智能系统,如政府的社会评分,被禁止。
C: 除了风险类别的划分,这个法案还有什么其他的关键点?
Y:这个法案旨在平衡人工智能的益处与潜在风险的缓解,确保人工智能的发展和部署符合欧洲的价值观和基本权利。其他关键点包括:
- 透明度和问责制:法案要求明确标注人工智能生成的内容,并要求高风险人工智能系统进行严格的测试和文档记录。
- 人工监督:高风险人工智能应用必须包括人工干预机制,以确保决策可以被监督和纠正。
- 统一框架:法案在整个欧盟提供一致的监管环境,旨在促进创新的同时保护公民的权利。
C: 除了这个法案,欧盟还有没有发布其他的治理举措吗?
Y: 有的,欧盟不仅出台了这个人工智能法案,之前它还针对人工智能赋能教育和学习,发表了《教育工作者使用人工智能(AI)和数据进行教学和学习的伦理指南》。 这个伦理指南首次发布于2022年10月,旨在为小学和中学教师提供指导,并可供几乎没有或完全没有数字教育经验的教育工作者使用。它澄清了关于人工智能的流行和广泛的误解,这些误解可能会让人们感到困惑并对其使用产生焦虑,尤其是在教育领域。
C: 你上面提到的几个资料链接,我们把它们放在我们网站上的谈话文本里吧,这样方便大家找到。
Y: 好。就像我们之前和大家聊过的。我们不是人工智能技术专家。但是我们对人工智能这个技术本身以及它如何赋能教育和学习非常感兴趣。 我们在持续学习这个话题,希望通过这个播客把消化过的学习内容分享给大家。我的第一个硕士的毕业论文就是研究中国在双减之后人工智能赋能教育(AIED)发展。
C:还有想向说大家抱歉的是有时我们的聊天或文本中会夹杂一些英文的单词。这是因为我们参考的资源和学术资料大多是英文。 为了方便感兴趣的您去查找信息,我们有时会引用这些英文单词。
Y:好。今天我们就聊到这里。在节目结束之前,橙子,你来给简短地我们介绍一下最新的AI技术热点吧?
C: 这几天最劲爆的新闻,无疑是OpenAI正在进行的12天发布会。到今天12月13号我们节目首播的日子,这个12天连续发布会还在进行。会上他们展示了很多新的成果。其中我们以前介绍过的文生视频Sora正式上线,引发了极其热烈反响,大批用户涌入体验网站。人数之多,直接把网站服务器干翻了。各个科技巨头之间的军备竞赛依然是如火如荼。就在OpenAI开发布会的同时,Google发布Gemini 新版本2.0,不仅是性能极大提升,而且值得大家注意的是,它使用的是Google自己的AI芯片Trillium,估计英伟达要紧张了。另外,前几天,Google还宣布推出最新量子芯片Willow。量子计算机一直都是大家期待的一个重大的技术突破。那么这个Willow能给我们带来什么样的惊喜,可能还要拭目以待。
Y: 好。下一期我们和大家聊聊可能是大家和我们都非常感兴趣的一个话题那就是人工智能技术的发展对未来的工作及就业所带来的影响。我们下次节目见。
名人名言
“Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks. - Stefen Hawking
“成功地创造出人工智能可能是人类历史上最伟大的一件事。不幸的是,也可能是最后一件事,除非我们学会如何避免这个风险。”