19.  如何在工作和学习中安全使用生成式人工智能

这一期节目从教育者和技术工作者的角度,来谈如何安全地使用生成式人工智能。主持人学生使用生成式人工智能的时候常犯的错误开始谈起,总结了三类最常见的问题,说明了数据泄露,和情感上过分依赖AI的潜在危险。给出三个实用的安全使用原则,以及具体的操作方法:

  1. 数据脱敏
  2. 平台选择原则
  3. 输出内容审查原则

最后对学生,家长,和老师分别给出不同的建议。

  • 叶老师,橙子Author for 4edu.ai
  • 26/12/2025
  • Education, AI
  • Podcast

第一季,第19集

叶老师: 大家好,欢迎收听叶老师ai教育爱教育治档节目。我是叶老师。

橙子:大家好,我是橙子。

叶老师: 今天呢,我们两个客代表啊,要和大家聊一个特别重要的话题。上周呢, 有学生告诉我,说他通过生成式人工智能工具帮助写作。结果呀,这个工具生成的内容里面呢,居然出现了他的一些真实的个人信息。他当时用这个工具写提示词的时候,是可能直接把作文要求和一些个人信息全部输入进去了,完全没有意识到这有什么问题。

橙子: 这个案例其实非常典型了。那么很多人,不只是学生,包括成年人,在使用AI工具时呢,都会犯类似的错误。他们经常把AI当成一个完全私密的助手。殊不知,你输入的每一条信息呢,都可能被记录、分析,甚至是用于模型的训练。如果只是用于模型训练呢,那也就罢了。更糟糕的情况是,有一些非常私密的信息,会被人恶意地调用出来,或者被非法的贩卖,恶意的使用。

叶老师: 是的,今天呢,我们就从教育者和技术工作者的角度,来聊聊如何安全地使用生成式人工智能。无论这些AI工具是国内的豆包,混元,文心一言。。。还是国外的ChatGPT, Gemini等等,这些安全使用的原则其实都是通用的。那这期节目呢,适合我们的学生呢,家长呢,还有我们的教育工作者。

橙子:哎,好。叶老师,从你的角度来看啊,学生们在使用ChatGPT、或者是文心一言这些工具的时候,最常犯的错误有哪些呢?

叶老师: 我总结了三类最常见的问题吧。那第一类就是刚才说的,直接粘贴个人的信息。比如让这些工具帮忙写自我介绍的时候,就把姓名、学校、班级、甚至家长的电话号码都输进去了。第二类是上传包含敏感内容的文档。那比如说有的学生会把自己班级的成绩单截图上传,让AI的话呢,帮忙分析一些数据。那第三类的话呢,是分享学校内部的资料,比如说考试题目啊,内部通知啊,然后让这些工具呢,帮忙做总结,或者是翻译。

橙子: 其实这三类问题背后的风险是一样的,就是数据泄露。那我从技术角度来解释一下。首先,当你在这些AI平台输入信息​​的时候呢,这些数据通常会被存储在服务器上面。虽然呢,主流平台都声称会保护用户隐私,但是不同平台的隐私政策差异还是很大的。

叶老师: 那他们具体有一些什么样的差异呢?

橙子: 比如说有些平台啊,它明确表示:不会用用户的对话数据来训练模型。但是有些平台则会用的。这就意味著你今天输入的个人信息呢,很快就会成为模型训练数据的一部分,甚至可能在别人使用AI时被被所谓的"回忆"出来,就是出现在AI给出答案当中。当然了,这种概率呢,还是很小的。但是风险的确是存在的。

叶老师: 听上去真的是很可怕的。

橙子: 对。另外还有账号安全的问题。很多学生呢,会用同一个密码注册多个AI平台,一旦某个平台发生数据泄露,那就有就可能导致连锁反应。那我见过有人因为账号被盗,导致其中存储的对话记录被他人访问。而这些对话记录里面呢,又包含了大量的工作文档和个人的想法。

叶老师: 那这样说的话,数据泄漏是非常普遍的一个安全问题吧。我想不仅仅是学生,我们成年人的话,其实也是要非常警惕的。还有喔,就刚才提到学生的时候,我就想到呢,在学生当中会发生的一些情况:就是说有些学生会把这些工具当成情感的树洞,每一天,倾诉自己的烦恼。这看起来好像无害,但是其实实际上是有隐患的。

橙子:是的。有家长可能不以为然。我甚至还看到百万粉丝的育儿博主,还鼓励这种做法。这其实呢,是把学生,特别是未成年人暴露在一个危险的境地。人工智能的设计目标是'帮助'和'让用户满意'。这意味着它可能无意中会迎合你的偏见,而不是像真正的朋友,或者是专业的咨询师那样给你真实的,诚实的反馈。

叶老师: 我就听说有一个学生呢,他因为在学校呢,受到排挤,那他每天呢,就向AI倾诉。AI总是安慰他'你没有错,是别人的问题'。结果呢,半年之后啊,这个孩子逐渐的就是,失去了反思和改善人际关系的能力,让他自己变得更加的孤立。

橙子:从技术角度来说呢,其实这个AI它不是真正具备了共情的能力。学生呢,可能会陷入倾诉,然后被安慰,继续倾诉,然后再被安慰这样的循环。AI它不会像心理咨询师那样来挑战这种认知的扭曲,从而延误了真正寻求专业帮助的时机。另外一个更重要的问题是,人是需要真实的社会连接的。那如果发现小孩过度依赖ai进行情感倾诉的话,这可能就是一个需要关注的信号。

叶老师:我觉得也是的。现实生活中,像这些ai工具这样子"完美的倾听者"在现实当中是不存在。如果长期依赖于这些工具寻求情感共鸣,反而更容易离真实的社会越来越远吧。特别是未成年人,那么很容易,反而是走到成年人的对立面。

橙子:对的,那还有一个问题是,就是在这样的情感倾诉当中呢,人们经常忽略一些隐私和敏感信息。所以呢,我们是不支持这样做的。

叶老师: 那么具体怎么做才能够安全地使用生成式人工智能呢?

橙子: 我认为第一个原则是数据脱敏。简单的说呢,就是在使用人工智能之前呢,要先处理掉那些能识别身份的信息。那我给大家举个例子啊。如果学生想让AI帮助修改作文,那么在输入你的信息之前呢,应该把文字里的具体姓名,学校的名称都换成某某某或者是abcd这样模糊的表达。这样呢,即使对话记录被泄露了,也很难追溯到具体的个人。

叶老师:那除了姓名和学校,还有哪些信息也需要脱敏呢?

橙子: 我可以列一个短的清单,比如说:身份证号、家庭住址、父母姓名和工作单位、电话号码、邮箱地址、照片,还有一些特殊的标识,比如说学号、准考证号等等。

叶老师: 那这些是信息。那除了信息之外,还有一些照片呢?那我们现在很多的这些工具都支持图片识别。

橙子:照片是可以上传。但是呢,上传的时候一定要注意

  • 如果你照片上有人脸的话呢,最好是打码或者是直接裁减掉人脸的部分。实际上,很多比较知名的AI工具,像微软的Copilet之类,他是直接不允许上传带人脸的照片的。
  • 那如果你的照片里包含文字的话,比如身份证、学生证,绝对不能够上传的。
  • 上传照片之前,最好清除照片的元数据。就是照片自带的一些信息,比如说拍摄的地点拍摄的时间,拍摄工具的型号参数,以及照片曾经被修改历史等等。

叶老师: 这个技术含量好像有点高,那是不是家长和学生们可能不会太不太会操作啊?

橙子:我可以教大家一个最简单的办法,就是用截图来替代原始的照片。这个好处呢,就是照片里面的这个元数据是不会显示在照片上的,那截图的话呢,就没有办法捕捉到,所以也就没有这个顾虑了。另外呢,你自己也可以调整截图的部位。这样你不想出现在照片里的东西呢,就可以把它去掉不放在截图里面,比较好控制了。

叶老师:那截图的话,会不会也形成自己的元数据啊?

橙子:对的。所以截图呢,也不是一个百分之百安全的做法。而且截图也不会自动抹去一些敏感信息,比如你的身份证号码什么的。所以有安全意识,这个才是最重要的。另外大家可以找一些可靠的元数据清理工具来处理图片。

叶老师: 好的,这是第一个原则——数据脱敏。第二个原则呢?

橙子: 第二个是平台选择原则。大家要知道,不是所有的ai平台呢,都是一样安全的。我建议大家在选择平台时注意三点:第一,要选择知名度比较高、口碑比较好的平台,比如OpenAI的ChatGPT、百度的文心一言、阿里的通义千问。那这些公司呢,它有著比较完善的安全机制;第二呢,就是要仔细阅读隐私政策,特别注意平台是否会用你的数据进行模型的训练;第三,如果是处理比较敏感的内容呢,尽量选择付费的企业版或者私有化部署的版本,这个对数据的保护是比较好的。

叶老师: 那从教育的角度,我还想补充一点。就是说,对于中小学生呢,我建议家长和老师帮忙选择和设置这些工具,不要让孩子们自己随便注册使用。因为有些不正规的平台可能会有内容审核不严的问题。那小朋友们呢,可能会接触到不适合他们的信息。

橙子: 对,这个是非常重要的一个提醒。现在市面上的这个人工智能工具呢,确实是很多鱼龙混杂的。

叶老师: 那还有就是,我想从教师的角度来说,还有一个原则,那就是输出内容审查。AI生成的内容不能直接地使用,必须要经过人工的审查。有一些学生呢,会直接把这些生成式人工智能帮助生成的答案呢,当做作作业直接提交,完全不检查。那但是呢,我们已经知道了,这些工具经常会"一本正经地胡说八道",编造一些看似合理实际错误的信息。那比如说我让学生写小论文同时要引证文献。结果呢,有的学生引证的文献,它根本不存在。但是呢,这些文献的格式啊,完全正确,一眼根本就不看不出来。

橙子: 这个在AI领域叫"幻觉"现象。生成是人工智能是基于概率生成文本的,它只是生成看起来合理的文字。所以用户必须对输出内容进行事实核查。

叶老师: 除了准确性,还有原创性和版权问题吧。因为这些工具可能会生成与已有作品高度相似的内容。那如果学生直接提交的话呢,可能会被判定为抄袭。

橙子: 对的,AI生成的内容在法律上的版权归属还有争议的。但是在学术界和教育领域呢,我觉得我们应该保持一个比较高的标准。那我的建议呢,是把AI当成一个参考工具,而不是替代品。你可以用它来获得灵感、整理思路,但最终的作品必须是自己的思考和创作的结果。

叶老师: 完全同意,也就是我们说的ai工具是辅助,不是替代。这个呀,也是我们一直一直苦口婆心强调的理念。哎,橙子啊,你要不要从技术安全的角度,给我们学生,家长,还有教育者这些不同的群体,提起提一些具体的建议啊?

橙子:好的。那有一些安全原则呢,我觉得是所有人应该知道遵守的安全上网原则。那这里呢,我不再多花时间讲。有兴趣的听众朋友们呢,可以去我们的网站看一看,我们会把它放在的文本最后。 我们在这里呢,还是针对学生,家长和老师给一些具体的建议吧。叶老师,你来先谈一谈给学生的建议好不好?

叶老师: 好,我觉得总结起来,有"三个不要":不要输入真实的个人信息;不要完全依赖AI完成作业;也不要呢,在没有成人监督的情况下使用陌生的AI工具平台。那“三个要”的话,也就是刚才橙子,你前面提到的,要学会脱敏处理信息;要对这些工具生成的内容呢,进行核实和修改;最后一点非常非常重要的是,要在使用这些生成式人工智能工具的时候呢,保持独立思考的能力。毕竟我们是人了,不是机器。

橙子:我补充一条啊,就是你刚才在说到脱敏处理的时候,那还有一点就是:如果可能呢,应该优先采用“纯文字 (text-only)” AI 工具/服务,而不是图像 + 文本混合。因为有的时候你觉得自己在文字里没透露什么重要的信息,比如说我只是在文字里写,我在北京上学;但是我上传的图片里呢,出现了学校附近的公交车的站牌。现在的人工智能技术是完全能够分析出来,你是在学校具体的哪一所学校上学的。我就补充这一点。

叶老师: 好,那如果是对家长们来说的一些建议。我觉得家长首先自己要了解这些工具。不能自己不懂,却去限制小朋友们的使用,我想这样反而会失去疏导的机会。那我觉得应该作为家长的话,要和小朋友们呢,一起去注册和使用这些工具。那在最初的使用当中呢,陪伴他们,示范正确的使用方式。

橙子:对的。家长呢,同时还应该设置一些使用的规则,比如说要告诉小朋友,不可以生成不合适的内容,比如说有暴力倾向的;或者是带有歧视的;或者是做什么换脸恶作剧这些东西。另外呢,可以规定孩子只能使用特定的几个ai平台,并且经常抽查孩子在使用人工智能完成作业的时候所进行的对话记录,来帮助孩子养成安全意识。另外,家长要关注孩子是否过度依赖AI,如果发现有过度依赖的倾向呢,要及时地进行干预。重要的是,要不断重复安全问题的重要性,隔一段时候就要和小朋友谈一谈这个问题,要保持警钟长嘛。

叶老师: 最后我们再来聊一下给教育工作者的建议吧。那作为老师呢,我觉得我们首先在课堂上,要明确地讲解这些工具使用的安全规范和学术诚信要求。那最重要的是,不要担心学生们的滥用就完全绝对的禁止。而是要引导他们如何正确的使用。

橙子: 老师在自己使用AI工具处理学生信息时也要特别小心。比如说,不要把学生的成绩单,或者是个人档案传到AI平台进行分析;不要在对话中输入学生的真实姓名和详细信息。如果确实需要用AI辅助教学工作的话,一定要做好信息的脱敏处理。

叶老师:喔,对我们作为教育者呢,要以身作则,做好示范。然后作为我觉得学校层面上来说啊,也可以考虑提供官方推荐的AI工具清单,甚至呢,一些企业版的账号,让学生和老师们使用,这样的话更安全可控。

橙子: 好,今天我们的节目呢,就接近尾声了。那我来总结一下核心要点。第一是使用人工智能之前要进行数据的脱敏,不要输入能识别身份的敏感信息;第二是选择安全可靠的主流平台;第三呢,对人工智能生成的内容要审查和核实;第四,我们要保持独立思考,要把人工智能当作是辅助工具,而不是替代品。
叶老师:AI技术发展这么快,那它给我们的工作和学习呢,带来了巨大的便利。但是我们的安全意识的话必须跟上。希望今天的分享呢,能够帮助到大家,更安全,更负责的使用这些工具。让我们记住那技术呢,它不是中性的。最重要的一点呢,是我们如何去使用它们。

橙子:如果大家有任何问题,或者是想和我们分享自己的经验,欢迎大家和我们联系。新的一年马上又要到了,我们在这里提前祝大家新年快乐,万事如意!那我们下期节目再见。

叶老师: 再见!

名人名言

The more that you read, the more things you will know. The more that you learn, the more places you’ll go. - Dr. Seuss
“你读得越多,知道的就越多;你学得越多,去的地方就越多。” - 苏斯 博士