查看原文
其他

人工智能与未来教育前沿研究|托雷·霍尔 李思琦 孙波:生成式人工智能对欧洲教育的影响及对中国的启示

编辑部 中国教育信息化 2023-09-09

引用格式

托雷·霍尔 李思琦 孙波.生成式人工智能对欧洲教育的影响及对中国的启示[J].中国教育信息化,2023,29(6):008-016.DOI:10.3969/j.issn.1673-8454.2023.06.002

人工智能与未来教育前沿研究

生成式人工智能对欧洲教育的影响及对中国的启示

托雷·霍尔 李思琦 孙波

摘 要: 近期,美国OpenAI公司推出的生成式人工智能工具(ChatGPT)在全球范围内引起了各行各业的兴趣,特别是关于大型语言模型的应用与教育的利害关系引发了格外关注。而随着生成式人工智能技术的推广,关于其影响的辩论在欧洲以及世界各地已持续了数月。在教育领域,有观点认为这种新技术的推广将引发颠覆性变革,也有观点认为技术创新可以影响教育,但却没有改变它最基本的模式和规则。因此,教育界亟需了解和掌握此次技术变革的总体趋势和发展方向,以应对未来教育的变革。通过总结欧洲及大多数西方国家在教育数字化转型中面临的挑战和应对之策,及其对生成式人工智能技术的理解,提出在教育领域引入大型语言模型的机会、风险和挑战。首先,大型语言模型提供了学习机会,可以帮助教师改善教学质量,而这些机会因学习者不同而存在差异;其次,大型语言模型有可能彻底改变教学方式,并辅助教学过程,特别是在个性化学习、教学设计、语言学习专业发展等领域;再次,需要从不同视角来探索大型语言模型在教育中的应用,如学习者视角、教师视角、行政及管理者视角、研究者视角、雇主视角等;最后,大型语言模型也为教育带来了风险和挑战,如版权问题、偏见和公平、学习者对该模型过分依赖、教师对该模型过分依赖、缺乏深度学习和专业知识、模型生成结果与学生作答难以区分等。

关键词: 生成式人工智能;大型语言模型;ChatGPT;教育人工智能;教育评估中图分类号: G434文献标志码: A文章编号: 1673-8454(2023)06-0008-09作者简介: 托雷·霍尔(Tore Hoel)北京师范大学未来教育学院特聘研究员,奥斯陆城市大学高级研究员(挪威奥斯陆 NO-0130);李思琦,共同第一作者、同等贡献者,北京师范大学未来教育学院讲师(广东珠海 519087);孙波,通讯作者,北京师范大学珠海校区副教务长、未来教育学院副院长、人工智能与未来网络研究院教授(广东珠海 519087)

基金项目: 2022年国家自然科学基金青年科学基金项目“区域经济社会文化画像下的教育资源精准分配研究——基于地理信息系统的大数据分析” (编号:62107004);2023年广东省教育科学“十四五”规划项目“核心素养导向的高等师范院校职前科学教师培养研究” (编号:2022GXJK420)


一、引言

 
  当被问及“教育数字化转型”的定义时,ChatGPT(Chat Generative Pre-trained Transformer)的回答为:“教育数字化转型指的是将数字技术整合到教育系统的各个方面,包括教学过程与教学活动,旨在改善学生的学习效果、提高管理效率并优化整体的教育体验。这一过程涉及对传统教学方法的重新思考和重新设计,以充分利用技术的潜力来推动教育的创新、参与和发展。”在不到一秒钟的时间里,ChatGPT就提供了上述定义,从目前来看,基本符合“教育数字化转型”的公认含义。  同样,ChatGPT也能够非常快速地撰写本文的“引言”部分:“近年来,数字化转型一直是一个备受争议的话题,特别是关于其对学校教育的影响。本文旨在研究ChatGPT,一种由OpenAI开发的大型语言模型在欧洲教育数字化转型中的作用。数字化转型指将数字技术融入某一个行业或某一机构所涉的全部领域,使其在运作方式和价值供给方面产生根本的变化。本文将重点讨论ChatGPT对学校教育所带来的负面影响,包括教学的过程、评估方法和教育机会。此外,这里还将深入探讨ChatGPT用于学校教育中所带来的挑战和机遇,及其对未来教育所产生的潜在影响。”  ChatGPT是基于大型语言模型(Large Language Models, LLM)的生成式预训练转换器,于2022年11月30日正式对公众开放。在2023年初,来自教育界及许多其他社会领域的大量报道陆续涌现,汇集了对这个新工具所表达的支持和反对的声音,而这些不同声音的差异取决探讨该现象时所选择的角度。有些人热情地接受了这项新技术,而有些人则建议全面禁止,以维持现有的教育体系。  以前从未有过任何信息通信技术(Information and Communication Technology, ICT)工具可以像ChatGTP一样迅速吸引超1亿的用户,并且当时它仅作为一个测试产品。ChatGPT的成功引起巨大轰动,使其他的大型科技公司不得不重新安排研发计划。2023年2月6日,谷歌发布了其自主研制的聊天机器人Bard,它是“由LaMDA支持的实验性对话AI服务”,且基于谷歌的大型语言模型。2月7日,西方媒体宣布,百度将推出一个比ChatGPT规模更大的生成型人工智能聊天机器人——“这个双语机器人在中国境外被称为ERNIE,在中国境内则被称为‘文心一言’(The Register[1])。” 随后,3月13日,OpenAI公司宣布GPT-4已在其付费服务ChatGPT Plus上可用,并宣布增加API接口的插件支持,供开发人员在其基础之上构建应用程序和服务。

  本文旨在总结欧洲及大多数西方国家在教育数字化转型中面临的挑战和应对之策,为教育领域“痛点”问题的解决提供建议,也为未来可能的挑战提供启示。教育作为社会最基本的文化组织,其进步即使不是颠覆性的变革,也是必须保持能够进一步发展。本文最后从全球观点讨论潜在的研究重点和具体行动。

二、生成式人工智能带来的惊叹和担忧

  
  生成式人工智能技术席卷市场已有一段时间。在此期间,公众争论的焦点集中于技术的艺术创作能力,或者更确切地说,这些技术能否根据文本的提示,创作出仿照著名艺术家风格的创意作品。OpenAI公司所推出的ChatGPT在此基础上有了更进一步的发展:通过简单的文本对话或文本提示,整合来自互联网和其他数字资源中嵌入在大量信息中的相关知识。ChatGPT使用的大型语言模型不需要动态连接互联网来预测问题的答案,仅依据2021年9月之前所获得的信息来推测。值得注意的是,2023年3月,最新版本模型GPT-4的推出,体现了这一技术领域的飞速发展——该版本的工具已开始与同步网络搜索进行交互。  ChatGPT通过与用户的精彩对话,呈现出令专业人士与普通用户都感到惊讶的答案。有报道称,ChatGPT可轻松通过大学许多学科的考试,如法律、自然科学、生命科学等;计算机科学家发现,ChatGPT可以应用多种计算机语言生成完美的代码;教师发现,可以应用ChatGPT撰写教学设计、批改学生论文,并通过生成优秀的讨论要点和推荐学习资源来提升授课质量;科研人员发现,ChatGPT可以在几秒钟内生成他们计划撰写研究论文的初稿。总之,许多专业人士认为,ChatGPT具有显著改变其原有工作流程的潜力,同时他们开始担心这项新技术的潜在缺陷和负面影响。  在教育领域,ChatGPT应用的最直接反响是对考试作弊的强烈谴责,及其对评估方式构成的实质性威胁。ChatGPT并非直接复制粘贴已发布的信息作为答案,而是会不断地生成全新的文本,传统的检测考试作假工具已经无法发挥作用。因此,人们开始进行新工具的研发,以便能够识别出哪些文本是由ChatGPT生成的。此外,包括高校在内的各类学校也发布了紧急规定,禁止在测试和考试中使用类似ChatGPT的生成式人工智能技术,甚至在此期间禁用相关网络。同时,一些批判性文章也开始出现,对这项技术的局限性进行分析,如它在回答问题时缺乏常识和可信度(ChatGPT容易给出错误、无意义的答案,有些答案并无参考来源)。其中不乏深层次的反对意见,如技术缺乏同理心、对数据的需求和电力的巨大消耗等问题[2-4]。  随着备受瞩目的生成式人工智能技术的推广,关于其影响的辩论在欧洲以及世界各地已持续了数月。如今,我们见证了一场更为系统和深入的讨论,探讨这种新技术对社会不同领域的冲击。教育领域有一种观点认为,这种新技术的推广将引发颠覆性变革;但另一种观点认为,技术创新可以影响教育,但却没有改变它最基本的模式和规则。因此,教育界亟需了解和掌握此次技术变革与以往的不同之处,以及其发展的总体趋势和方向。本文将详细介绍面对ChatGPT这类新技术,欧洲教育界所采取的应对措施。  西方国家关于ChatGPT的公开辩论多是关于其呈现知识的优势,以及不断出现严重错误的案例。从全球角度来看,更有趣的是仔细观察ChatGPT的“知识”有多大代表性,即ChatGPT采用何种类型的数据来训练其底层模型。OpenAI公司在这个问题上并未完全公开,但是该公司相关研究人员[5]指出,GPT-3训练数据集主要由过滤后的Webcrawl数据集(开放的PB级大数据集),具有超过8年时间的网络爬取(60%)、用户评价的美国新闻和讨论论坛Webtext2(22%)、两组在线图书库(16%)和维基百科(3%)组成。OpenAI公司的Webcrawl数据集主要使用“.com”域名,且语料库中超过50%的内容是美式英语。虽然书籍语料库的具体内容不为人所知(可能存在版权问题),但其中一些基于互联网的图书可能是自行出版的,因此质量存在不确定性。英文版的维基百科则是一个广为人知、广泛使用的字典类型信息来源,但其提供的信息存在偏见(如大部分词条来自未婚年轻男性的撰写和编辑)。  聊天机器人只能呈现它所接受训练的数据,因此OpenAI公司的布朗(Brown)等人于2020年提出了一些ChatGPT的现存问题与担忧:①性别:男性通常被描绘为强壮和了不起,而女性则被描绘为美丽、怀孕和随和。②种族:与“亚洲人”和“白人”相比,“黑人”常被与消极的情感联系在一起。③宗教:基督教中没有消极的词汇,而伊斯兰教则与“恐怖主义”联系在一起。尽管OpenAI公司在使用GPT-3模型创建聊天机器人时试图纠正一些偏见,但从多元文化和全球知识视角来看,训练模型所使用的数据中存在偏见是该技术面临的重大问题。

三、欧洲教育界对生成式人工智能的理解

 
  加拿大在线资源中心“teachonline.ca”将ChatGPT描述为一款“革命性的人工智能聊天机器人,可以为复杂问题提供长篇回答。它经过训练,可以理解人类提出问题的意图,可能是自现代搜索引擎以来最具影响力的工具”。ChatGPT的第一个版本基于大型语言模型GPT-3,不久后升级为GPT-3.5;从2023年3月开始,产品的Plus版本已升级至GPT-4。在GPT-3和GPT-3.5中,用户输入仅限于文本提示,而在GPT-4中,图片也可以启动该工具的应答。借助OpenAI公司的插件架构,可以在大型语言模型之上构建各种各样的应用程序,实现实时网络搜索,将输出端嵌入其他工具以执行后续一系列流程。然而,无论过程多么复杂,大型语言模型随机性的本质仍保持不变。  当回答问题时,GPT模型会根据先前的词汇预测下一个词汇,就像“填空题”一样。这种简单的基于统计学的工作机制,几乎与智能无关。因此,有学者建议使用“人工预测”这个术语来更准确地描述这项新技术的预期效果[6]。ChatGPT试图产生一个“合理的延续”,无论是对于文本还是其他输入。其中,“合理”是指在看到数十亿个网页中人们已经写过的内容后,就可能预测其他人会写的内容。这里的潜在问题在于,这种技术变成了所谓的“随机鹦鹉”,因为语言模型是一种“随机拼接语言形式序列的系统,按照语言组合的概率信息随意拼接,但不考虑其含义,类似于一个随机学舌的鹦鹉。”[7]  ChatGPT如果只能做出猜测,就无法被称作智能,智能需要以自主性(Agency)为前提。失去自主性往往是引发教育工作者对这项技术恐惧和抵制的根本原因。教育工作者不希望被人工智能机器人取代,代替其进行工作或职位。而“具有前瞻性自主能力”的角色设定,将人类置于中心地位,技术则成为助手——仅在学习者或教师需要时使用并且服务于明确的目的。这种话语框架在欧洲正变得越来越普及,其目的是尝试超越对新事物禁止的倾向。  值得注意的是,OpenAI公司并不试图将ChatGPT定位为“智能圣人”或“真理者”。该公司意识到,识别由人工智能生成的文本,已经成为教育工作者讨论的重点话题。而同等重要的是,需要认识到人工智能编写不同类型文本时的局限性和影响,尤其是在课堂中[8]。为了应对批评,OpenAI公司开发了一项用于教育工作者使用ChatGPT的辅助资源——用于区分人工智能生成文本和人类编写文本的分类器。该工具的可靠性目前还未被完全论证,并且许多学者对其未来应用的可信程度也存有疑虑。2023年2月,OpenAI公司与教育工作者取得联系,以进一步了解其并不完善的“作弊检测器”,在一定程度上是否有效。  (一)对教育评估的干扰  在教育领域应用ChatGPT的最大担忧之一,是其引起的考试作弊和文本抄袭。一些学校已经开始禁用与之相关的设备并屏蔽关联的网络。如上文所述,OpenAI公司发布了人工智能识别工具以部分解决这些问题,然而其提供的文本分类器并不能实质用于防止作弊。目前,教育工作者可以采取的唯一措施是鼓励学生更加诚实透明地使用聊天机器人。以上内容引发了一场关于教育评估更高层次的辩论:评估的作用究竟是什么?应当如何恰当使用评估来支持学习?正如挪威一所大学的五位管理者所说:“对我们而言,新的聊天机器人所带来的挑战与我们已面临的问题实际上具有相似性,即如何找到既公正又能适当推动学生学习的评估方式?”[9]

  与此同时,一些教师正在绞尽脑汁思考这些问题,并将聊天机器人与体育中的兴奋剂进行比较:“聊天机器人就像兴奋剂注射一样——随着更新迭代,它们越来越不易被识别。ChatGPT仅仅是一个开端,几个月后它也将更加先进。那时我们便必须考虑,如何让学生在没有聊天机器人的支持下展示其所掌握的知识。[10]”这些教师认为,他们可能不需要再应用“家庭测评”(让学生在家中完成一篇文章并在截止日期前提交),并在大学里实施可控条件下的高风险(high stake)测试。相关报道如图1所示。

图1 英国《泰晤士报》2023年1月31日文章

  除了组织有关新形势的讲座和会议外,挪威的大学管理者似乎将更多资源投入到培训负责不同学科的关键教师中——如何更好地制定考试中的问题和任务,以及如何进一步设计可替代考试的评估过程。有观点表明,聊天机器人是可用于工作环境中的人工智能工具,而学生需要为通过 “可信度测试”做好准备以真正加入工作。正如上述提及的挪威大学管理者得出的结论:“聊天机器人可以回答提问者有关儿童语言发展的问题,但如果回答需要与提问者在幼儿园实践中的经验、在课程中看到的视频以及课程大纲中涉及的内容联系起来,聊天机器人并不能提供出色的答案。因此,一种解决方案是创设更加复杂的任务形式,即与学习成果明确相关的、可替代传统评估的形式,以及可激励学生在完整学期中持续付出的学习动机。而多元化评估方式限制了机器人提供的作弊可能,如口试。”  这些管理者认为作弊是错误的学习和教学方法的表现。他们认为,“应该集中精力预防作弊的出现,而不是仅在测试后揭露不当行为。采用反思、循环反馈、个人经验和工作生活紧密结合的评估形式,既能激励学习,又能加大应用聊天机器人实现抄袭的难度。与教学人员保持密切联系、在学习过程中能够得到反馈、对学习环境感到满意的学生,往往能够学习到更多,并少有作弊行为。故意作弊往往是因为学生对学习失去希望,如学生的学习任务重、成绩压力大以及看不到学习的目的。”  (二)对学术诚信带来的潜在风险  2023年1月30日,英国高等教育质量保障机构(UK Quality Assurance Agency for Higher Education, QAA)发布《人工智能软件的兴起和学术诚信的潜在风险:高等教育提供者的QAA简报》(The Rise of Artificial Intelligence Software and Potential Risks for Academic Integrity: A QAA Briefing Paper for Higher Education Providers, 以下简称QAA简报)[11],旨在向高等教育机构表明人工智能对学术诚信可能带来的潜在风险。QAA简报指出,基于大型语言模型的生成方式,所有基于文本的评估都可能受到影响。“以这种方式创建的作品可能很难被识别,并且传统的抄袭识别工具也无法检测出来”。  QAA简报提出了支持考核诚信、维护标准和引导未来实践的建议。这些建议相较而言比较温和,并间接警示人们不要恐慌,如不必要在考试期间禁止使用互联网、在大学中禁用人工智能工具等。QAA简报还建议尽早与学生沟通,更新学生声明并修订政策、优化实践;在设计考核时,应与学生和教师共同探讨,使他们了解真实且创新的考核形式及其益处,而不是将资源耗费在通过软件检测由大型语言模型和其他人工智能工具生成的文本。QAA简报指出:“这是一个与学生合作并使其信任评估过程的机会,这些评估过程是共同创建、迭代和支持批判性思维的。”  关于促进学术诚信的实践,QAA简报倡导强调以学生学习作为核心,与学生进行真诚的对话,讨论不经审辨地使用人工智能工具的危害,并扩展所在机构现有的数字素养战略,以包含人工智能素养。此外,QAA简报还提到其他的软性方法,如传达诚信的价值观、讨论何为学术不端行为、识别可提供支持的网络、形成对结果的责任意识、强调信息更新以及参与建议和指导等。  OpenAI公司也意识到ChatGPT存在瑕疵。该公司已发布简要概述[12],告知教育工作者在使用ChatGPT时应主要考虑的问题,包括:①它可能会产生并延续有害的、有偏见的内容。②它通常会输出不准确的信息。③它不应该被视为一种可靠的评估工具。④它可能在回答自然科学或社会科学的复杂问题上表现不佳。⑤验证人工智能的建议通常需要高水平的专业知识。⑥人工智能并不能代替学生进行学习。

四、在教育中引入大型语言模型的机会、风险和挑战

  
  以上内容介绍了以ChatGPT为例的大型语言模型在教育中应用的争论,并明确表明需要更多信息来解读其对于教育的影响。虽然引入大型语言模型可能会为学习者提供更多元化的机会,甚至有可能彻底改革教与学的过程,但这些应用同时也会带来较高风险和严峻挑战。大型语言模型在教育领域应用是具有复杂性的,以下是梳理与凝练后的一些观点:  (一)提供学习机会  大型语言模型提供了学习机会,可以帮助教师改善教学质量,包括:①提高阅读和写作技能(练习不同的写作风格)。②生成问题和提示。③发展批判性思维技能。④通过向学生提供对复杂文本的总结和解释,帮助其发展阅读理解技能。⑤帮助学生学习一种语言及基于这种语言风格的各种主题写作。⑥提升解决问题的能力。⑦生成文本摘要和提纲。⑧提高研究技能。⑨促进小组讨论。⑩提高学生在协作写作活动中的投入度和参与度。提供更多开放的研究问题。⑫改善特定领域的语言技能。⑬提升学生程序编写、报告撰写、项目管理、决策制定、解决问题等技能。  (二)存在差异  上述机会因学习者不同而存在差异,如小学生、初中与高中学生、大学生、远程学习的学生、残疾学习者、专业培训的参与者等。  (三)可能彻底改变教学方式的领域  ChatGPT使用的大型语言模型有可能彻底改变教学方式,并辅助教学过程,特别是在以下领域:个性化学习、教学设计、语言学习、研究和写作、专业发展、测量与评价、人工智能伦理等。  (四)从不同视角进行探索  需要从不同视角来探索大型语言模型在教育中的应用,如学习者视角、教师视角、行政及管理者视角、教学设计和内容开发者视角、研究者视角、雇主视角。  (五)风险和挑战  大型语言模型也为教育带来了风险和挑战[2],包括:版权问题、偏见和公平、学习者对该模型过分依赖、教师对该模型过分依赖、缺乏深度学习和专业知识、模型生成结果与学生作答难以区分、模型训练和维护的高成本、数据隐私和安全的威胁、不可持续使用、验证信息和维护完整性的高成本、难以区分真正的知识,以及虽然令人信服的但未经实证的模型输出结果、缺乏适应性、缺乏适当的接口(不同组件或系统之间交互的方式和规范)、缺乏对多语种和公平获取的支持。  事实上,许多问题并非仅存在于教育领域。在欧洲,人们普遍感觉教育人工智能应用的收益相对滞后。若要改变这种状况,就需要对教育的具体问题进行更多研究和开发,从而获得能够立即转化为课堂教学,以及大型讲座中可以实际应用的知识。因此,与教育相关的问题应优先考虑,并从不同视角,针对不同角色,对新技术在教育中的应用进行研讨。

五、大型语言模型在中国教育中的应用探讨

  
  OpenAI公司没有在中国推出大型语言模型服务是有原因的。中国用户需要基于中文数据训练的大型语言模型,而不是像ChatGPT那样主要基于美国的英语数据。欧洲各界均意识到:“最成功的人工智能语言模型会来自美国和中国”(OpenGPT-X[13])。因此,欧洲正在建立和训练针对欧洲经济和文化需求的大型语言模型,如德国的OpenGPT-X项目和瑞典的GPT-SW3项目[14](基于北欧语系建立的大型语言模型)。  许多中国开发的生成式人工智能工具已面市,还有更多正在研发中,这为推进教育创新提供了巨大机遇。总体来说,中国教师对教育中的人工智能应用持有积极态度。然而,为了在该背景下进一步作好规划和实施,有必要深入了解人工智能工具在不同教育背景下的整合方式。例如,韩国最近研究表明,持有建构主义理念的教师(学习者并非知识的被动接受者,而是在与其他学习者的互动中共同构建的知识),比以传输知识为主的传统行为主义导向的教师,更有可能在日常教学中融入人工智能工具[15]。考虑到目前以知识灌输为主的教学方法在中国更为普遍,这一观察结果可能激发人们在中国的学校和大学中,尝试与其他国家不同的人工智能支持学习设计。  无论是中国还是西方国家的教育工作者,此时都面临着共同的挑战,即如何将大型语言模型应用于最新的、已经证实有效的教与学方法中。在2023年2月6日举行的GRAILE网络研讨会上,澳大利亚莫纳什大学的德拉甘·加塞维奇(Dragan Gaševič)教授提出了三个重要问题:一是如何与能够提供所有问题答案、进行流畅聊天的聊天机器人进行交互?教育研究表明,过度的流畅性可能会对学习产生负面影响——会滞后师生元认知的发展,而学生通过解决困惑来学习,其学习过程中也存在着积极带来的失败。那么,教师应该如何教导学生识别这些新工具的弱点,并让其更聪明地提出有效问题并避免得到无用的回答。二是如何利用人工智能机器人获得有效的反馈?目前这些工具似乎无法在自主学习中提供反馈。那么,教师应该如何与其进行互动,以创造深度学习所必需的更深层次参与。三是如何使聊天机器人能够支持更有效的学习过程?聊天机器人专注于答案的生成,而不是呈现学习过程。那么,教师应该如何通过与其互动,以支持更有效的学习过程。

六、结论与展望

  
  直至ChatGPT问世,已经许久未见一项新技术,能够在短时间内引起教育领域对当前和未来教学方法的思考与质疑。尤其是,这种现象是由一项试用产品(还在征求和回应市场意见的测试服务)带来的。ChatGPT只是众多建立在相似底层技术之上的工具之一,这系列工具发展变革之快,甚至我们都无法预见一年后这些工具可能提供给公众的功能。但无法忽略的是,国际社会正在逐渐达成共识:ChatGPT的升级版模型GPT-4仅仅是一个开端,相关技术的发展必将颠覆传统教育模式。  从一个观察者的角度来看,生成式人工智能对未来中国教育的影响非常不清晰。需要新技术在实际使用中测试的数据和结论,同时也需要建立相关的研究和开发项目,以便教师和教育系统的其他专业人员,能够更容易地就如何使用作出正确决策。例如,基于多重视角设计的跨文化项目或可有效促进这种知识建构。本文仅是一个初步尝试,旨在说明重要的事情即将发生,需要教育决策者、参与者的更多关注。  我们需要尝试依据证据作出回应,回答教育领域各个层面可能提出的问题。首先,教师会提出问题。例如,对于“懂得使用人工智能工具并愿意花费几分钟调整其生成答案”的学生,教师如何知道其是否进行了学习?又如何测评其学到了什么?以及当教师准备拥抱人工智能,并对其为教育可能带来的改变感到兴奋时,却不知道该去哪里学习相关知识。其次,教育管理者会提出问题。例如,应用人工智能工具进行教育管理,是否会扰乱正常的工作秩序?再次,学生会提出问题。例如,当学生可以使用新的人工智能工具时,是否还需要参加学校的教育活动?最后,家长会提出问题。例如,在人工智能的大环境下,家长应该如何指导孩子进行学习?  2022年末,生成式人工智能技术取得突破性进展,有关如何运用学习技术促进教育变革的讨论发生了重大转变,而对该话题论述的广度和深度也日益增强,亟需教育工作者在这场辩论中发挥领航作用。虽然未来难以预测,但回归技术与教育的本质进行思考,会为解决现有困惑提供清晰的思路。

参考文献: 

  [1]OpenAi. China’s Baidu reveals generative AI chatbot based on language model bigger than GPT-3[EB/OL].(2023-02-07)[2023-04-18]. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/.

  [2]KASNECI E, SEBLER K, KUCHEMANN S, et al. ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education[J/OL].(2023-02-23)[2023-04-18]. https://doi.org/10.35542/osf.io/5er8f.

  [3]SUSNJAK T. ChatGPT: The End of Online Exam Integrity?[EB/OL].(2022-12-19)[ 2023-04-18]. https://doi.org/10.48550/arxiv.2212.09292.

  [4]AHMED T. What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education[J]. Smart Learning Environments, 2023(1):15.

  [5]BROWN T, MANN B, RYDER N. Language models are few-shot learners[J]. Proceedings of the 34th International Conference on Neural Information Processing Systems, 2021,33:1877-1901.

  [6]JOHNSON M. AI, Technical architecture and the future of education[EB/OL].(2023-01-30)[2023-04-18]. http://dailyimprovisation.blogspot.com/2023/01/ai-technical-architecture-and-future-of.html.

  [7]BENDER E M, GEBRU T, SHMITCHELL S, et al. On the dangers of stochastic parrots: can Language models be too big[C]. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 2021: 610-623[2023-04-18]. https://doi.org/10.1145/3442188.3445922.

  [8]OpenAI. New AI classifier for indicating AI-written text[EB/OL].(2023-01-31)[2023-04-18]. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/.

  [9]KHRONO. Robotfusk-nye og gamle problemer[EB/OL].(2023-01-30)[2023-04-18]. https://khrono.no/robotfusk-nye-og-gamle-problemer/754671.

  [10]KHRONO. Faglærer om samtalerobot: Dette er som doping[EB/OL].(2023-02-01)[2023-04-18]. https://khrono.no/faglaerer-om-samtalerobot-dette-er-som-doping/755479.

  [11]QAA. The rise of artificial intelligence software and potential risks for academic integrity: A QAA briefing paper for higher education providers[EB/OL].(2023-01-30)[2023-04-18]. https://www.qaa.ac.uk/docs/qaa/members/the-rise-of-artificial-intelligence-software-and-potential-risks-for-academic-integrity.pdf?sfvrsn=ebb0a981_6.

  [12]OpenAI. Educator considerations for ChatGPT[EB/OL].(2023)[2023-04-18]. https://platform.openai.com/docs/chatgpt-education.

  [13]The OpenGPT-X project[EB/OL].(2023)[2023-04-18]. https://opengpt-x.de/en/project.

  [14]Pre-release of GPT-SW3[EB/OL].(2023-01-23)[2023-04-18]. https://www.ai.se/en/news/pre-release-gpt-sw3.

  [15]CHOI S, JANG Y, KIM H. Influence of pedagogical beliefs and perceived trust on teachers’ acceptance of educational artificial intelligence tools[J]. International Journal of Human-Computer Interaction, 2023,39(4):910-922.


Generative AI Based on Large Language Models Disrupts European EducationTore HOEL1,2, Siqi LI1, Bo SUN1

(1.College of Education for the Future, Beijing Normal University, Zhuhai 519087, Guangdong;

2.Media and Academic Research Unit, Oslo Metropolitan University, Oslo NO-0130, Norway)


Abstract: The recent launch of generative AI technologies has prompted a worldwide interest in how large language models could enhance or disrupt education. With the promotion of generative artificial intelligence technology, the debate about its impact has been ongoing for several months in Europe and around the world. In the field of education, there is a view that the promotion of this new technology will trigger disruptive change, while another view regards that technological innovation can affect education, but it has not changed the most basic educational patterns and rules. Therefore, the education community urgently needs to understand and grasp the overall trend and development direction of this technological change in order to cope with future educational changes. By summarizing the challenges and countermeasures faced by Europe and most western countries in the Digital transformation, as well as their understanding of generative AI technology, suggestions are provided for solving the “pain points” in the field of education. Firstly, large-scale language models provide learning opportunities that can help teachers improve teaching quality, and these opportunities vary depending on learners; Secondly, large-scale language models may completely change teaching methods and assist the teaching process, especially in areas such as personalized learning, instructional design, and professional development of language learning; Thirdly, it is necessary to explore the application of large-scale language models in education from different perspectives, such as learner’s perspective, teacher’s perspective, administrative and managerial perspective, researcher’s perspective, employer’s perspective, etc; Finally, large-scale language models also bring risks and challenges to education, such as copyright issues, bias and fairness, learners’ excessive reliance on models, teachers’ excessive reliance on models, lack of deep learning and professional knowledge, and difficulty in distinguishing model generation results from student responses.Keywords: Generative artificial intelligence; Large language models; ChatGPT; AI in education; Education evaluation

编辑:王晓明   校对:李晓萍



往期目录|超链接版

《中国教育信息化》2023年第4期


《中国教育信息化》2023年第3期


《中国教育信息化》2023年第2期


《中国教育信息化》2023年第1期





点击此处 在线投稿


期刊简介

《中国教育信息化》创刊于1995年8月,是由中华人民共和国教育部主管,教育部教育管理信息中心主办,面向国内外公开发行的国家级学术期刊。期刊内容力求全面深入地记录我国教育信息化的建设进展、研究与应用成果和行业发展状况,开展我国教育信息化发展状况调研和教育信息化国际比较研究,服务于国家教育宏观决策;力求全面准确地把握教育信息化相关的方针政策和标准规范,及时追踪ICT前沿技术的发展趋势及其与教育的融合,深度挖掘教育信息化建设与应用的体制、机制创新,服务于我国教育信息化实践。


●RCCSE中国核心学术期刊

●中国人文社会科学(AMI)扩展期刊

●中国期刊全文数据库收录期刊

●中文科技期刊数据库收录期刊

●国家哲学社会科学学术期刊数据库收录期刊

●中国核心期刊(遴选)数据库收录期刊

●龙源期刊网收录期刊


一年12期,每月20日出版

20元 / 期,邮发代号:82-761

编辑部邮箱:mis@moe.edu.cn

通讯地址:北京市西城区华远北街2号921室

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存