12月11日下午,图书馆主办的“信息素质工作坊•AI工具应用分享会”在图书馆南配楼艺术鉴赏厅举行。北京大学信息管理系情报学博士研究生王兆基以“AI赋能学习与科研:让大语言模型成为你的学术助手”为题作分享。来自校内外的160余名听众参加本次分享会。讲座由图书馆协同服务中心副主任刘雅琼主持。
讲座现场
随着人工智能技术的快速发展,大模型正在改变人们的学习和工作方式。如何有效运用这一新兴技术工具提升学术研究效率,已成为学界普遍关注的话题。王兆基结合具体案例,详细讲解了如何更好地使用大语言模型开展学术工作。他介绍了与大模型进行有效对话的科学方法,即“提示工程”技术,并展示了大模型在学习与科研中的实际应用。他还探讨了运用大模型时应当注意的科研伦理与学术规范。
王兆基将大模型比喻为“知识渊博但需要精确指引的助手”,并指出,这类AI助手必须接收合适的指令才能发挥潜力。他强调,有效运用大语言模型的关键在于掌握恰当的对话方法,也就是“提示工程”技术。这种技术的核心在于设计清晰、得当的指令,引导大模型理解我们的意图并给出合适的回答。他通过具体案例详细讲解了优化提示的多种方法,包括示例引导、思维链构建、结构化标记使用、角色定位、分步引导和预填回应等方法。综合运用这些方法能够显著提升大模型的回应质量。
在学术应用方面,王兆基分享了大模型在文献解读、学术写作和代码编程等场景中的应用案例。他还介绍了通过编程接口调用大模型来支撑研究工作的方法,如标注数据、模拟社会实验等。他强调:AI是来协助人类的,并不是来取代人类的。它是一个聪明的助手,帮助我们处理一些繁琐的任务,让我们把更多的精力放在真正需要人类智慧的地方。通过实例展示,王兆基让大家看到大模型是如何在学术研究领域帮助我们提高效率的,他也倡导大家在更广泛的领域探索AI赋能的潜力。
王兆基作分享
“大模型的幻觉问题是不可避免的,它总有可能生成貌似合理但实际虚假的信息,这种特性在学术研究中尤其需要警惕。”从这一观点出发,王兆基着重强调了在学术研究中使用大模型的规范要求。在讨论大模型对学术研究的影响时,王兆基特别提醒了两个关键问题:一是过度依赖大模型可能导致研究者丧失独立思考能力,二是由于大模型能生成符合规范的文本,一些使用者可能直接套用内容而未经消化改写,既涉及抄袭问题,又可能因忽视原始文献引用而引发知识产权争议。针对这些挑战,他建议研究者应将大模型严格定位为辅助工具,同时建立必要的交叉验证机制,确保研究的独立性和可靠性。
分享会结束后,王兆基与在场师生进行了互动交流,解答了听众的提问。
讲座回放:http://media.lib.pku.edu.cn/index.php?m=content&c=index&a=show&catid=33&id=9797
分享人简介:
王兆基,北京大学信息管理系情报学博士研究生,北京大学数字人文研究中心成员。主要研究方向包括数字人文、古汉语信息处理及计算语言学,参与多项国家自然科学基金、国家社会科学基金项目。
文字:南玥晨| 摄影:桑磊