题目

Deita: 针对大模型对齐中高质量指令数据筛选的研究及其相关工具

内容

  1. Deita概括:工具、数据与模型 (5mins)
  2. 大模型对齐进展介绍(5 mins)
  3. 数据高效指令微调介绍(10mins)
  4. Deita的数据筛选策略与研究发现(15mins)
  5. 实验发现与总结(5mins)
  6. QA讨论环节(20mins)

介绍

指令微调是大语言模型对齐人类使用偏好,价值观的关键技术。先前的工作发现,利用少量的高质量指令微调数据进行训练,大语言模型就能在对齐用户偏好上取得不错的性能。
然而,现阶段我们仍然缺少对指令微调中高质量数据挑选较为系统的研究,也尚不清楚仅用少量高质量指令微调数据训练出的模型性能上限到底在哪里。
在本篇工作中我们首先系统探究了不同的指令微调数据筛选方法的效果,并且提出了一种简单有效的Score-first Diversity-aware数据筛选策略。我们使用少量基于该策略筛选的高质量数据,训练得到了我们的Deita (Data-Efficient Instruction Tuning for Alignment) 模型。
实验显示,我们的模型仅仅通过6千条自动筛选的微调(SFT)数据和一万条随机采样的DPO (Direct Preference Optimization) 数据进行训练,就可以在大模型对齐公开榜单MT-Bench和AlpacaEval上取得7.5590.06%的性能,超越一众使用了10倍以上数据量进行微调的大语言模型,取得了“四两拨千斤“的效果。
我们的数据筛选工具、数据以及模型都开源在了github[1],欢迎大家使用以及提出意见,我们会持续更新我们的Deita。

主持人

薛博阳
香港中文大学在读博士
导师
:黄锦辉教授

方向
:LLM, Reliable AI

论文
:EMNLP, ICASSP, TASLP

主页
:https://amourwaltz.github.io

分享嘉宾

刘威,目前是上海科技大学三年级硕士,导师为屠可伟老师。现在在上海人工智能实验室实习。同时也在香港科技大学HKUST NLP进行远程访问,同何俊贤老师合作。在ACL,EMNLP,NAACL,AAAI等国际会议发表论文多篇,并在上述会议担任审稿人。
主页:https://vpeterv.github.io

预约

时间

2024.1.13 10:30-11:30

本周六上午不见不散~
视频号和b站都可预约~

进群

为了方便讨论,建立了一个交流群,分享嘉宾也在里面,可以面对面探讨更多细节~

参考资料

[1]
deita github: https://github.com/hkust-nlp/deita

备注:昵称-学校/公司-方向/会议(eg.ACL),进入技术/投稿群
id:DLNLPer,记得备注呦
继续阅读
阅读原文