Dolly 2.0是一个开源的大型语言模型(LLM),可以提供类似ChatGPT的指令跟随交互性。Dolly 2.0现已面世,并可以作为Paperspace Gradient Notebook运行,这些Notebook由Graphcore(拟未) IPU提供支持。
https://ipu.dev/j0HrY8
这个120亿参数的模型由Databricks[1]创建,基于EleutherAI的Pythia。
Dolly 2.0的训练权重、源代码和数据集已在开源和商业使用许可下发布,使其成为第一个真正开放的指令微调LLM。之前的模型受制于更严格的许可,无法用于商业应用。
面向人机交互训练大型语言模型
当人们试图从尚未经过适当微调的LLM中获取答案时,需要进行提示工程才能持续产生有用的反馈。这个过程可能会使很多用户感到沮丧。这是因为基本的LLM是被训练来简单地预测下一个token,而这与好的回答甚至是正确的回答之间没有必然联系。
在指令跟随数据集上进行微调会使模型更适合与人类互动:只需向模型提出问题就能得到回复。这使它成为问答应用的理想选择。
大型语言模型与商业限制
Dolly 2.0的前身Dolly 1.0是使用斯坦福大学的Alpaca数据集训练的。Alpaca则使用了OpenAI的ChatGPT的一些输出。因此,Dolly 1.0受到ChatGPT关于商业使用许可的限制,阻碍了Dolly的用户围绕该模型建立产品和服务。
在这方面,Dolly 1.0并非个例。类似的限制影响了许多最近发布的指令跟随型LLM,包括Koala、GPT4All和Vicuna。
生成原始数据集
为了解决这些问题,Databricks团队需要生成一个由人类编写的训练数据语料库,其规模类似于OpenAI用来训练InstructGPT(ChatGPT的姐妹模型)的13,000个提示-响应对(prompt-response pair)。
该公司转向了它的5,000名员工,通过举办编写指令和响应对的竞赛,将创建训练数据的过程游戏化。在七个特定的数据集任务中,排名前20位的标注者可以获得奖品。通过这种方法,再加上竞争性的排行榜,Databricks成功地创建了一个有15,000多个指令-响应对(instruction-response pair)的数据集。
数据集任务包括以下内容(来自Databricks的博客):
开放式问答:例如,“为什么人们喜欢喜剧电影?”或者“法国的首都是哪个城市?”在某些情况下,没有一个正确的答案,而在其他情况下,需要借鉴整个世界的知识。
封闭式问答:这些问题只需使用参考文献中的信息就可以回答。例如,鉴于维基百科上关于原子的一段话,人们可能会问:“原子核中,质子和中子的比例是多少?”
从维基百科中提取信息:注解器将从维基百科上复制一个段落,并从该段落中提取实体或其他事实信息,如权重或尺寸。
归纳维基百科上的信息:注解器提供了维基百科上的一段话,并被要求将其提炼为一个简短的摘要。
头脑风暴:这项任务要求进行开放式构思,并列出相关的可能选项。例如,“这个周末我可以和朋友们做哪些有趣的活动?”
分类:在这项任务中,注解器被要求对类别成员进行判断(例如,列表中的项目是动物、矿物还是蔬菜),或者判断一段短文的属性,例如电影评论的情绪。
创意写作:
这项任务将包括写诗或写情书等内容。

由此产生的模型Dolly 2.0是在Creative Commons Attribution-ShareAlike 3.0 Unported License[2]下授权的,允许任何人使用和修改,以及使用它创建商业应用程序。
值得注意的是,Dolly 2.0仍在积极开发中。我们可以期待在不久的将来看到更多性能更好的版本。
入门:如何在IPU上使用Dolly 2.0
您可以使用由Graphcore IPU驱动的Paperspace Gradient Notebook,免费试用Dolly 2.0。
该notebook会带您完成下载模型权重、创建推理流水线,以及使用指令和问题询问Dolly 2.0等过程。
Dolly 2.0适合我们Paperspace免费层级的环境,该环境使用一个Graphcore POD
4
系统。我们计划在适当的时候对其进行扩展,以便在POD
16
系统上进行更快的推理。如欲开始体验,请访问下方的Paperspace Gradient链接:

https://ipu.dev/j0HrY8
与Dolly互动是一个很有趣的过程。通过微调,它还可以在回答用户问题时具备特定的个性。现在,它可以与适当的安全过滤器一起使用,以获得真实世界的信息,或者只是作为一个有趣的品牌角色。
如果您有兴趣使用您自己的数据集在IPU上微调Dolly 2.0,欢迎填写表格[3],我们将为您提供启用帮助。
[1]https://www.databricks.com/blog/2023/04/12/dolly-first-open-commercially-viable-instruction-tuned-llm
[2]https://creativecommons.org/licenses/by-sa/3.0/
[3]https://www.graphcore.ai/speak-to-an-expert-dolly-ai
获取更多Graphcore资讯,阅读深度技术文章,并与其他创新者们一起交流,请至中国官网graphcore.cn,以及关注Graphcore微信、微博和知乎创新社区。
Graphcore中国官网
Graphcore官方微信
Graphcore微博创新社区
Graphcore知乎创新社区
点击阅读原文,查看英文blog。
继续阅读
阅读原文