弥补中文短板,社区Llama3汉化微调版效果如何?
Llama3自上个月发布以来,被称为社区最强开源模型。由于中文能力欠缺,为了弥补这一短板,开源社区已经出现了多个基于Llama3进行中文优化的微调模型。
这些微调模型大多采用了以下 2 条路线:
1、中文语料+SFT
2、中文语料+增训+SFT
和通过中文基准来评估模型的性能不同,我们想和大家一起来实测模型在不同场景下的实际表现,来看Llama3汉化后模型的能力,以提高模型被应用的效率。
我们要怎么测模型?
我们将会在5月20~5月24日开放以下模型项目供大家实际测试(开放地址:https://sota.jiqizhixin.com/xt-terminal)。
项目名称 | 微调技术方法 | 项目地址 |
Chinese-LLaMA-Alpaca-3 |
| https://sota.jiqizhixin.com/project/chinese-llama-alpaca-3 |
Llama3-Chinese |
| https://sota.jiqizhixin.com/project/llama3-chinese |
llama3-chinese-chat |
| https://sota.jiqizhixin.com/project/llama3-chinese-chat |
Unichat-llama3-Chinese |
| https://sota.jiqizhixin.com/project/unichat-llama3-chinese |
一起实测不同场景下模型能力的具体表现:
常识推理
代码助手
物理公式证明
参与实测,能够获得什么?
1、加入实测社群,通过实测和交流测试 Case,了解开源中文汉化 Llama3 在文本创意生成、角色扮演、工具调用、代码等任务的中文场景下表现如何?
2、中文 Llama3 汉化后是否会有损原来 Llama3 的能力?如果有损的话该如何解决?
3、和行业搞大模型开发的朋友,交流大模型开发所支持的工具链生态(推理加速、微调框架),以及延伸应用开发情况。
这周三(晚19:00-20:00)我们还邀请到了 Llama3-chinese 项目发起人和我们分享:使用DPO微调 Llama3 模型的全链路实践。
👉欢迎扫码加入我们的实测社群~以及预约直播,一起来实测、聊模型微调细节~
最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。