是他,是他,就是他!宝藏博主让你秒懂Transformer、BERT、GPT!
公众号关注 “程序员遇见GitHub”
设为“星标”,重磅干货,第一时间送达。
这是阿三的第 13 期分享
作者 | 阿三
首发 | 程序员遇见GitHub
大家好,我是阿三,今天给大家安利一个宝藏博主,能给大家秒懂复杂知识点。
一 Transformer
熟悉NLP的同学肯定知道近两年非常火的结构Transformer,基于该结构的预训练模型也是刷爆各大数据集,如BERT、GPT等模型。
但是由于最早介绍Transformer的论文《Attention is all your need》一文对于transformer的细节描述非常有限,导致很多同学理解起来非常抽象,而且网上基本上没有特别好的教程,都是一些枯燥的讲解,但是不要担心,Jay Alammar博主为你带来了可视化讲解,不得不爱!
我们看看他的图文
整体架构图如下:
是不是特别的舒适可观,更细节的可以看如下链接:
http://jalammar.github.io/illustrated-transformer/
不止transformer,还有BERT:
不止BERT,还有GPT:
不止GPT,还有好多其它的内容,只要我们知识点没有理解的,他写了,恭喜你赚大了!
赶紧通过他的主页学起来吧!
http://jalammar.github.io/
二 希望和大家有互动
阿三在写作过程中希望和大家进行互动,具体形式,大家可以用打卡形式进行留言,内容可以是对这篇文章看法,和希望阿三在分享什么。形式如下“
打卡+第几天+内容,比如:
打卡+第一天+希望明天分享机器学习入门的知识。
为了鼓励大家反馈,阿三也有一定的反馈,从今天开始到2个月后的6月21日凌晨,对于打卡满30天的童鞋前五名(前几名代表最早开始在后台告知阿三的满足要求童鞋,如果有6名童鞋满足要求,但是只给最早5个告诉阿三已经打满30天,截图为证,后台截图发送告知),阿三送出288元的红包~对于打卡满45天的童鞋前3名,阿三送出508元的红包。(可以一人累加,获得2个奖
)
阿三谢谢大家支持!一起做好内容,能对大家有一点帮助是阿三最大的心愿。
推荐阅读:
关键词
论文
神器
内容
形式
阿三在
最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。