公众号关注 “程序员遇见GitHub
设为“星标”,重磅干货,第一时间送达。
这是阿三的第 13 期分享 
作者 | 阿三

首发 | 程序员遇见GitHub
大家好,我是阿三,今天给大家安利一个宝藏博主,能给大家秒懂复杂知识点。

一  Transformer

熟悉NLP的同学肯定知道近两年非常火的结构Transformer,基于该结构的预训练模型也是刷爆各大数据集,如BERT、GPT等模型。
但是由于最早介绍Transformer的论文《Attention is all your need》一文对于transformer的细节描述非常有限,导致很多同学理解起来非常抽象,而且网上基本上没有特别好的教程,都是一些枯燥的讲解,但是不要担心,Jay Alammar博主为你带来了可视化讲解,不得不爱!
我们看看他的图文
整体架构图如下:
是不是特别的舒适可观,更细节的可以看如下链接:

http://jalammar.github.io/illustrated-transformer/
不止transformer,还有BERT:

不止BERT,还有GPT:
不止GPT,还有好多其它的内容,只要我们知识点没有理解的,他写了,恭喜你赚大了!
赶紧通过他的主页学起来吧!
http://jalammar.github.io/

 二 希望和大家有互动

阿三在写作过程中希望和大家进行互动,具体形式,大家可以用打卡形式进行留言,内容可以是对这篇文章看法,和希望阿三在分享什么。形式如下“
打卡+第几天+内容,比如:
打卡+第一天+希望明天分享机器学习入门的知识。
为了鼓励大家反馈,阿三也有一定的反馈,从今天开始到2个月后的6月21日凌晨,对于打卡满30天的童鞋前五名(前几名代表最早开始在后台告知阿三的满足要求童鞋,如果有6名童鞋满足要求,但是只给最早5个告诉阿三已经打满30天,截图为证,后台截图发送告知),阿三送出288元的红包~对于打卡满45天的童鞋前3名,阿三送出508元的红包。(可以一人累加,获得2个奖

阿三谢谢大家支持!一起做好内容,能对大家有一点帮助是阿三最大的心愿。
推荐阅读:
继续阅读
阅读原文