当你使用Transformer时,张小斐告诉你:适合我们的才是最好的!
量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据等领域的主流自媒体。公众号拥有来自公募、私募、券商、期货、银行、保险、高校等行业30W+关注者,曾荣获AMMA优秀品牌力、优秀洞察力大奖,连续4年被腾讯云+社区评选为“年度最佳作者”。
在今年的热播剧《好好事成双》中,竟然追起了Transformer的热点,编剧看来是下了功夫啊!
当甲方指责女主公司为什么没有采用当下最新最热门最强的Transformer模型,而采用了“过时的LSTM模型”时,女主是这样说服甲方的:
选择模型是不能迷信
最新最强最热门的
适合我们的才是最好的
这编剧应该是请教过业内人士研究过的哈,搞得还挺专业!
连《Attention is all you need》Transformer的图例都用上了
要知道,谷歌当年的这篇论文,不仅让NLP变了天,成为自然语言领域的主流模型,还成功跨界CV等领域。
截止今日,这篇论文被引数高达9万+。
这篇论文最大的亮点就是提出了一种Transformer的结构,这种结构是完全依赖注意力机制来刻画输入和输出之间的全局依赖关系,而不使用递归运算的RNN网络了。
不过有点小瑕疵,PPT图中的LSTM写错了,方框里写的好像是LTSM模型。不过跟这几年的国产剧相比,起码算是用心不少
。
至于说Transformer在量化投资领域直接或者间接的应用,公众号之前推过几篇文章,大家可以看看:
今天的内容就到这里啦!
阅读原文 最新评论
推荐文章
作者最新文章
你可能感兴趣的文章
Copyright Disclaimer: The copyright of contents (including texts, images, videos and audios) posted above belong to the User who shared or the third-party website which the User shared from. If you found your copyright have been infringed, please send a DMCA takedown notice to [email protected]. For more detail of the source, please click on the button "Read Original Post" below. For other communications, please send to [email protected].
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。
版权声明:以上内容为用户推荐收藏至CareerEngine平台,其内容(含文字、图片、视频、音频等)及知识版权均属用户或用户转发自的第三方网站,如涉嫌侵权,请通知[email protected]进行信息删除。如需查看信息来源,请点击“查看原文”。如需洽谈其它事宜,请联系[email protected]。