这篇文章记录词向量的发展历程,包括tf-idf、word2vec、GloVe、ELMo、OpenAI GPT以及Bert,只记录个人认为比较核心的内容,以及一些值得思考的边角细节。
pytorch学习之nn.Embedding和nn.EmbeddingBag
关于pytorch中的embedding常用的主要有两个函数,这篇blog将从每个参数的含义入手,通过举例的方式比较两个方法的异同以及各自的使用场景。
pytorch中LSTM的细节分析理解
虽然看了一些很好的blog了解了LSTM的内部机制,但对框架中的lstm输入输出和各个参数还是没有一个清晰的认识,今天打算彻底把理论和实现联系起来,再分析一下pytorch中的LSTM实现。
conda 导出环境/导入环境/导出base环境
conda的虚拟环境真的非常实用,尤其是对于大的深度学习项目,给每个项目单独配一个环境,轻巧又容易管理,还能直接用别人配好的虚拟环境,非常方便。这里记录几个常用的导入导出命令免得每次找。
transE(Translating Embedding)详解+简单python实现
表示学习旨在学习一系列低维稠密向量来表征语义信息,而知识表示学习是面向知识库中实体和关系的表示学习。当今大规模知识库(或称知识图谱)的构建为许多NLP任务提供了底层支持,但由于其规模庞大且不完备,如何高效存储和补全知识库成为了一项非常重要的任务,这就依托于知识表示学习。
transE算法就是一个非常经典的知识表示学习,用分布式表示(distributed representation)来描述知识库中的三元组。想象一下,这类表示法既避免了庞大的树结构构造,又能通过简单的数学计算获取语义信息,因此成为了当前表示学习的根基。