ymmy

  • 首页

  • 分类

  • 归档

  • 标签

  • 关于

  • 搜索

NLP词向量发展历程

发表于 2020-02-25 | 分类于 NLP | 评论数: | 阅读次数:
字数统计 3,670 字 | 阅读时长 13

这篇文章记录词向量的发展历程,包括tf-idf、word2vec、GloVe、ELMo、OpenAI GPT以及Bert,只记录个人认为比较核心的内容,以及一些值得思考的边角细节。

阅读全文 »

pytorch学习之nn.Embedding和nn.EmbeddingBag

发表于 2020-02-16 | 分类于 NLP | 评论数: | 阅读次数:
字数统计 813 字 | 阅读时长 3

关于pytorch中的embedding常用的主要有两个函数,这篇blog将从每个参数的含义入手,通过举例的方式比较两个方法的异同以及各自的使用场景。

阅读全文 »

pytorch中LSTM的细节分析理解

发表于 2020-02-16 | 分类于 NLP | 评论数: | 阅读次数:
字数统计 2,271 字 | 阅读时长 9

虽然看了一些很好的blog了解了LSTM的内部机制,但对框架中的lstm输入输出和各个参数还是没有一个清晰的认识,今天打算彻底把理论和实现联系起来,再分析一下pytorch中的LSTM实现。

阅读全文 »

conda 导出环境/导入环境/导出base环境

发表于 2020-02-16 | 分类于 tools | 评论数: | 阅读次数:
字数统计 373 字 | 阅读时长 1

conda的虚拟环境真的非常实用,尤其是对于大的深度学习项目,给每个项目单独配一个环境,轻巧又容易管理,还能直接用别人配好的虚拟环境,非常方便。这里记录几个常用的导入导出命令免得每次找。

阅读全文 »

transE(Translating Embedding)详解+简单python实现

发表于 2020-02-16 | 分类于 NLP | 评论数: | 阅读次数:
字数统计 1,398 字 | 阅读时长 5

表示学习旨在学习一系列低维稠密向量来表征语义信息,而知识表示学习是面向知识库中实体和关系的表示学习。当今大规模知识库(或称知识图谱)的构建为许多NLP任务提供了底层支持,但由于其规模庞大且不完备,如何高效存储和补全知识库成为了一项非常重要的任务,这就依托于知识表示学习。

transE算法就是一个非常经典的知识表示学习,用分布式表示(distributed representation)来描述知识库中的三元组。想象一下,这类表示法既避免了庞大的树结构构造,又能通过简单的数学计算获取语义信息,因此成为了当前表示学习的根基。

阅读全文 »

主成分分析(PCA)的推导与理解

发表于 2020-02-14 | 更新于 2020-02-16 | 分类于 模式识别 | 评论数: | 阅读次数:
字数统计 1,091 字 | 阅读时长 4

一、PCA简介

主成分分析(PCA)是一种常见的,也是最简单的降维手段,在机器学习中可用于特征提取。即便有时收集到的样本维数很高(即含有过多特征),但与学习任务相关的可能只是某个低维分布,这时就需要有效降维,在缓解维数灾难的同时令得到的低维嵌入仍能很好地描述原样本空间。

阅读全文 »

谱聚类基本方法详解

发表于 2020-02-14 | 更新于 2020-02-16 | 分类于 模式识别 | 评论数: | 阅读次数:
字数统计 1,707 字 | 阅读时长 6
谱聚类是一种用图论思想解决聚类问题的手段。
阅读全文 »

贝叶斯决策类条件概率密度估计:最大似然和贝叶斯参数估计

发表于 2020-01-27 | 更新于 2020-01-30 | 分类于 模式识别 | 评论数: | 阅读次数:
字数统计 2,169 字 | 阅读时长 8

有监督参数估计是指已知分类器结构或函数形式,从训练样本中估计参数。

本文主要介绍贝叶斯决策(详见贝叶斯决策的过程)条件概率密度的有监督参数估计过程。方法有最大似然估计和贝叶斯参数估计法。

阅读全文 »

深度神经网络排错实践指南

发表于 2019-08-04 | 更新于 2020-02-16 | 分类于 deep learning | 评论数: | 阅读次数:
字数统计 2,008 字 | 阅读时长 8

深度学习排错指南,主要内容翻译自此PPT,选取了自己认为有用的部分记录。

阅读全文 »

贝叶斯决策的过程

发表于 2019-03-31 | 更新于 2020-01-30 | 分类于 模式识别 | 评论数: | 阅读次数:
字数统计 1,791 字 | 阅读时长 6

最小风险决策

最小风险决策是贝叶斯决策的一般形式。引入决策代价loss: ,表示原本属于类 $j$,被错分为类 $i$ 所产生的风险(BTW, 与 并不相等,有时相差很大。比如肿瘤检测时)。则条件风险 贝叶斯决策就要选择最小化该条件风险的类别 $i$。

当 $\lambda$ 为0/1损失时,$R(\alpha_i|x) = 1 - P(\omega_i|x)$,最小风险决策退化为最小错误率决策,或最大后验决策。

阅读全文 »
Yue Yuan

Yue Yuan

Take it easy
10 日志
4 分类
7 标签
RSS
GitHub E-Mail CSDN 知乎

Tag Cloud

  • Graph1
  • NLP4
  • pytorch2
  • 技巧1
  • 模式识别4
  • 用法记录1
  • 知识图谱1
当前浏览器不支持canvas,请更换浏览器后再试
© 2020 Yue Yuan
由 Hexo 强力驱动 v3.9.0
|
主题 – NexT.Pisces v7.0.1
总访问量次 | 总访客人 |
0%