LYON'S BLOG

In me the tiger sniffs the rose.


  • 首页

  • 关于

  • 标签

  • 分类

  • 归档

  • 搜索

GCN

发表于 2020-12-02 | 分类于 basic_concept |
字数统计: 1.1k | 阅读时长 ≈ 4
Graph Convolutional Network 关于图卷积这里有两篇文章都讲的很好, 这一篇讲解了图卷机的相关知识和概念什么的,都很全面 如何理解 Graph Convolutional Network 这一篇从物理和数学的角度生动形象的解释了图卷积的意义和机理,可以帮我我们更好的理解。 如 ...
阅读全文 »

language_model

发表于 2020-12-01 | 分类于 NLP |
字数统计: 3.4k | 阅读时长 ≈ 13
NLP中的语言模型(language model)本文搬运自CSDN,并修改了其中一些错误。 什么是语言模型?统计语言模型是一个单词序列上的概率分布,对于一个给定长度为m的序列,它可以为整个序列产生一个概率 P(w_1,w_2,…,w_m) 。其实就是想办法找到一个概率分布,它可以表示任意一个句子或 ...
阅读全文 »

loss_function

发表于 2020-11-30 | 分类于 basic_concept |
字数统计: 294 | 阅读时长 ≈ 1
常见的损失函数(loss function)总结搬运自知乎 损失函数用来评价模型的预测值和真实值不一样的程度,损失函数越好,通常模型的性能越好。不同的模型用的损失函数一般也不一样。 损失函数分为经验风险损失函数和结构风险损失函数。经验风险损失函数指预测结果和实际结果的差别,结构风险损失函数是指经验风 ...
阅读全文 »

Multi_Task_learning

发表于 2020-11-27 | 分类于 definition |
字数统计: 1.8k | 阅读时长 ≈ 6
多任务学习概述搬运自:CSDN 单任务学习VS多任务学习 单任务学习:一次只学习一个任务(task),大部分的机器学习任务都属于单任务学习。 多任务学习:把多个相关(related)的任务放在一起学习,同时学习多个任务。 多任务学习(multitask learning)产生的原因?现在大多数 ...
阅读全文 »
<1…25262728>

110 日志
19 分类
52 标签
RSS
GitHub E-Mail
© 2022 Lyon | Site words total count: 127.5k
0%