首页 > 代码库 > 读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》
读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》
Training Products of Experts by Minimizing Contrastive Divergence(以下简称 PoE)是 DBN 和深度学习理论的 肇始之篇,最近在爬梳和学习 RBM 的相关知识时,发 现训练 RBM 时使用的对比散度算法在各种中英文资料 中都不甚详解,有些只是一带而过,不明就里,为什么 使用对比散度算法能够近似原来的目标函数,为什么一 步迭代就能得到较好的收敛结果?诸如此类的问题,一 直困扰于心。所以最终还是把这篇开山之作翻了出来, 仔细阅读后,发现很多关于算法的基本思路和出发点, Hinton 已经提及,只是我们没有太多在意,这里便是把 这篇论文重新阅读后的笔记整理出来,以供再来者借鉴。
读书笔记-《Training Products of Experts by Minimizing Contrastive Divergence》
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。