From 72c1596934f503ddf9e3e883b4f9dd823c1968ac Mon Sep 17 00:00:00 2001 From: swordyork Date: Thu, 22 Jun 2017 12:38:55 +0800 Subject: [PATCH] fix #102 --- Chapter16/structured_probabilistic_modelling.tex | 2 +- docs/_posts/2016-12-02-Chapter2_linear_algebra.md | 4 ++-- ...2016-12-16-Chapter16_structured_probabilistic_modelling.md | 2 +- 3 files changed, 4 insertions(+), 4 deletions(-) diff --git a/Chapter16/structured_probabilistic_modelling.tex b/Chapter16/structured_probabilistic_modelling.tex index cd9a25c..0077213 100644 --- a/Chapter16/structured_probabilistic_modelling.tex +++ b/Chapter16/structured_probabilistic_modelling.tex @@ -1001,7 +1001,7 @@ \section{学习\glsentrytext{dependency}关系} 良好的生成模型需要准确地捕获所观察到的或``可见''变量$\RVv$上的分布。 通常$\RVv$的不同元素彼此高度依赖。 在\gls{DL}中,最常用于建模这些\gls{dependency}关系的方法是引入几个\gls{latent}或``隐藏''变量$\RVh$。 -然后,该模型可以捕获任何对(变量$\RSv_i$和$\RSv_j$间接\gls{dependency}可以通过$\RSv_i$和$\RVh$之间直接\gls{dependency}和$\RVv$和$\RSh_j$直接\gls{dependency}捕获)之间的\gls{dependency}关系。%?? +然后,该模型可以捕获任何对(变量$\RSv_i$和$\RSv_j$间接\gls{dependency}可以通过$\RSv_i$和$\RVh$之间直接\gls{dependency}和$\RVh$和$\RSv_j$直接\gls{dependency}捕获)之间的\gls{dependency}关系。%?? % 572 end diff --git a/docs/_posts/2016-12-02-Chapter2_linear_algebra.md b/docs/_posts/2016-12-02-Chapter2_linear_algebra.md index 3f96b5f..e3fe908 100644 --- a/docs/_posts/2016-12-02-Chapter2_linear_algebra.md +++ b/docs/_posts/2016-12-02-Chapter2_linear_algebra.md @@ -515,7 +515,7 @@ $L^1$范数可以简化如下: 例如,整数可以分解为质因数。 -我们可以用十进制或二进制等不同方式表示整数$12$,但是$12=2\times 3\times 3$永远是对的。 +我们可以用十进制或二进制等不同方式表示整数$12$,但是$12=2\times 2\times 3$永远是对的。 从这个表示中我们可以获得一些有用的信息,比如$12$不能被$5$整除,或者$12$的倍数可以被$3$整除。 @@ -677,7 +677,7 @@ SVD\,最有用的一个性质可能是拓展矩阵求逆到非方矩阵上。我 Moore-Penrose 伪逆使我们在这类问题上取得了一定的进展。 矩阵$\MA$的伪逆定义为: \begin{equation} - \MA^+ = \lim_{a \searrow 0} (\MA^\top\MA + \alpha \MI)^{-1} \MA^\top. + \MA^+ = \lim_{\alpha \searrow 0} (\MA^\top\MA + \alpha \MI)^{-1} \MA^\top. \end{equation} 计算伪逆的实际算法没有基于这个定义,而是使用下面的公式: \begin{equation} diff --git a/docs/_posts/2016-12-16-Chapter16_structured_probabilistic_modelling.md b/docs/_posts/2016-12-16-Chapter16_structured_probabilistic_modelling.md index 9751227..c7d129e 100644 --- a/docs/_posts/2016-12-16-Chapter16_structured_probabilistic_modelling.md +++ b/docs/_posts/2016-12-16-Chapter16_structured_probabilistic_modelling.md @@ -996,7 +996,7 @@ $E(\RVx)$被称作是能量函数。 良好的生成模型需要准确地捕获所观察到的或"可见"变量$\RVv$上的分布。 通常$\RVv$的不同元素彼此高度依赖。 在深度学习中,最常用于建模这些依赖关系的方法是引入几个潜在或"隐藏"变量$\RVh$。 -然后,该模型可以捕获任何对(变量$\RSv_i$和$\RSv_j$间接依赖可以通过$\RSv_i$和$\RVh$之间直接依赖和$\RVv$和$\RSh_j$直接依赖捕获)之间的依赖关系。%?? +然后,该模型可以捕获任何对(变量$\RSv_i$和$\RSv_j$间接依赖可以通过$\RSv_i$和$\RVh$之间直接依赖和$\RVh$和$\RSv_j$直接依赖捕获)之间的依赖关系。%??