Skip to content

Commit

Permalink
adjust section 9.11
Browse files Browse the repository at this point in the history
  • Loading branch information
SwordYork committed Aug 3, 2017
1 parent d29eed8 commit bfb03b5
Show file tree
Hide file tree
Showing 4 changed files with 8 additions and 30 deletions.
2 changes: 1 addition & 1 deletion Chapter19/approximate_inference.tex
Original file line number Diff line number Diff line change
Expand Up @@ -606,7 +606,7 @@ \subsection{\glsentrytext{calculus_of_variations}}
\frac{\partial}{\partial \theta_i}\sum_{j}^{}g(\theta_j,j) = \frac{\partial}{\partial \theta_i}g(\theta_i,i).
\end{align}
在其他\gls{ML}文献中的许多结果则使用了更为通用的\firstgls{euler_lagrange_eqn},
它能够使得$g$不仅依赖于$f$的导数而且也依赖于$f$的值
它能够使得$g$不仅依赖于$f$的值,还依赖于$f$的导数
但是在本书中我们不需要这个通用版本。
% p 637 end

Expand Down
17 changes: 3 additions & 14 deletions Chapter9/convolutional_networks.tex
Original file line number Diff line number Diff line change
Expand Up @@ -1122,8 +1122,8 @@ \section{卷积网络与深度学习的历史}

\gls{convolutional_network}在深度学习的历史中发挥了重要作用。
它们是将研究大脑获得的深刻理解成功用于机器学习应用的关键例子。
它们也是第一个表现良好的深度模型之一,远远早于任意深度模型被认为是可行的
\gls{convolutional_network}也是第一个解决重要商业应用的神经网络,并且仍然是当今深度学习商业应用的前沿
它们也是首批表现良好的深度模型之一,远远早于任意深度模型被认为是可行之前
\gls{convolutional_network}也是第一个解决重要商业应用的神经网络,并且仍然处于当今深度学习商业应用的前沿
例如,在20世纪90年代,AT\&T的神经网络研究小组开发了一个用于读取支票的\gls{convolutional_network}\citep{LeCun98-small}。
到90年代末,NEC部署的这个系统已经被用于读取美国10%以上的支票。
后来,微软部署了若干个基于\gls{convolutional_network}的OCR和手写识别系统\citep{simard-03-small}。
Expand All @@ -1140,7 +1140,7 @@ \section{卷积网络与深度学习的历史}
这可能可以简单地归结为\gls{convolutional_network}比全连接网络计算效率更高,因此使用它们运行多个实验并调整它们的实现和超参数更容易。
更大的网络也似乎更容易训练。
利用现代硬件,大型全连接的网络在许多任务上也表现得很合理,即使使用过去那些全连接网络被认为不能工作得很好的数据集和当时流行的激活函数时,现在也能执行得很好。
心理可能神经网络成功的主要阻碍(实践者没有期望神经网络有效,所以他们没有认真努力地使用神经网络)。
心理可能是神经网络成功的主要阻碍(实践者没有期望神经网络有效,所以他们没有认真努力地使用神经网络)。
无论如何,幸运的是\gls{convolutional_network}在几十年前就表现良好。
在许多方面,它们为余下的深度学习传递火炬,并为一般的神经网络被接受铺平了道路。

Expand All @@ -1150,14 +1150,3 @@ \section{卷积网络与深度学习的历史}


% -- 361 --











17 changes: 3 additions & 14 deletions docs/_posts/2016-12-09-Chapter9_convolutional_networks.md
Original file line number Diff line number Diff line change
Expand Up @@ -1106,8 +1106,8 @@ Gabor函数描述在图像中的2维点处的权重。我们可以认为图像

卷积网络在深度学习的历史中发挥了重要作用。
它们是将研究大脑获得的深刻理解成功用于机器学习应用的关键例子。
它们也是第一个表现良好的深度模型之一,远远早于任意深度模型被认为是可行的
卷积网络也是第一个解决重要商业应用的神经网络,并且仍然是当今深度学习商业应用的前沿
它们也是首批表现良好的深度模型之一,远远早于任意深度模型被认为是可行之前
卷积网络也是第一个解决重要商业应用的神经网络,并且仍然处于当今深度学习商业应用的前沿
例如,在20世纪90年代,AT\&T的神经网络研究小组开发了一个用于读取支票的卷积网络{cite?}。
到90年代末,NEC部署的这个系统已经被用于读取美国10%以上的支票。
后来,微软部署了若干个基于卷积网络的OCR和手写识别系统{cite?}。
Expand All @@ -1124,7 +1124,7 @@ Gabor函数描述在图像中的2维点处的权重。我们可以认为图像
这可能可以简单地归结为卷积网络比全连接网络计算效率更高,因此使用它们运行多个实验并调整它们的实现和超参数更容易。
更大的网络也似乎更容易训练。
利用现代硬件,大型全连接的网络在许多任务上也表现得很合理,即使使用过去那些全连接网络被认为不能工作得很好的数据集和当时流行的激活函数时,现在也能执行得很好。
心理可能神经网络成功的主要阻碍(实践者没有期望神经网络有效,所以他们没有认真努力地使用神经网络)。
心理可能是神经网络成功的主要阻碍(实践者没有期望神经网络有效,所以他们没有认真努力地使用神经网络)。
无论如何,幸运的是卷积网络在几十年前就表现良好。
在许多方面,它们为余下的深度学习传递火炬,并为一般的神经网络被接受铺平了道路。

Expand All @@ -1134,15 +1134,4 @@ Gabor函数描述在图像中的2维点处的权重。我们可以认为图像


<!-- % -- 361 -- -->












2 changes: 1 addition & 1 deletion docs/_posts/2016-12-19-Chapter19_approximate_inference.md
Original file line number Diff line number Diff line change
Expand Up @@ -607,7 +607,7 @@ p(\Vv\mid\Vh) &= \CalN(\Vv;\MW \Vh,{\Vbeta}^{-1}),
\frac{\partial}{\partial \theta_i}\sum_{j}^{}g(\theta_j,j) = \frac{\partial}{\partial \theta_i}g(\theta_i,i).
\end{align}
在其他机器学习文献中的许多结果则使用了更为通用的欧拉-拉格朗日方程,
它能够使得$g$不仅依赖于$f$的导数而且也依赖于$f$的值
它能够使得$g$不仅依赖于$f$的值,还依赖于$f$的导数
但是在本书中我们不需要这个通用版本。
<!-- % p 637 end -->

Expand Down

0 comments on commit bfb03b5

Please sign in to comment.