Andrew Ng机器学习课程笔记--week4(神经网络)

时间:2022-04-23
本文章向大家介绍Andrew Ng机器学习课程笔记--week4(神经网络),主要内容包括一、 内容概要、二、重点&难点、2. Applications、基本概念、基础应用、原理机制和需要注意的事项等,并结合实例形式分析了其使用技巧,希望通过本文能帮助到大家理解应用这部分内容。

Neural Networks: Representation

一、 内容概要

  • Neural Network
    • Model Representation 1
    • Model Representation 2
  • Applications
    • Examples and Intuitions 1
    • Examples and Intuitions 2
    • Multiclass Classification

二、重点&难点

1. Neural Network

1)Model Representation 1

首先需要明确一些符号的意思,以方便后面的阅读。

αi(j):表示第j层的第i个激活单元(activation) θ(j) :表示第j层映射到第j+1层的控制函数的权重矩阵。

如图是一个三层结构的神经网络(输入层,隐藏层、输出层),每一层的激活单元的计算表达式图中也已经写出来了。 还需要注意的是:

若神经网络在第j层有sj个单元,在j+1层有sj+1个单元,则θ(j)矩阵的维度是(sj+1,sj),之所以要加1是因为输入层和隐藏层都需要加一个bias。

如下图,θ(1)的维度是(4, 3)

2) Model Representation 2

在上面内容的基础上我们继续抽象化,向量化,使得神经网络计算表达式看起来更加简洁(但是更加抽象了。。。)

突然发现Coursera上的数学公式是可以复制的。。。。简直不要太舒服,终于不用自己敲键盘了。。。问我方法?右键即可。

  • 神经网络结构示例
  • 向量化 $z_k^{(j)}$ 来向量化g()函数内的值,例如 $z_k^{(2)} = Theta_{k,0}^{(1)}x_0 + Theta_{k,1}^{(1)}x_1 + cdots + Theta_{k,n}^{(1)}x_n$ $$begin{align*}a_1^{(2)} = g(z_1^{(2)}) newline a_2^{(2)} = g(z_2^{(2)}) newline a_3^{(2)} = g(z_3^{(2)}) newline end{align*}$$ - z与α的关系 $$z^{(j)} = Theta^{(j-1)}a^{(j-1)}$$ $$a^{(j)} = g(z^{(j)})$$ $$h_Theta(x) = a^{(j+1)} = g(z^{(j+1)})$$

2. Applications

1)神经网络实现简单的与或非 这里只简单记录一下 或(or) & 非(not)

or
not
                            <br><br><hr> <footer style="color:white;;background-color:rgb(24,24,24);padding:10px;border-radius:10px;"> <h3 style="text-align:center;color:tomato;font-size:16px;"> <b>MARSGGBO</b><b style="color:white;"><span style="font-size:25px;">&hearts;</span>原创</b> <br> <br> <b style="color:white;">  2017-8-3  </b> </h3> </footer>