CS231N Lecture5 神经网络

Rongying Liu 课程

“线性分类器不够强大”

Solution ①:

Feature Transform “特征变换”

————需要考虑如何设计特征类型

image

举例一:颜色直方图 Color Histogram

只考虑颜色出现的频率/多少,不考虑图像实际信息

image

举例二:Histogram of Oriented Gradients(HoG)

主要流程:

1.对每个像素边缘方向、强度计算。

2.将图像分为8x8 区域

3.在每个区域,计算HoG。

常用于物体检测等任务(20世纪初)。

image

举例三:”data driven 数据驱动型”

将数据集图片内容提取,使用聚类,得到与视觉词对应的”codebook”(形成特征向量)

再对图片进行处理,绘制图片的颜色直方图,将其与codebook匹配,寻找结果。

image

缺点:特征提取复杂;不能有效利用数据自行调整系统、达到最好的分类效果

神经网络

如图,是一个简单的神经网络示例:由输入列向量x,权重矩阵W1、W2,隐藏层h,输出层S构成。

其中的权重矩阵每个元素都有值,对后续输出造成影响,称为全连接神经网络/多层感知器 “Fully-connected neural network”/“Multi-Layer Perceptron”(MLP)

image

复杂神经网络

image

常用Activation Function –RELU函数

RELU函数(修正线性单元)–使用最广泛的激活函数

如果不添加激活函数,神经网络又是一个线性分类器!

image

其他常用激活函数:

image

从一个有趣的角度理解激活函数:空间扭曲

线性分类器造成的空间扭曲,大概率是这样的:

image

但是使用RELU函数,对空间变换如下:

image

这样的话,数据在变换后的特征空间变得线性可分(如下图,类似于对空间进行两次折叠)

image

增加隐藏层,可能导致决策边界变复杂

——需采用更强的正则化而不是减少隐藏层!

image

神经网络另一功能:Universal Approximation “万能逼近”

从代数观点分析:

对于结果y,每一项u1max(0,w1x+b1)相当于RELU函数的平移/放大缩小:

根据wi正负对RELU进行左右翻转;

根据偏差bi来设置拐点;

根据第二个权重/第一个权重得到斜率。

image

例:用四个隐藏层(四个relu函数),完成对凹凸函数的拟合

image

关于神经网络的优化–

1.NONConvex Functions “非凸函数优化”

目前没有理论验证其一定收敛,但实践证明有用。

image

  • Title: CS231N Lecture5 神经网络
  • Author: Rongying Liu
  • Created at : 2024-12-08 11:21:18
  • Updated at : 2025-01-20 23:28:43
  • Link: https://github.com/Roinnnn11/Roinnnn11.github.io/2024/12/08/CS231N/5神经网络/
  • License: This work is licensed under CC BY-NC-SA 4.0.
Comments
On this page
CS231N Lecture5 神经网络