当前位置: 代码迷 >> 综合 >> 专业英语(3、Loss Function)
  详细解决方案

专业英语(3、Loss Function)

热度:60   发布时间:2023-11-22 03:38:40.0

Image Classification

A core task in Computer Vision(计算机视觉的核心任务)

目标:

所谓图像分类问题,就是已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。


例子

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-x2lJUCHj-1588264994073)(WEBRESOURCEf9e9d398aa2acb0ff91e2c4ec4a461b7)]

以上图为例,图像分类模型读取该图片,并生成该图片属于集合 {cat, dog, hat, mug}中各个标签的概率。

  • 对于计算机来说,图像是一个由数字组成的巨大的3维数组。在这个例子中,猫的图像大小是宽248像素,高400像素,有3个颜色通道,分别是红、绿和蓝(简称RGB)。如此,该图像就包含了248X400X3=297600个数字,每个数字都是在范围0-255之间的整型,其中0表示全黑,255表示全白。
  • 图像分类的任务,就是对于一个给定的图像,预测它属于的那个分类标签(或者给出属于一系列不同标签的可能性)。图像是3维数组,数组元素是取值范围从0到255的整数。数组的尺寸是宽度x高度x3,其中这个3代表的是红、绿和蓝3个颜色通道。

困难和挑战:

对于人来说,识别出一个像“猫”一样视觉概念是简单至极的,然而从计算机视觉算法的角度来看就值得深思了。

下面列举了计算机视觉算法在图像识别方面遇到的一些困难,要记住图像是以3维数组来表示的,数组中的元素是亮度值。

challenge:

视角变化(Viewpoint variation): 同一个物体,摄像机可以从多个角度来展现。

光照条件(Illumination conditions): 在像素层面上,光照的影响非常大。

形变(Deformation):很多东西的形状并非一成不变,会有很大变化。

遮挡(Occlusion):目标物体可能被挡住。有时候只有物体的一小部分(可以小到几个像素)是可见的。

背景干扰(Background clutter):物体可能混入背景之中,使之难以被辨认。

类内差异(Intra-class variation):一类物体的个体之间的外形差异很大,比如椅子。这一类物体有许多不同的对象,每个都有自己的外形。

因此,一个好的图像分类模型,就是在面对以上所有变化及其组合,能够在维持分类结论稳定的同时,保持对类间差异足够敏感。


Data-Driven Approach(数据驱动方法):

  1. Collect a dataset of images and labels
  2. Use Machine Learning to train a classifier
  3. Evaluate the classifier on new images

输入: 输入是包含N个图像的集合,每个图像的标签是K种分类标签中的一种。这个集合称为训练集。

学习: 这一步的任务是使用训练集来学习每个类到底长什么样。一般该步骤叫做训练分类器或者学习一个模型。

评价: 让分类器来预测它未曾见过的图像的分类标签,并以此来评价分类器的质量。我们会把分类器预测的标签和图像真正的分类标签对比。毫无疑问,分类器预测的分类标签和图像真正的分类标签如果一致,那就是好事,这样的情况越多越好。


First classifier: Nearest Neighbor(邻近算法):

这个分类器和卷积神经网络没有任何关系,实际中也极少使用。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DUh08cg4-1588264994077)(WEBRESOURCEb97c97c6590958acb86f7d1360abf498)]

Distance Metric(距离度量) to compare images

L1 (Manhattan) distance :

d(I1,I2) = \sum_p \mid I_1^p-I_2^p \mid

例:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ygzi9UBI-1588264994078)(WEBRESOURCE09d51ca15c04cafb5df466ad9892d254)]

下面,让我们看看如何用代码来实现这个分类器。

  • 首先,我们将CIFAR-10的数据加载到内存中,并分成4个数组:训练数据和标签,测试数据和标签。在下面的代码中,Xtr(大小是50000x32x32x3)存有训练集中所有的图像,Ytr是对应的长度为50000的1维数组,存有图像对应的分类标签(从0到9):
Xtr, Ytr, Xte, Yte = load_CIFAR10('data/cifar10/') # a magic function we provide
# flatten out all images to be one-dimensional
Xtr_rows = Xtr.reshape(Xtr.shape[0], 32 * 32 * 3) # Xtr_rows becomes 50000 x 3072
Xte_rows = Xte.reshape(Xte.shape[0], 32 * 32 * 3) # Xte_rows becomes 10000 x 3072
  • 现在我们得到所有的图像数据,并且把他们拉长成为行向量了。接下来展示如何训练并评价一个分类器:
nn = NearestNeighbor() # create a Nearest Neighbor classifier class
nn.train(Xtr_rows, Ytr) # train the classifier on the training images and labels
Yte_predict = nn.predict(Xte_rows) # predict labels on the test images
# and now print the classification accuracy, which is the average number
# of examples that are correctly predicted (i.e. label matches)
print 'accuracy: %f' % ( np.mean(Yte_predict == Yte) )

作为评价标准,我们常常使用准确率,它描述了我们预测正确的得分。如果你用这段代码跑CIFAR-10,你会发现准确率能达到38.6%。这比随机猜测的**10%**要好,但是比人类识别的水平(据研究推测是94%)和 卷积神经网络能达到的95% 还是差多了。

分类器需要的API:

  • train(X, y)函数。
    该函数使用训练集的数据和标签来进行训练。从其内部来看,类应该实现一些关于标签和标签如何被预测的模型
  • predict(X)函数。它的作用是预测输入的新数据的分类标签。现在还没介绍分类器的实现

下面就是使用L1距离的Nearest Neighbor分类器的实现

import numpy as npclass NearestNeighbor(object):def __init__(self):passdef train(self, X, y):""" X is N x D where each row is an example. Y is 1-dimension of size N """# the nearest neighbor classifier simply remembers all the training dataself.Xtr = Xself.ytr = ydef predict(self, X):""" X is N x D where each row is an example we wish to predict label for """num_test = X.shape[0]# lets make sure that the output type matches the input typeYpred = np.zeros(num_test, dtype = self.ytr.dtype)# loop over all test rowsfor i in xrange(num_test):# find the nearest training image to the i'th test image# using the L1 distance (sum of absolute value differences)distances = np.sum(np.abs(self.Xtr - X[i,:]), axis = 1)min_index = np.argmin(distances) # get the index with smallest distanceYpred[i] = self.ytr[min_index] # predict the label of the nearest examplereturn Ypred

Q: With N examples,how fast are training and prediction?

A: Train O(1),predict O(N)

This is bad: we want classifiers that are fast at prediction; slow for training is ok。

L2 (Euclidean) distance:

d(I1,I2)=\sqrt{\sum_p {(I_1^p-I_2^p)}^2}

依旧是在计算像素间的差值,只是先求其平方,然后把这些平方全部加起来,最后对这个和开方。

在Numpy中,我们只需要替换上面代码中的1行代码就行:

distances = np.sqrt(np.sum(np.square(self.Xtr - X[i,:]), axis = 1))

K-Nearest Neighbors:

  • instead of copying label from nearest neighbor,
    take majority vote from K closest points(代替从最近邻居复制标签,
    从K个最近点获得多数投票)

  • 与其只找最相近的那1个图片的标签,我们找最相似的k个图片的标签,然后让他们针对测试图片进行投票,最后把票数最高的标签作为对测试图片的预测。


Hyperparameters

  • What is the best value of k to use?(k的最佳价值是什么?)
  • What is the best distance to use?(什么是最佳使用距离?)

These are hyperparameters: choices about
the algorithm that we set rather than learn。

用于超参数调优的验证集

  • k-NN分类器需要设定k值,那么选择哪个k值最合适的呢?

    我们可以选择不同的距离函数,比如L1范数和L2范数等,那么选哪个好?还有不少选择我们甚至连考虑都没有考虑到(比如:点积)。所有这些选择,被称为超参数(hyperparameter)。

    在基于数据进行学习的机器学习算法设计中,超参数是很常见的。一般说来,这些超参数具体怎么设置或取值并不是显而易见的。

  • 你可能会建议尝试不同的值,看哪个值表现最好就选哪个。好主意!我们就是这么做的,但这样做的时候要非常细心。

    决不能使用测试集来进行调优。当你在设计机器学习算法的时候,应该把测试集看做非常珍贵的资源,不到最后一步,绝不使用它。如果你使用测试集来调优,而且算法看起来效果不错,那么真正的危险在于:算法实际部署后,性能可能会远低于预期。这种情况,称之为算法对测试集过拟合。从另一个角度来说,如果使用测试集来调优,实际上就是把测试集当做训练集,由测试集训练出来的算法再跑测试集,自然性能看起来会很好。这其实是过于乐观了,实际部署起来效果就会差很多。所以,最终测试的时候再使用测试集,可以很好地近似度量你所设计的分类器的泛化性能。

Idea #1: Choose hyperparameters
that work best on the data

Idea #2: Split data into train and test, choose
hyperparameters that work best on test data

Idea #3: Split data into train, val, and test; choose
hyperparameters on val and evaluate on test (验证集 validation set)

验证集(validation set): 从训练集中取出一部分数据用来调优,即称为验证集,是一个不用测试集调优的方法。以CIFAR-10为例,我们可以用49000个图像作为训练集,用1000个图像作为验证集。验证集其实就是作为假的测试集来调优。

Idea #4: Cross-Validation(交叉验证): Split data into folds,
try each fold as validation and average the results

交叉验证: 有时候,训练集数量较小(因此验证集的数量更小),人们会使用一种被称为交叉验证的方法,这种方法更加复杂些。还是用刚才的例子,如果是交叉验证集,我们就不是取1000个图像,而是将训练集平均分成5份,其中4份用来训练,1份用来验证。然后我们循环着取其中4份来训练,其中1份来验证,最后取所有5次验证结果的平均值作为算法验证结果。

练集分成训练集和验证集。使用验证集来对所有超参数调优。最后只在测试集上跑一次并报告结果。

实际应用。在实际情况下,人们不是很喜欢用交叉验证,主要是因为它会耗费较多的计算资源。一般直接把训练集按照50%-90%的比例分成训练集和验证集。但这也是根据具体情况来定的:如果超参数数量多,你可能就想用更大的验证集,而验证集的数量不够,那么最好还是用交叉验证吧。至于分成几份比较好,一般都是分成3、5和10份。


K-Nearest Neighbor分类器的优劣

  • Very slow at test time(测试时非常慢)
  • Distance metrics on pixels are not informative(像素的距离指标不提供信息)
  • Curse of dimensionality(维度的诅咒)

中文解释:

  • 首先,Nearest Neighbor分类器易于理解,实现简单。其次,算法的训练不需要花时间,因为其训练过程只是将训练集数据存储起来。然而测试要花费大量时间计算,因为每个测试图像需要和所有存储的训练图像进行比较,这显然是一个缺点。在实际应用中,我们关注测试效率远远高于训练效率。其实,我们后续要学习的卷积神经网络在这个权衡上走到了另一个极端:虽然训练花费很多时间,但是一旦训练完成,对新的测试数据进行分类非常快。这样的模式就符合实际使用需求。
  • Nearest Neighbor分类器的计算复杂度研究是一个活跃的研究领域,若干Approximate Nearest Neighbor (ANN)算法和库的使用可以提升Nearest Neighbor分类器在数据上的计算速度(比如:FLANN)。这些算法可以在准确率和时空复杂度之间进行权衡,并通常依赖一个预处理/索引过程,这个过程中一般包含kd树的创建和k-means算法的运用。
  • 图像都是高维度数据(他们通常包含很多像素),而高维度向量之间的距离通常是反直觉的。在高维度数据上,基于像素的的距离和感官上的非常不同,基于像素比较的相似和感官上以及语义上的相似是不同的。

小结:

  • 介绍了图像分类问题。在该问题中,给出一个由被标注了分类标签的图像组成的集合,要求算法能预测没有标签的图像的分类标签,并根据算法预测准确率进行评价。
  • 介绍了一个简单的图像分类器:最近邻分类器(Nearest Neighbor classifier)。分类器中存在不同的超参数(比如k值或距离类型的选取),要想选取好的超参数不是一件轻而易举的事。
  • 选取超参数的正确方法是:将原始训练集分为训练集和验证集,我们在验证集上尝试不同的超参数,最后保留表现最好那个。
  • 如果训练数据量不够,使用交叉验证方法,它能帮助我们在选取最优超参数的时候减少噪音。
  • 一旦找到最优的超参数,就让算法以该参数在测试集跑且只跑一次,并根据测试结果评价算法。
  • 最近邻分类器能够在CIFAR-10上得到将近40%的准确率。该算法简单易实现,但需要存储所有训练数据,并且在测试的时候过于耗费计算能力。
  • 最后,我们知道了仅仅使用L1和L2范数来进行像素比较是不够的,图像更多的是按照背景和颜色被分类,而不是语义主体分身。

小结:实际应用k-NN

处理流程

  1. 预处理你的数据:对你数据中的特征进行归一化(normalize),让其具有零平均值(zero mean)和单位方差(unit variance)。在后面的小节我们会讨论这些细节。本小节不讨论,是因为图像中的像素都是同质的,不会表现出较大的差异分布,也就不需要标准化处理了。
  2. 如果数据是高维数据,考虑使用降维方法,比如PCA(wiki ref, CS229ref, blog ref)或随机投影。
  3. 将数据随机分入训练集和验证集。按照一般规律,70%-90% 数据作为训练集。这个比例根据算法中有多少超参数,以及这些超参数对于算法的预期影响来决定。如果需要预测的超参数很多,那么就应该使用更大的验证集来有效地估计它们。如果担心验证集数量不够,那么就尝试交叉验证方法。如果计算资源足够,使用交叉验证总是更加安全的(份数越多,效果越好,也更耗费计算资源)。
  4. 在验证集上调优,尝试足够多的k值,尝试L1和L2两种范数计算方式。
  5. 如果分类器跑得太慢,尝试使用Approximate Nearest Neighbor库(比如FLANN)来加速这个过程,其代价是降低一些准确率。
  6. 对最优的超参数做记录。记录最优参数后,是否应该让使用最优参数的算法在完整的训练集上运行并再次训练呢?因为如果把验证集重新放回到训练集中(自然训练集的数据量就又变大了),有可能最优参数又会有所变化。在实践中,不要这样做。千万不要在最终的分类器中使用验证集数据,这样做会破坏对于最优参数的估计。直接使用测试集来测试用最优参数设置好的最优模型,得到测试集数据的分类准确率,并以此作为你的kNN分类器在该数据上的性能表现。

参考:

CS231n课程笔记翻译:图像分类笔记(上) - 智能单元 - 知乎专栏
https://zhuanlan.zhihu.com/p/20894041

CS231n课程笔记翻译:图像分类笔记(下) - 智能单元 - 知乎专栏
https://zhuanlan.zhihu.com/p/20900216

李飞飞CS231n课程
http://cs231n.stanford.edu/slides/2017

  相关解决方案