当前位置: 代码迷 >> 综合 >> Coursera-MachineLearning-Week3题目整理
  详细解决方案

Coursera-MachineLearning-Week3题目整理

热度:68   发布时间:2023-11-11 07:07:23.0

''编号按照对应的内容,1-1代表第一大部分遇到的第一题,R代表Review,C代表运行的代码(Code)。

1-1.

1-1

解:D

A:如果线性回归不适用于分类任务,就像前面的视频中的示例一样,应用特征缩放不会有所帮助,错误。

B:如果训练集满足0<yi<1,则对于a的所有值(xi,yi),线性回归的预测不满足0<h(x)<1,错误。线性回归的值是可以取一条直线,可以想象,除垂直于x轴外,其余直线的取值包含整个实数域。

C:如果特征x能完美预测y,x>=c时y=1,x<c时y=0线性分类将是零分类误差,错误。此问题尚未说明是二分类问题,y的取值不一定只有0和1。

1-2.

1-2

解:A

二分类问题中,y=0的概率与y=1的概率和为1。

1-3.

1-3

解:A

5-x1>0时y=1,即x1<5时y=1。

2-1.

2-1

解:B

凸函数只有一个局部最优解,也是全局最优解。

2-2.

2-2

解:ABD

A:如果h函数能与y完美契合,那么代价函数值为0,正确。

B:如果y=0,h趋于1时代价函数趋于无穷,正确。

C:错误。

D:无论y=0还是y=1,如果h函数等于0.5,则与这两个值都有差距,故代价函数大于0,正确。

2-3.

2-3

解:B

使用logistic的代价函数作为每次迭代的函数,这样就可以确保J(θ)在每次迭代中都减少。

2-4.

2-4

解:A

向量化的实现需要计算每个样本的误差和,只有A符合。

2-5.

2-5

解:C

CODE1和CODE2属于不同的梯度更新,B应用的应该是theta(0)和theta(1)。

2-6.

2-6

解:B

多分类,k类就需要k个分类器。

3-1.

3-1

解:C

过拟合意味着在训练集上效果很好,在测试集上效果很差。

3-2.

3-2

解:C

正则项λ设置的太大,图像上可以看出趋近于一条平行于x的一条直线,很容易就欠拟合。也可以这样理解,过大的λ也就代表了误差的对于函数J的影响变小,也就是代价函数主要受θ控制,而不再受误差影响。

3-3.

3-3

解:C

正则化后每次θ的系数会变小一点。

3-4.

3-4

解:C

引入正则化是相加。

R

R1-1

R1-1

解:AB

逻辑回归的值代表着类别为1的概率。

R1-2.

R1-2

解:AB

A:添加多项式特征会提高训练数据的拟合程度,正确。

B:θ的最佳值时,我们的函数J大于等于0,正确。因为从图像中可以看出,使用这个模型不能完全拟合,存在着一定的误差。

C:添加多项式系数,拟合程度会变高,代价函数J会下降,错误。

D:逻辑回归函数h的值不可能大于1,错误。

R1-3.

R1-3

解:AB

A中的h函数可以用B中对应位置的函数代替。

R1-4.

R1-4

解:AB

A:因为H_theta(x)总是0到1,故CostFunction按照定义一定是大于等于0的,正确。

B:sigmoid函数对的值不会大于1,正确。罗辑回归可以使用“区分一类和其他剩下类”的方法

C:如果使用线性回归所做预测的阈值进行分类,线性回归对分类并非总有很好的效果,错误。

D:逻辑回归是凸函数的优化,逻辑回归一定会收敛到全局最优解,错误。

R1-5.

R1-5

解:D

-6+x2>0时y=1,即x2>6时y=1。

R2-1.

R2-1

解:D

A:添加新的特征不能避免过拟合,错误。

B:引入正则化并非会在训练集上表现得更好,一般来说会变差,错误。

C:引入正则化也不一定会在非训练数据集中表现更好,错误。

D:添加一个新特征一定会在训练数据集中表现的更好,正确。

R2-2.

R2-2

解:A

引入正则化后θ会变得更小。

R2-3.

R2-3

解:B

A:使用过大的λ会导致欠拟合,错误。

B:分类问题中,如果引入正则化,会导致部分的训练数据错误分类,正确。

C:使用过大的λ值会导致更差的h函数的表现,错误。

D:正则化对逻辑回归也有效果,错误。

R2-4.

R2-4

解:A

低误差,高准确度,预测曲线又太过复杂。

R2-5.

R2-5

解:A

有很多数据点都不在曲线上。