当前位置: 代码迷 >> 综合 >> Coursera-MachineLearning-Week2题目整理
  详细解决方案

Coursera-MachineLearning-Week2题目整理

热度:20   发布时间:2023-11-11 07:13:46.0

编号按照对应的内容,1-1代表第一大部分遇到的第一题,R代表Review,C代表运行的代码(Code)。

2-1

2-1

解:上标代表数据行号,下标代表属性编号。

2-2

2-2

解:代价函数J的定义已经给出,对于线性回归,下列是正确的J的定义。每个选项的不同点主要在于h函数的选取。

h函数可以用θ向量的转置与x向量相乘,正确。

每一个θ均与对应的x相乘,且必须从0开始,因为x0为常数项,正确。

不正确。

每个数据只有一个预测值,右侧y的值不能累加,不正确。

2-3

2-3

解:使用特征缩放和均值归一化,您将使用以下哪项作为特征?其中age属性从30到50,平均值为38,根据公式x1=(x1-μ)/s,其中μ是均值,s是最大值减去最小值(标准差也可以)。

2-4

2-4

解:在图 C 中,成本函数在增加,因此学习率设置得太高。 图 A 和图 B 都收敛到成本函数的最优值,但图 B 收敛速度非常慢,因此其学习率设置得太低。 图A介于两者之间。

注意不要误选A。因为B才是很明显的收敛速度过慢。

2-5

2-5

解:特征缩放,所以x1=x1/1000,带入x1=size,x2=根号(size)即可。

2-6

2-6

解:x是m个x向量转置而组成的矩阵,y是m个结果。

R1

R1

R1-1

R1-1

解:问第三条数据正则化后的结果,x=(x-μ)/(max-min),带入即可。

R1-2

R1-2

解:梯度下降缓慢且15轮迭代后继续下降,说明目前的学习率设置过小。

R1-3

R1-3

解:y向量为n * 1,x矩阵为m * (n+1),θ向量为(n+1) * 1。

R1-4

R1-4

解:200000个特征,50个样本,选择梯度下降。特征值过多,正规方程的时间复杂度就越高,因此我们选择梯度下降,是因为计算正规方程比较慢。

R1-5

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5DEuPdn0-1625993297392)(D:\SystemFiles\Desktop\准备材料\学校\国防科技大学\丁博老师\学习情况\汇报\第五周内容\MachineLearning-Week2\R1-5.png)]

解:特征缩放将各种数值全归一为一个数量级大小的值。它对梯度下降法的帮助是:减少迭代次数,从而加速程序,并不是通过降低每一次迭代的计算成本。正如视频中所说,正规方程不需要特征缩放,因此有关正规方程的两个选项都不选。

R2

R2

R2-1

R2-1

解:

A矩阵是3 * 2,B矩阵为2 * 3。

A * B得到3 * 3矩阵,正确。

B’ + A,为3 * 2矩阵,正确。

A’与B不能相乘,错误。

A与B不能直接相加,错误。

R2-2

R2-2

解:B是A的前两列,所以选择能取到前两列的选项。

R2-3

R2-3

解:循环是用来得到每一维的结果,共10维。v是一个10 * 1的向量,v = A * x;

R2-4

R2-4

解:v向量是7 * 1 w向量是7 * 1, 上述代码的最终的结果是一个数值。

v .* w得到7*1的向量,再将所有值加到一起即可,正确。

w’ * v是也可以得到对应元素相乘加和,最后得到一个值,正确。

v * w’得到一个7 * 7的矩阵,不正确。

w * v’得到一个7 * 7的矩阵,不正确。

R2-5

R2-5

解:这里的每个操作都是针对单个元素的。

C = X + 1,正确。

D = X / 4,正确。

B = X .^ 2,正确。

不正确。