关于L1正则和L2正则下面的说法正确的是()
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和的开方值
C.L2正则化有个名称叫“Lassoregularization”
D.L1范数会使权值稀疏
A.L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B.L2正则化标识各个参数的平方的和的开方值
C.L2正则化有个名称叫“Lassoregularization”
D.L1范数会使权值稀疏
第1题
A.L2正则化可以做特征选择
B.L1和L2正则化均可做特征选择
C.L1正则化可以做特征选择
D.L1和L2正则化均不可做特征选择
第2题
A.为了防止过拟合可以使用L1或L2正则化
B.为了防止过拟合可以使用提前终止训练的方法
C.为了防止过拟合可以使用Dropout
D.训练过程中的损失值越小,其在存过拟合的风险越低
第3题
A.正则化:L1、L2正则化,为拟合增加条件约束
B.丢弃一些不能帮助我们正确预测的特征
C.保留所有的特征,但是减少参数的大小
D.构建更为复杂的模型
第4题
A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合
B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合
C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
D.通过增加数据扰动的数据增强减少了神经网络的过拟合
第5题
A.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
B.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
C.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值
D.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值
第7题
A.参数平方和作为模型目标函数的一部分
B.参数绝对值之和作为模型目标函数的一部分
C.Lasso回归
D.在模型训练时,随机丢弃部分参数以达到正则化效果
E.岭回归
F.逻辑回归
第8题
A.正则条件在任何情况下都是成立的
B.任意无偏估计量的方差都要大于等于CRLB
C.达到CRLB的无偏估计称为有效估计量
D.Fisher信息越大,CRLB越小
第9题
A.数据集合扩充
B.L1和L3正则化
C.提前停止训练
D.使用Dropout方法
第10题
A.LR模型在加入正则化项后Variance将增大
B.线性SVM是寻找最小边缘的超平面的一个分类器
C.Xgboost和GDBT都是属于boosting算法
D.xgboost和随机森林都是属于bagging算法
第11题
A.CIS-IS有两个级别,区分两个层次
B.L1和L2运行相同的SPF算法
C.骨干区BACkBone是连续的Level2路由器的集合
D.一个路由器不能同时参与L1和L2