多选题 以下做法可以解决避免陷入局部最优解的有()

A、 随机梯度下降
B、 增大batchsize
C、 设置不同初始值
D、 设置momentum
下载APP答题
由4l***6x提供 分享 举报 纠错

相关试题

多选题 K均值聚类和层次聚类在一些方面有重大差异,以下说法错误的是

A、在K均值聚类中,必须在运行算法前选定想要的簇的个数
B、在K均值聚类中,可以在运行算法后选定想要的簇的个数
C、在层次聚类中,必须在运行算法前选定想要的簇的个数
D、K均值聚类算法所需的计算量比层次聚类算法大的多

多选题 下面关于机器学习的理解,正确的是()

A、非监督学习的样本数据是要求带标签的
B、监督学习和非监督学习的区别在于是否要求样本数据带标签
C、强化学习以输入数据作为对模型的反馈
D、二维卷积神经网络一般用于自然语言问题的局部特征提取

多选题 以下关于集成学习的说法,正确的是()

A、随机森林是减少模型的方差,而GBDT是减少模型的偏差
B、随机森林是减少模型的偏差,而GBDT是减少模型的方差
C、组成随机森林的树可以串行生成,而GBDT是并行生成
D、组成随机森林的树可以并行生成,而GBDT是串行生成

多选题 下列可以用来评估线性回归模型的指标有()

A、R-Squared
B、MSE/MAE
C、FStatistics
D、AUC

多选题 在监督式学习中使用聚类算法,以下说法错误的有

A、可以先创建聚类,然后分别在不同的集群上应用监督式学习算法
B、在应用监督式学习算法之前,可以将其类别ID作为特征空间中的一个额外的特征
C、在应用监督式学习之前,不能创建聚类
D、在应用监督式学习算法之前,不能将其类别ID作为特征空间中的一个额外特征

多选题 关于决策树的优点描述,正确的是

A、可解释性强
B、既能解决回归问题,又能解决分类问题
C、决策树是无监督学习
D、分类速度快

多选题 关于学习器结合的描述,正确的是()

A、提高整体模型的泛化性能
B、降低陷入局部极小点的风险
C、假设空间扩大,有可能学到更好的近似
D、多学习器结合的整体模型性能依然无法超越其中性能最优的单学习器

多选题 随机森林在做数据处理方面的优势是()

A、不需要处理噪音
B、不需要做特征衍生
C、不需要做缺失值处理
D、不需要平衡数据集