更新时间: 试题数量: 购买人数: 提供作者:

有效期: 个月

章节介绍: 共有个章节

收藏
搜索
题库预览
交叉熵损失函数常用于回归任务

简答题

简述卷积神经网络中池化层的作用,并说明最大池化和平均池化的区别。

作用:降维、减少计算量、防过拟合、保持特征不变性。

最大池化:取局部最大值,保留关键特征(如边缘),用于目标检测。

平均池化:取局部均值,保留整体特征,用于图像生成。

解释监督学习与无监督学习的核心区别,并各举一个算法实例。

监督学习:有标签,学输入 - 输出映射,如逻辑回归(垃圾邮件分类)。

无监督学习:无标签,学数据内在结构,如 K-means(用户聚类)。

简述反向传播算法的基本原理及其在深度学习中的重要性。

原理:前向算损失,反向用链式法则求梯度,迭代更新参数。

重要性:实现深层网络端到端优化,是神经网络训练核心。

解释深度学习中 “梯度下降” 算法的作用及其在模型训练中的意义。

作用:沿梯度反方向更新参数,找损失函数最小值。

意义:是模型优化基石,支持 CNN/RNN 等收敛,适配大规模数据。

简述 CNN 在计算机视觉中的典型应用场景,并举例说明。

目标检测:YOLO 检测图像中车辆位置。

图像分割:U-Net 分割医学影像肿瘤区域。

OCR:CRNN 识别身份证文字。

人脸识别:FaceNet 用于门禁认证。

一、

(含图)

分析此段代码的功能及流程

功能:用随机森林做分类任务,验证模型准确率。

流程:

导入库(numpy 生成数据,sklearn 做数据划分、建模、评估)。

造模拟数据:X(100 样本 ×10 特征)、y(0/1 标签)。

train_test_split 拆分 8:2 训练 / 测试集。

用训练集训 RandomForestClassifier,测试集预测,算准确率。

1 2