交叉熵损失函数常用于回归任务简答题
简述卷积神经网络中池化层的作用,并说明最大池化和平均池化的区别。
作用:降维、减少计算量、防过拟合、保持特征不变性。
最大池化:取局部最大值,保留关键特征(如边缘),用于目标检测。
平均池化:取局部均值,保留整体特征,用于图像生成。
解释监督学习与无监督学习的核心区别,并各举一个算法实例。
监督学习:有标签,学输入 - 输出映射,如逻辑回归(垃圾邮件分类)。
无监督学习:无标签,学数据内在结构,如 K-means(用户聚类)。
简述反向传播算法的基本原理及其在深度学习中的重要性。
原理:前向算损失,反向用链式法则求梯度,迭代更新参数。
重要性:实现深层网络端到端优化,是神经网络训练核心。
解释深度学习中 “梯度下降” 算法的作用及其在模型训练中的意义。
作用:沿梯度反方向更新参数,找损失函数最小值。
意义:是模型优化基石,支持 CNN/RNN 等收敛,适配大规模数据。
简述 CNN 在计算机视觉中的典型应用场景,并举例说明。
目标检测:YOLO 检测图像中车辆位置。
图像分割:U-Net 分割医学影像肿瘤区域。
OCR:CRNN 识别身份证文字。
人脸识别:FaceNet 用于门禁认证。
一、
(含图)
分析此段代码的功能及流程
功能:用随机森林做分类任务,验证模型准确率。
流程:
导入库(numpy 生成数据,sklearn 做数据划分、建模、评估)。
造模拟数据:X(100 样本 ×10 特征)、y(0/1 标签)。
train_test_split 拆分 8:2 训练 / 测试集。
用训练集训 RandomForestClassifier,测试集预测,算准确率。