单选题 在深度神经网络中,激活函数 ReLU 的数学表达式是()。

A、 $f(x)=\frac{1}{1+e^{-x}}$
B、 $f(x)=\max(0,x)$
C、 $f(x)=\tanh(x)$
D、 $f(x)=e^x$
下载APP答题
由4l***vj提供 分享 举报 纠错

相关试题

单选题 在深度学习中,迁移学习的主要思想是()。

A、将预训练模型的参数迁移到新的任务中进行微调
B、将不同模型的参数进行融合
C、将训练好的模型迁移到不同的硬件平台上运行
D、将模型的训练过程迁移到云端进行

单选题 下列哪种优化算法常用于深度学习( )

A、梯度下降法
B、牛顿法
C、遗传算法
D、模拟退火算法

单选题 Adam 优化器结合了哪两种优化方法?

A、SGD 与 Momentum
B、RMSprop 与 Momentum
C、AdaGrad 与 RMSprop
D、SGD 与 AdaGrad

单选题 下列哪项是深度学习的主要特点( )

A、基于规则的系统
B、多层神经网络
C、简单的特征工程
D、手动设计特征

单选题 在深度学习中,Batch Size 过大会导致()。

A、训练不稳定
B、收敛速度过慢
C、内存消耗过大
D、模型欠拟合

单选题 深度学习主要依赖于()。

A、单层神经网络
B、多层神经网络
C、反馈神经网络
D、卷积神经网络

单选题 在训练深度网络时,Batch Normalization 的主要作用是()。

A、防止过拟合
B、加速收敛并稳定梯度
C、数据增强
D、降低计算量

单选题 以下哪一项不是深度学习框架?

A、TensorFlow
B、PyTorch
C、Scikit-Learn
D、Keras