名词解释
- 深度学习:
- 稀疏自编码器:
- 正则化:
- 集成学习:
- Dropout:
- 卷积神经网络:
- 循环神经网络:
- 奇异值分解:
- 交叉熵/相对熵:
- 深度信念网络:
- 欠拟合与过拟合:
- 深度森林:
- 降噪自编码器:
- 胶囊网络:
- 深度可分离卷积:
- 目标检测:
- 焦点损失:
简答题:
- 请简述你对误差反向传播算法的理解:
- 请列出卷积神经网络的主要结构模块,以及各个模块完成的功能——
- 请简述你对LSTM的理解,并解释为什么它能够解决长时依赖问题。
- 请简述深度学习中常见的避免过拟合的方法注:避免欠拟合的方法:
- 请简述你对生成对抗网络的理解,并简述其训练过程。
- 请简述你对胶囊网络的理解。
- 请简述 Yolo 算法的主要思想和实现过程
- 请简述GRU网络的主要思想,并用图和公式表达其计算过程
- 请简述Dropout的实现方式,并阐述你理解的它对于解决过拟合问题的原因。
- 请简述你对Batch Normalization的理解,并说明其在训练和测试阶段如何实现?
- 请简述你对残差网络的理解,并解释为什么它能够解决梯度消失问题。
- 请写出对矩阵Amxn(m≠n)进行奇异值分解的过程。
- 请简述随机梯度下降法的基本思想并图示说明
- 请简述Transformer的主要思想,并用图和公式说明。
计算:
- 多分类任务中,某个样本的期望输出为(0,0,0,1),两个模型A和B都采用交叉熵作为损失函数,针对该样本的实际输出分别为(In20,In40,In60,In80)、(In10,In30,ln50,In90),采用Softmax 函数对输出进行归一化并计算两个模型的交叉熵,说明哪个模型更好。提示:lg2≈0.301,lg3≈0.477。
- 计算焦点损失:
- 计算感受野:注:最后等于1就行
- 计算参数量:卷积核大小 X 深度 X 通道数【特征图的通道数和前面所选卷积核深度相关】