单选题 BERT模型采用的Transformer结构是?

A、 单向解码器
B、 单向编码器
C、 双向编码器
D、 双向解码器
下载APP答题
由4l***1d提供 分享 举报 纠错

相关试题

单选题 在BERT中,[CLS]标记的主要作用是?

A、表示句子结束
B、用于分类任务
C、表示句子开始
D、分隔两个句子

单选题 在LLM中,上下文学习(In-context Learning)的核心思想是?

A、模型微调
B、利用上下文信息进行推理
C、增加训练数据
D、提高模型泛化能力

单选题 以下哪项技术不属于词向量表示方法?

A、Word2Vec
B、GloVe
C、ELMo
D、BERT

单选题 在BERT模型中,NSP任务的主要作用是?

A、预测被掩码的词
B、判断两个句子是否连续
C、生成文本
D、提取词向量

单选题 以下哪项不是BERT模型的预训练任务?

A、MLM
B、NSP
C、LM
D、SOP

单选题 以下哪项不是BERT模型的组成部分?

A、Token Embeddings
B、Segment Embeddings
C、Position Embeddings
D、Attention Embeddings

单选题 在Transformer模型中,Self-Attention机制的主要优势是?

A、减少参数量
B、并行计算能力强
C、提高模型泛化能力
D、降低训练难度

单选题 以下哪项不是传统NLP中n-gram模型的缺点?

A、数据稀疏问题
B、无法捕捉长距离依赖
C、计算复杂度高
D、依赖标注数据