多项选择题X 纠错
A.注意力机制的含义表示输出与输入之间的对应关系
B.解码器强化了不同时刻输出之间的关系
C.引注意力机制后会减少编码器(RNN)和解码器(RNN)的长跨度依赖问题
D.使用注意力机制之后会增加计算量,但是性能水平能够得到提升
你可能喜欢
多项选择题
A.解码器上一时刻隐层的输出
B.解码器该时刻的输出
C.编码器的输入
D.编码器各个时刻隐单元的输出
单项选择题
A.两种做法没什么区别
B.前者的做法效果不如后者
C.可以把编码器的输入之间的语义关系与解码器的输出之间的语义关系更好地对应
D.可以把编码器的输入之间的时序关系与解码器的输出之间的时序关系更好地对应
单项选择题
A.更好地拟合编码器输入词之间的语义关系
B.更好地拟合编码器输入词之间的次序
C.更好地拟合编码器输入和输出之间的次序关系
D.更好地拟合编码器输入和输出之间的语义关系
单项选择题
A.拟合解码器输出词之间的语义关系
B.拟合编码器输入和解码器输出之间的语义关系
C.拟合编码器输入和解码器输出之间的词序关系
D.拟合解码器输出词之间的顺序关系
单项选择题
A.上下文向量是注意力机制实现的手段
B.上下文向量把编码器和解码器组合成完整的Seq2Seq模型
C.上下文向量中的元素需要当做网络参数训练得到
D.上下文向量拟合了编码器的不同时刻输入对解码器输出的影响
单项选择题
A.在无注意力机制的Seq2Seq模型中,语义向量c对解码器的输出作用是无差异的
B.在Seq2Seq模型中,编码器和解码器可以使用不同的RNN模型
C.在Seq2Seq模型中,语义向量c的作用拟合编码器不同输入的关系,也要拟合与解码器输出之间的映射
D.引入注意力机制后,解码器不同时刻的输入对应的语义向量是相同的