在深度学习/神经网络中,“shared encoder(共享编码器)”指多个任务、多个输出分支或不同模态共同使用同一个编码器网络(共享参数),把输入映射成通用的特征表示,以提升数据利用率、促进迁移、减少参数量并增强一致性。(在不同论文/架构中也可能有更具体的实现方式。)
/ʃɛrd ɪnˈkoʊdər/
We use a shared encoder for both tasks.
我们为两个任务使用同一个共享编码器。
In a multi-task model, a shared encoder learns general representations from text, while separate heads specialize for translation and sentiment classification.
在多任务模型中,共享编码器从文本中学习通用表示,而不同的输出头分别专注于翻译与情感分类。
shared 来自古英语 scearu(“分配、共同份额”相关概念的演变),现代英语中常表示“共同使用/共享”。encoder 源于 encode(en- “使…” + code “编码/代码”),在机器学习语境里指把原始输入“编码”为向量表示的网络模块。合起来 shared encoder 就是“被多个部分共同使用的编码器”。