欢迎小主! 162导航

#EMNLP 2021#

  • P

    PaperWeekly 1211天前 

    #论文推荐# #EMNLP 2021# #预训练模型# T3-Vis: a visual analytic framework for Training and fine-Tuning Transformers in NLP 🔗 这篇论文作者提出了一个对于 transformer 的可视化框架,允许用户通过交互式可视化探索模型的不同方面(例如,隐藏状态、注意力),并允许使用一套 ...全文

  • P

    PaperWeekly 1211天前 

    #论文推荐# #EMNLP 2021# #预训练模型# Thermostat: A Large Collection of NLP Model Explanations and Analysis Tools 🔗 为了促进语言领域的神经可解释性研究,论文作者展示了 Thermostat,其中包含大量模型解释和随附的分析工具。Thermostat 允许轻松访问超过 200k 解释,用于跨 ...全文

  • P

    PaperWeekly 1211天前 

    #论文推荐# #EMNLP 2021# #预训练模型# CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation 🔗 BERT 和 GPT 等自然语言(NL)的预训练模型最近已被证明可以很好地转移到编程语言(PL)上,并在很大程度上受益于一系列与代 ...全文

  • P

    PaperWeekly 1211天前 

    #论文推荐# #EMNLP 2021# #预训练模型# The Power of Scale for Parameter-Efficient Prompt Tuning 🔗 在这篇论文中,作者探索了 “prompt tuning” 用于学习“soft prompt”以调节冻结语言模型(FPT)以执行特定的下游任务。通过使用 T5 对模型大小的消融,作者表明 prompt tuning ...全文

  • P

    PaperWeekly 1211天前 

    #论文推荐# #EMNLP 2021# #预训练模型# The Devil is in the Detail: Simple Tricks Improve Systematic Generalization of Transformers 🔗 这篇论文的作者提出了几个提高 transformer 系统泛化性的技巧,分别为: 使用相对位置嵌入解决 EOS 决策问题:实验表明,如果模型在没有 ...全文

  • P

    PaperWeekly 1211天前 

    #论文推荐# #EMNLP 2021# #预训练模型# Frustratingly Simple Pretraining Alternatives to Masked Language Modeling 🔗 掩码语言建模(MLM)训练模型来预测输入标记的随机样本,这些样本在整个词汇表的多类设置中被 [MASK] 占位符替换。在预训练时,通常在标记或序列级别上与 MLM 一 ...全文

  • 香侬科技 1220天前 

    #NLP国际顶会# #EMNLP 2021# 近日,一年一度的国际自然语言处理顶会EMNLP 2021论文接收结果放出,香侬科技4篇论文被会议接收,在坚持前沿技术自主创新之道上再次取得新突破。此次香侬科技被EMNLP录用论文,针对自然语言处理领域实际产业落地的诸多重要关键问题展开深入研究,在模型压缩、异常样本(OOD) ...全文

  • 大大大大学渣 1227天前 

    睡一觉起来就放榜了#EMNLP 2021# 希望能中

丨话题榜