欢迎小主! 162导航

#论文解读#

  • 六一和田玲 356天前 上海

    文献解读vlog I 分析一下面部K衰黑科技 emface 比起对仪器本身的追求 我更喜欢研究仪器能否长久带来正向效果 这一期重点跟大家分享emface官方论文的解读 #emface# #论文解读# #六一和田玲# 六一和田玲的🎞︎微博视频

  • P

    PaperWeekly 1288天前 

    #论文解读# 文本语法纠错不完全调研:学术界 v.s. 工业界最新研究进展 🔗

  • A

    AMiner学术头条 1663天前 

    #ACL 2020# #论文解读# 无监督?无监督!你没试过的BERT的全新用法!Perturbed Masking: Parameter-free Probing for Analyzing and Interpreting BERT🔗来自香港大学和华为诺亚方舟实验室的研究人员提出了一种无监督的探索BERT可解释性的方法——扰动掩码,其不需要来自探 ...全文

  • 皓皓耿快乐科研 147天前 呼和浩特

    #论文解读# #图神经网络# #异质图神经网络# #自监督学习# 题目:Reserving-Masking-Reconstruction Model for Self-Supervised Heterogeneous Graph Representation 作者:Haoran Duan, Cheng Xie*, Linyu Li 机构:云南大学 会议:SIGKDD, 2024 摘要:自监督异构图表示学习广泛应用于数据挖掘。最新的 ...全文

  • 皓皓耿快乐科研 147天前 呼和浩特

    #论文解读# #图神经网络# #大模型# 图神经网络推动了图结构数据分析的进步。最近,像GPT-4这样的大型语言模型的兴起标志着深度学习新时代的到来。然而,由于将图结构转化为语言的固有难度,它们应用于图数据时面临着独特的挑战。为此,我们引入了大型语言和图助手(LLaGA),这是一种创新模型,能够有效 ...全文

  • 皓皓耿快乐科研 175天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# Making Large Language Models Perform Better in Knowledge Graph Completion KoPA (2023) 本文首先使用类似TransE的方法,学习知识图谱的结构信息。然后将三元组(h,r,t)三个元素的结构编码通过知识前缀适配器(即MLP)转换为虚拟知识标记K,然后将K放在LL ...全文

  • 皓皓耿快乐科研 175天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# KICGPT: Large Language Model with Knowledge in Context for Knowledge Graph Completion KICGPT (EMNLP, 2023) 本文提出了一个框架,整合了传统的知识图谱补全(KGC)模型和大型语言模型(LLM),首先使用传统KGC模型召回候选实体,然后根据候选实体的邻 ...全文

  • 皓皓耿快乐科研 177天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# Exploring Large Language Models for Knowledge Graph Completion KG-LLM (2023) 本文将三元组分类、关系预测、链接预测三个任务作为使用大型语言模型(LLM)的序列到序列生成问题。作者为每个任务设计了相应的提示,并使用指令微调技术进行微调。此外,作 ...全文

  • 皓皓耿快乐科研 177天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# Dipping PLMs Sauce: Bridging Structure and Text for Effective Knowledge Graph Completion via Conditional Soft Prompting CSProm-KG (ACL, 2023) 现有的将预训练语言模型(PLM)用于知识图谱补全(KGC)的方法往往专注于学习文本信息,而忽视了结构知 ...全文

  • 皓皓耿快乐科研 178天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach PKGC (ACL, 2022) 本文解决了结合文本模型的知识图谱补全(KGC)方法存在的两个问题: (1)对预训练语言模型(PLM)的运用不当。大多数基于 ...全文

  • 皓皓耿快乐科研 178天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# Multi-task Pre-training Language Model for Semantic Network Completion LP-BERT (TALLIP, 2022) 本文提出了一种知识图谱补全的新框架,包含多任务预训练阶段和知识图谱微调阶段。 在多任务预训练阶段,含有预测实体或关系等三项任务: (1)掩码实体建 ...全文

  • 皓皓耿快乐科研 179天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# Language Models as Knowledge Embeddings LMKE (IJCAI, 2022) 本文提出了一种新的对比学习框架用于知识图谱补全,以缓解昂贵的负采样问题(但是我觉得,传统的KGC负采样方法也并不昂贵)。 首先使用语言模型对三元组(h,r,t)进行编码,将(h,r,t)的描述文本 ...全文

  • 皓皓耿快乐科研 179天前 北京

    #论文解读# #知识图谱# #大模型# #链接预测# From Discrimination to Generation: Knowledge Graph Completion with Generative Transformer GenKGC (WWW短文, 2022) 与KG-S2S (COLING, 2022)的方法类似,作者也提出将知识图谱链接预测转换为Seq2Seq的生成任务,但是在输入语言模型的句子的首部增加了 ...全文

丨话题榜