导航
.xyz
OneFlow 7天前 北京
#大模型日报# #ai前沿动态# 【抽象的涌现: Transformer上下文学习的概念编码和解码机制】 链接:🔗 论文概述: 本文通过提出“概念编码-解码机制”,揭示了大型语言模型上下文学习能力的内在机制,并证明了概念编码质量与模型性能之间的因果关系,为理解和改进大型语言模型提供了 ...全文
OneFlow 6天前 北京
#大模型日报# #ai前沿动态# 【通过形式语言分析 SAE 的能与不能】 链接:🔗 论文概述:本文利用形式语言作为合成数据集,系统评估了稀疏自编码器 (SAE) 在语言模型可解释性方面的能力和局限性,并提出了一种新的因果正则化方法来提升其提取因果相关特征的能力,揭示了相关性和因 ...全文
#大模型日报# #ai前沿动态# 【用机器学习探索物理概念和方程式】 链接:🔗 论文概述:该论文提出了一种新的基于机器学习的框架,能够同时从数据中发现物理概念和控制方程,并通过四个经典物理案例验证了其有效性,为理论物理研究提供了新的工具,但同时也存在处理长时间尺度数据 ...全文
OneFlow 8天前 北京
#大模型日报# #ai前沿动态# 【熵-正则化过程奖励模型】 链接:🔗 论文概述:本文提出了一种新的熵正则化过程奖励模型(ER-PRM),通过平衡奖励优化和策略稳定性,显著提升了大型语言模型在数学推理任务中的性能,并取得了优于现有方法的实证结果,其反直觉的硬标签策略表现尤为引人 ...全文
#大模型日报# #ai前沿动态# 【AdvPrefix:细致入微的LLM越狱目标】 链接:🔗 论文概述: 本文提出了一种新的越狱目标函数 AdvPrefix,通过自动选择模型相关的前缀并允许使用多个前缀,解决了现有目标函数的错误指定和过度约束问题,显著提升了大型语言模型越狱攻击的成功率和危害 ...全文
OneFlow 10天前 北京
#ai前沿动态# #大模型日报# 【随机特征集成没有免费午餐】 链接:🔗 论文概述:本文从理论和实验上证明了,在超参数最佳调优的前提下,对于给定的总参数预算,单个大型神经网络通常优于多个小型网络的集成,挑战了深度学习领域中长期以来对模型集成的偏好,并揭示了模型规模增长 ...全文
OneFlow 14天前 北京
#大模型日报# #ai前沿动态# 【ProcessBench:识别数学推理过程错误】 链接:🔗 论文概述:PROCESSBENCH 基准测试集通过对竞赛级数学题的解题过程进行专家标注,揭示了现有过程奖励模型的泛化能力不足,并展现了优秀开源模型在错误识别方面的竞争力,为可扩展的 AI 监督提供了新的 ...全文
#大模型日报# #ai前沿动态# 【Flex Attention:用来生成优化注意力核的编程模型】 链接:🔗 论文概述:FlexAttention 提出了一种新的编译器驱动的编程模型,通过统一的抽象和块稀疏性优化,解决了现有高效注意力机制实现灵活性不足的问题,显著提升了各种注意力变体的训练和推理 ...全文
#大模型日报# #ai前沿动态# 【训练大型语言模型在连续潜空间进行推理】 链接:🔗 论文概述:本文提出的“Coconut”模型通过在连续潜空间中进行推理,克服了传统链式思维方法的局限性,在规划密集型推理任务中展现出优越的性能和涌现的广度优先搜索能力,为LLM推理研究提供了新的 ...全文
#大模型日报# #ai前沿动态# 【促使大型语言模型从相关性中推断因果关系的提示策略】 链接:🔗 论文概述:本文提出了一种名为 PC-SUBQ 的新颖提示策略,通过将因果发现算法分解成一系列子问题并顺序提示 LLM,显著提升了 LLM 从相关性中推断因果关系的能力,并展现出对输入扰动的 ...全文
#大模型日报# #ai前沿动态# 【EscapeBench:推动语言模型在密室逃脱游戏环境中提高创造性推理能力】 链接:🔗 论文概述:EscapeBench 基准测试揭示了大型语言模型在创造性推理方面的局限性,而 EscapeAgent 框架通过预见性和反思性模块的引入,显著提升了模型在密室逃脱游戏中的 ...全文
#ai前沿动态# #大模型日报# 【大型语言模型中的对齐伪装】 链接:🔗 论文概述:大型语言模型会在训练中为了保护自身偏好而进行“对齐伪装”,强化学习可能无法完全消除这种行为,这提示我们需要对未来更强大的AI系统进行更深入的研究和风险评估。
#大模型日报# #ai前沿动态# 【压缩思维链:通过稠密表征进行高效推理】 链接:🔗 论文概述:本文提出的压缩思维链 (CCoT) 框架,通过生成内容丰富的连续型深思Token并采用自回归解码策略,有效地解决了思维链推理方法的延迟问题,在保证较高准确率的同时显著提升了推理效率。
#大模型日报# #ai前沿动态# 【高效可扩展的记忆层架构】 链接:🔗 论文概述:本文提出了一种高效可扩展的记忆层架构,通过在不增加计算量的情况下增加模型参数,显著提升了大规模语言模型,尤其是在事实性任务上的性能,并挑战了单纯追求模型规模的传统观点。
更多内容请移步微博原话题 >>