爱可可-爱生活 29天前 北京
【Awesome-Efficient-MoE:专注于高效混合专家(MoE)模型相关研究的精选资源集合,收录了MoE模型及其高效变体的研究论文和资源。该仓库涵盖了稀疏MoE、MoE压缩、剪枝、量化、分解和加速等多个研究方向,同时提供中英双语内容解读】 'This repository collects research papers and resources about Mix ...全文
爱可可-爱生活 29天前 北京
【Awesome-Efficient-MoE:专注于高效混合专家(MoE)模型相关研究的精选资源集合,收录了MoE模型及其高效变体的研究论文和资源。该仓库涵盖了稀疏MoE、MoE压缩、剪枝、量化、分解和加速等多个研究方向,同时提供中英双语内容解读】 'This repository collects research papers and resources about Mix ...全文
爱可可-爱生活 23天前 北京
【FluxKits:Flux系列模型工具集,包含两个主要部分:1) Flux-mini,一个3.2B参数的文生图模型,是从12B的Flux-dev模型蒸馏而来,大幅降低硬件需求;2) Flux-NPU,支持在NPU设备上运行Flux模型的工具库。特点是在保持较好生成效果的同时,显著降低了训练和推理的显存占用与计算时间】 'A repo that fac ...全文
爱可可-爱生活 42天前 北京
【DeepCompressor:大型语言模型和扩散模型的模型压缩工具箱,支持8bit以内的任何整数和浮点数据类型的假量化,例如INT8、INT4和FP4_E2M1,具有高效压缩和加速模型推理的特点】'Model Compression Toolbox for Large Language Models and Diffusion Models' GitHub: ...全文
PaperWeekly 2804天前
Exploring Sparsity in Recurrent Neural Networks #模型压缩# 本文的工作来自百度,解决的问题是RNN模型的压缩,模型尺寸压缩了将近8x,准确率保持了一定的水准。对模型压缩感兴趣的童鞋可以来看看。 论文地址:🔗
PaperWeekly 2930天前
#模型压缩# 模型过大是DL的一个问题,尤其是在部署模型时,这个问题尤其明显。本文工作来自FB,是开源分类工具fasttext的一个模型压缩版。 FastText.zip: Compressing text classification models 🔗