欢迎小主! 162导航

DeepSeek启动“开源周”

阅读 282739 话题 1213

  • DeepSeek代码库开源进度1/5:为Hopper GPU优化的高效MLA解码内核

    IT之家 2 月 24 日消息,DeepSeek 今日启动“开源周”,首个开源的代码库为 FlashMLA—— 针对 Hopper GPU 优化的高效 MLA 解码内核,专为处理可变长度序列而设计。

    IT之家 423 阅读 3 评论 2025-02-24 09:51

  • DeepSeek开源周第一天,这才是真OpenAI FlashMLA #deepseek #openai #开源周 #ai #大模型

    JavaPub 32 播放 0 评论 2025-02-24 20:07

  • Deepseek被我难到了吗?怎么不回答我的问题#利用deepseek可以做什么

    聪颖奶酪1Js 128 播放 0 评论 2025-02-24 16:13

  • ..+GitHub趋势榜今早被神秘项目屠榜!开源社区惊现新一代视觉语言模型VLM-R1,这个基于DeepSeek R1方法论打造的"多模态学霸",竟然把Qwen-VL 2.5技术装进了开源框架! 当其他AI还在玩"看图说话"时,VLM-R1已经修炼出火眼金睛。用户随手问"照片里第三排左数第二个穿红色AJ的男生在哪",它能瞬间用像素级坐标框出目标。实测在复杂超市货架场景中,连包装上0.5cm高的保质期文字都能精准锁定! 更绝的是这波"白嫖"福利——开发者放出的开源代码支持本地部署,普通显卡就能跑。网友实测在宜家产品手册上测试,模型不仅能指出"斯佳蒙靠垫"位置,还能同步生成618促销文案!现在已有电商企业用它做智能客服,处理退货纠纷时效率暴涨300%。 #AI视觉革命# #开源模型逆袭# #科技改变生活# #深度学习新突破#

    几度回眸 1193 阅读 0 评论 2 点赞 2025-02-24 19:28

  • Deep seek的大火对于正在做外贸的朋友来讲并不是什么好事情。 首先做外贸最讲究的是信息差。 不管是做to b还是做to c的企业,他们在市场调研、团队建设、客户开发、产品开发以及内部流程方面,其实都有较高的门槛。 很多人说它可以帮助大家很简单的低成本就启动外贸这个生意。所以吸引了很多国内的工厂以及国内电商卖家下场想在外贸这个领域啊来分一杯羹。而他们进来最会搞的就是打价格战,这就是加大了供给量,而且加剧了价格竞争。 其次,中美的竞争一直是这些年世界的主旋律,不管是在半导体材料、高端芯片、新能源汽车、光伏储能等等这些领域都是全方位竞争。但是即使是在这样的高压之下,中国的deep seek也能横空出世。利用较低端的芯片,较短的时间以及最低的成本,能实现媲美ChatGPT的这个能力水平。 所以这也会加大以后的一些贸易冲突和贸易保护主义。特别是在高端领域,他们都想把这些东西呢吸引回去,在当地去生产。这样呢就减少了市场增长的需求,影响中国的这个出口。所以一方面是前面的讲到供给量加大,另外一方面是后面的需求减少。这对于正在做外贸的企业来讲,肯定是会面临更加严峻的一个形式。 未来中国企业在世界范围内一定是和这些最优秀的全世界的发达国家的一些企业去直接竞争。#外贸 #出口 #美国 #观点分享 #外贸ben哥

    外贸Ben哥 77 播放 0 评论 2025-02-24 17:52

  • ..+2025年,整个时代突然装上了加速器!可谓称得上真正意义上的AG I元年! 2025年1月20日Deepseek R1横空出世,具备了人类的思考能力,并且开源震惊世界! 作为文化不高,又是全职妈妈,我感觉要被时代抛弃了!联想着春晚机器人舞蹈,感叹人工智能、科技飞速的发展之快! 是不是未来的社会,机器人会代替更多的各行各业的工作,失业的人也越来越多了…… 人呀,不管何时何地,还是要多学习,努力跟上时代的发展,因为未来的世界更精彩!

    看淡人生且开心就好 84 阅读 0 评论 0 点赞 2025-02-24 20:43

  • ..+你敢信,一个仅120多人、几乎没有留学生的小团队,开发出的DeepSeek竟让美国忌惮,甚至导致英伟达股票市值暴跌6000亿!这背后,彰显的是我们顶尖的科研实力。 常听到某些专家唱衰,说我们技术差2 - 3代,可别忘了,我们仅用30年就赶超了西方几百年的积累。这是何等的成就!如今,面对AI、芯片等关键领域,我们缺人才、缺资本吗?不,缺的是敢于担当的大型组织人才,缺的是团结一心的信念与强大的自信心。 美国的打压,不该成为我们相互指责、抱怨的理由,而应是我们奋进的动力。当我们团结一致,就能汇聚起强大的力量。在科技的赛道上,我们完全有能力、有底气,用5年、10年赶超美国,展现东方大国的后发优势。 信心比黄金更重要,团结是无坚不摧的力量。未来只要我们坚定信心,攻克关键技术,定能让世界看到中国科技崛起的磅礴之势。

    灿烂孔雀m1g 496 阅读 0 评论 0 点赞 2025-02-24 19:25

  • ..+DeepSeek最新开源FlashMLA 针对 Hopper GPU 的高效 MLA 解码内核,针对可变长度序列服务进行了优化。 使用 CUDA 12.6,在 H800 SXM5 上实现高达 3000 GB/s 的内存绑定配置和 580 TFLOPS 的计算绑定配置。 https://github.com/deepseek-ai/FlashMLA

    编程吧 293 阅读 0 评论 0 点赞 2025-02-24 18:37

  • ..+Deepseek王炸组合图文详解版!!! DeepSeek+Kimi=自动生成ppt DeepSeek+Xmind=快速打造超强思维导图 DeepSeek+Mermaid=专业图表

    职场微管理 2035 阅读 0 评论 1 点赞 2025-02-24 18:54

  • ..+坚决抵制deepseek

    正大光明百灵鸟zo 37 阅读 0 评论 0 点赞 2025-02-24 19:13

  • ..+开源,永远的神。昨天,阶跃星辰开源了SOTA多模态模型,为国产开源贡献力量;deepseek也即将开源5个代码库,包括核心训练工具和推理优化工具。 这波开源操作,力度真大!阶跃星辰的Step-Video-T2V和Step-Audio,直接把国产多模态模型推上了世界顶尖水平。特别是Step-Audio,支持多种方言和演唱风格,这对于中文语音交互领域来说,绝对是里程碑式的进展。 deepseek开源的NSA原生稀疏注意力机制,更是直接把核心技术放了出来,这在业界真的不多见。 开源训练工具、推理优化工具,甚至包括模型架构细节,这充分展现了deepseek的开放态度。 这不仅方便开发者复现和改进模型,更能促进整个AI社区的技术进步。 这种彻底的开源,打破了技术壁垒,让更多人能够参与到AI技术的发展中来。“知识属于全人类”这句话,在这里体现得淋漓尽致。 这不仅是中国AI技术实力的体现,更是对全球AI社区的巨大贡献。 国产AI的开源行动,正在加速AI技术的普及和发展。 国内AI开源的这股劲儿,势头很猛,未来可期。你觉得这种完全开源的模式,对AI技术发展的影响会如何? #bgcgui#

    时尚半步癫 111 阅读 0 评论 0 点赞 2025-02-24 20:17

  • ..+DeepSeek 开源周首日重磅发布:FlashMLA大模型推理加速神器 专为Hopper GPU优化的MLA解码内核,针对变长序列进行深度调优,现已在生产环境投入使用! 项目亮点: 🔥 内存受限场景实现3000GB/s吞吐量 ⚡ 计算受限场景在H800 GPU达成580 TFLOPS算力 💡 支持BF16数据格式 🔧 集成64块大小的分页KV缓存 📦 简洁API设计,仅需几行代码即可调用 🎯适用场景 ✔️ 需要秒级响应的对话系统 ✔️ 处理超长文本的NLP应用 ✔️ 高并发AI服务部署 GitHub:github.com/deepseek-ai/FlashMLA

    程序员梓羽 1044 阅读 0 评论 3 点赞 2025-02-24 11:24

  • ..+【开源-deepseek】Deepseek 在第一天开源了 FlashMLA,这是一款为 Hopper GPU 优化的 MLA 解码内核,专为处理可变长度序列进行了优化。 特性: • 支持 BF16 格式 • 配备 64 块大小的分页 KV 缓存 性能: 在 H800 上实现: • 内存受限配置下:达到 3000 GB/s • 计算受限配置下:达到 580 TFLOPS 应用场景: FlashMLA 在 AI 服务部署中非常适合需要快速响应用户请求的场景,尤其是对于需要处理大量文本的应用,它的表现尤为突出。 现已投入生产环境使用。 使用说明: FlashMLA 是为 Hopper GPU 优化的高效 MLA 解码内核,支持可变长度序列的服务。 目前已发布: • 支持 BF16 格式 • 具有分页 KV 缓存,块大小为 64 快速开始: 安装: python setup.py install 基准测试: python tests/test_flash_mla.py 在 H800 SXM5 上,使用 CUDA 12.6,内存受限配置下可实现高达 3000 GB/s,计算受限配置下可实现高达 580 TFLOPS 的性能。 #deepseek#

    无糖AI 1183 阅读 0 评论 1 点赞 2025-02-24 11:46

丨头条热榜