欢迎小主! 162导航

#GPU编程#

  • 爱可可-爱生活 101天前 北京

    【CUDA课程:为高性能计算(HPC)工作降低门槛,提供理解CUDA编程项目如Karpathy的llm.c的基础,整合分散的CUDA编程资源为一个全面、有组织的课程】'cuda-course - GitHub Repo for CUDA Course on FreeCodeCamp' GitHub: github.com/Infatoshi/cuda-course #CUDA# #GPU编程# #高性能计算#

  • 爱可可-爱生活 102天前 北京

    【GPU模式教程:为GPU编程爱好者提供的系列讲座资料,涵盖了从基础到高级的GPU编程技巧,特色在于实战案例和代码分享】'gpu-mode/lectures - Material for gpu-mode lectures' GitHub: gpu-mode/lectures #GPU编程# #CUDA# #并行计算#

  • 爱可可-爱生活 34天前 北京

    【fast.cu:一个高性能CUDA内核库,包含从零开始编写的超高效GPU计算内核,其矩阵乘法性能超过cuBLAS(在4096×4096矩阵上达到763 TFLOPs),求和规约性能达到3240GB/s,展示了极致的GPU计算优化】 'Fastest kernels written from scratch' GitHub: github.com/pranjalssh/fast.cu #CUDA优化# ...全文

  • 爱可可-爱生活 9天前 北京

    【Triton资源库:一个精选的资源列表,用于学习和探索Triton——OpenAI推出的编程语言,旨在编写高效的GPU代码】'rkinas/triton-resources: A curated list of resources for learning and exploring Triton, OpenAI's programming language for writing efficient GPU code.' GitHub: ...全文

  • 爱可可-爱生活 32天前 北京

    【KernelBench:用于评估大语言模型(LLM)编写GPU内核能力的基准测试工具。提供4个级别的测试类别,包括单内核运算符、简单融合模式、完整模型架构和HuggingFace模型优化。可测试LLM将PyTorch算子转译为CUDA内核的能力,并评估生成代码的编译、正确性和性能】 'KernelBench - Can LLMs Write GPU Kernel ...全文

  • 爱可可-爱生活 112天前 北京

    【Galaxy Visualization with Raylib:利用Raylib可视化10万真实星系与10万随机分布星系,展现宇宙的宏伟与神秘】'100k real ( +100k random ) galaxies from a sector. Visualized with Raylib.' GitHub: github.com/Avicted/galaxy_visualization_raylib #星系可视化# #Raylib# #宇宙探索# #GPU编程#

  • 范樱的本真 341天前 杭州

    【资料参考】【GPU编程】除了CUDA之外,还有一些其他的平台模型与其类似,旨在提供并行计算和高效资源利用的能力。以下是一些类似的平台模型: OpenCL(Open Computing Language):OpenCL是一个开放的并行计算框架,旨在提供跨平台的异构计算能力。它支持多种处理器类型,包括CPU、GPU、DSP和FPGA等 ...全文

丨话题榜