AI逻界

  • 首页
  • AI工具大全
  • AI教程
  • AI资讯
  • 工具测评
AI工具
AI工具文章

AI逻界

  • AI写作
  • AI办公
  • AI图像
  • AI视频
  • AI训练
  • AI设计
  • AI问答
  • AI音频
全部标签

CUDA

  • 无需CUDA代码!H100加速提升33%-50%,Flash Attention作者新作引发热议

    无需CUDA代码!H100加速提升33%-50%,Flash Attention作者新作引发热议

    据最新报道,Flash Attention 的共同作者 Tri Dao 与普林斯顿大学的两位博士生联合推出了一个名为 QuACK 的新内核库,令人瞩目的是,他们仅使用 Python 和 CuTe-DSL 开发,完全没有涉及 CUDA C++ 代码。这一创新不仅打破了传统的编程框架,还在强大的 H100显卡上实现了比 PyTorch 中的 torch.compile 和 Liger 等库快33%-5…
    AI资讯
    • 2
    • 0
    AI逻界AI逻界7月22日
Copyright © 2025 AI逻界
・宁ICP备2022000687号-38
查询 82 次,耗时 0.5563 秒