測試flashinfer是否正確編譯安裝

字號+ 編輯: 种花家 修訂: 种花家 來源: 网络转载 2025-04-05 我要說兩句(0)

一個簡單的編譯flashinfer後檢查該工具是否正常安裝的腳本,留作記錄。

先寫個python腳本, test.py, 保存後運行, 或者直接在命令行裡輸入python回車後粘貼運行下方代碼:

import torch
import flashinfer
 
kv_len = 2048
num_kv_heads = 32
head_dim = 128
k = torch.randn(kv_len, num_kv_heads, head_dim).half().to('cuda')
v = torch.randn(kv_len, num_kv_heads, head_dim).half().to('cuda')
 
# CUDA Decoding for single request
q = torch.randn(num_kv_heads, head_dim).half().to('cuda')
o = flashinfer.single_decode_with_kv_cache(q, k, v)
print("FlashInfer seems ok.")

如果報運行腳本時TORCH_CUDA_ARCH_LIST變量找不到, 那是因爲你編譯的時候沒限定用了哪些CUDA計算能力, 不指定CUDA架構號(CUDA計算能力/cuda compute capability)會讓編譯後的二進制包很大, 想減少二進制包大小, 見傳送門 https://www.wkwkk.com/articles/4c51566535e88f71.html

閲完此文,您的感想如何?
  • 有用

    1

  • 沒用

    0

  • 開心

    0

  • 憤怒

    0

  • 可憐

    0

1.如文章侵犯了您的版權,請發郵件通知本站,該文章將在24小時内刪除;
2.本站標注原創的文章,轉發時煩請注明來源;
3.交流群: 2702237 13835667

相關課文
  • 通過i參數使用國内鏡像給pip安裝提速

  • Conda刪除不用的虛擬環境

  • flask框架知識點總結

  • linux - centos 7.x安裝python3.10教程

我要說說
網上賓友點評