<em id="7f7jb"></em>
<sub id="7f7jb"><progress id="7f7jb"><thead id="7f7jb"></thead></progress></sub>
    <track id="7f7jb"></track>

    <progress id="7f7jb"><meter id="7f7jb"><th id="7f7jb"></th></meter></progress>

      <pre id="7f7jb"></pre>

      <del id="7f7jb"><sub id="7f7jb"><strike id="7f7jb"></strike></sub></del>
      <video id="7f7jb"><track id="7f7jb"><th id="7f7jb"></th></track></video>

      千鋒教育-做有情懷、有良心、有品質的職業教育機構

      手機站
      千鋒教育

      千鋒學習站 | 隨時隨地免費學

      千鋒教育

      掃一掃進入千鋒手機站

      領取全套視頻
      千鋒教育

      關注千鋒學習站小程序
      隨時隨地免費學習課程

      【熱點話題】 零基礎學IT IT學習教程 IT學習筆記 IT技術干貨 IT培訓機構 IT應聘面試 IT職場就業 Java培訓機構哪些好
      當前位置:首頁  >  關于學院  >  技術干貨  > 用Numba加速Python代碼,變得像C++一樣快

      用Numba加速Python代碼,變得像C++一樣快

      來源:千鋒教育
      發布人:wjy
      時間: 2022-11-16 14:07:42 1668578862

        1.介紹

        Numba 是 python 的即時(Just-in-time)編譯器,即當你調用 python 函數時,你的全部或部分代碼就會被轉換為“即時”執行的機器碼,它將以你的本地機器碼速度運行!它由 Anaconda 公司贊助,并得到了許多其他組織的支持。

        在 Numba 的幫助下,你可以加速所有計算負載比較大的 python 函數(例如循環)。它還支持 numpy 庫!所以,你也可以在你的計算中使用 numpy,并加快整體計算,因為 python 中的循環非常慢。你還可以使用 python 標準庫中的 math 庫的許多函數,如 sqrt 等。有關所有兼容函數的完整列表,請查看 此處。

        2.為什么選擇 Numba?

        那么,當有像 cython 和 Pypy 之類的許多其他編譯器時,為什么要選擇 numba?

        原因很簡單,這樣你就不必離開寫 python 代碼的舒適區。是的,就是這樣,你根本不需要為了獲得一些的加速來改變你的代碼,這與你從類似的具有類型定義的 cython 代碼獲得的加速相當。那不是很好嗎?

        你只需要添加一個熟悉的 python 功能,即添加一個包裝器(一個裝飾器)到你的函數上。類的裝飾器也在開發中了。

        所以,你只需要添加一個裝飾器就可以了。例如:

      用Numba加速Python代碼1

        這仍然看起來像一個原生 python 代碼,不是嗎?

        3.如何使用 Numba?

        Numba 使用 LLVM 編譯器基礎結構 將原生 python 代碼轉換成優化的機器碼。使用 numba 運行代碼的速度可與 C/C++ 或 Fortran 中的類似代碼相媲美。

        以下是代碼的編譯方式:

      用Numba加速Python代碼2

        首先,Python 函數被傳入,優化并轉換為 numba 的中間表達,然后在類型推斷(type inference)之后,就像 numpy 的類型推斷(所以 python float 是一個 float64),它被轉換為 LLVM 可解釋代碼。然后將此代碼提供給 LLVM 的即時編譯器以生成機器碼。

        你可以根據需要在運行時或導入時 生成 機器碼,導入需要在 CPU(默認)或 GPU 上進行。

        4.使用 numba 的基本功能

        (只需要加上 @jit !)

        為了獲得最佳性能,numba 實際上建議在你的 jit 裝飾器中加上 nopython=True 參數,加上后就不會使用 Python 解釋器了?;蛘吣阋部梢允褂?@njit。如果你加上 nopython=True的裝飾器失敗并報錯,你可以用簡單的 @jit 裝飾器來編譯你的部分代碼,對于它能夠編譯的代碼,將它們轉換為函數,并編譯成機器碼。然后將其余部分代碼提供給 python 解釋器。

        所以,你只需要這樣做:

      用Numba加速Python代碼3

        當使用 @jit 時,請確保你的代碼有 numba 可以編譯的內容,比如包含庫(numpy)和它支持的函數的計算密集型循環。否則它將不會編譯任何東西,并且你的代碼將比沒有使用 numba 時更慢,因為存在 numba 內部代碼檢查的額外開銷。

        還有更好的一點是,numba 會對首次作為機器碼使用后的函數進行緩存。因此,在第一次使用之后它將更快,因為它不需要再次編譯這些代碼,如果你使用的是和之前相同的參數類型。

        如果你的代碼是 可并行化 的,你也可以傳遞 parallel=True 作為參數,但它必須與 nopython=True 一起使用,目前這只適用于CPU。

        你還可以指定希望函數具有的函數簽名,但是這樣就不會對你提供的任何其他類型的參數進行編譯。例如:

      用Numba加速Python代碼4

        現在你的函數只能接收兩個 int32 類型的參數并返回一個 int32 類型的值。通過這種方式,你可以更好地控制你的函數。如果需要,你甚至可以傳遞多個函數簽名。

      用Numba加速Python代碼5

        你還可以使用 numba 提供的其他裝飾器:

        @vectorize:允許將標量參數作為 numpy 的 ufuncs 使用,

        @guvectorize:生成 NumPy 廣義上的 ufuncs,

        @stencil:定義一個函數使其成為 stencil 類型操作的核函數

        @jitclass:用于 jit 類,

        @cfunc:聲明一個函數用于本地回調(被C/C++等調用),

        @overload:注冊你自己的函數實現,以便在 nopython 模式下使用,例如:@overload(scipy.special.j0)。

        Numba 還有 Ahead of time(AOT)編譯,它生成不依賴于 Numba 的已編譯擴展模塊。但:

        它只允許常規函數(ufuncs 就不行),

        你必須指定函數簽名。并且你只能指定一種簽名,如果需要指定多個簽名,需要使用不同的名字。

        它還根據你的CPU架構系列生成通用代碼。

        5.@vectorize 裝飾器

        通過使用 @vectorize 裝飾器,你可以對僅能對標量操作的函數進行轉換,例如,如果你使用的是僅適用于標量的 python 的 math 庫,則轉換后就可以用于數組。這提供了類似于 numpy 數組運算(ufuncs)的速度。例如:

      用Numba加速Python代碼6

        你還可以將 target 參數傳遞給此裝飾器,該裝飾器使 target 參數為 parallel 時用于并行化代碼,為 cuda 時用于在 cudaGPU 上運行代碼。

      用Numba加速Python代碼7

        使 target=“parallel” 或 “cuda” 進行矢量化通常比 numpy 實現的代碼運行得更快,只要你的代碼具有足夠的計算密度或者數組足夠大。如果不是,那么由于創建線程以及將元素分配到不同線程需要額外的開銷,因此可能耗時更長。所以運算量應該足夠大,才能獲得明顯的加速。

      用Numba加速Python代碼8

        這個視頻講述了一個用 Numba 加速用于計算流體動力學的Navier Stokes方程的例子:

        6.在GPU上運行函數

        你也可以像裝飾器一樣傳遞 @jit 來運行 cuda/GPU 上的函數。為此你必須從 numba 庫中導入 cuda。但是要在 GPU 上運行代碼并不像之前那么容易。為了在 GPU 上的數百甚至數千個線程上運行函數,需要先做一些初始計算。實際上,你必須聲明并管理網格,塊和線程的層次結構。這并不那么難。

        要在GPU上執行函數,你必須定義一個叫做 核函數 或 設備函數 的函數。首先讓我們來看 核函數。

        關于核函數要記住一些要點:

        核函數在被調用時要顯式聲明其線程層次結構,即塊的數量和每塊的線程數量。你可以編譯一次核函數,然后用不同的塊和網格大小多次調用它。

        核函數沒有返回值。因此,要么必須對原始數組進行更改,要么傳遞另一個數組來存儲結果。為了計算標量,你必須傳遞單元素數組。

      用Numba加速Python代碼9

        因此,要啟動核函數,你必須傳入兩個參數:

        每塊的線程數,

        塊的數量。

        例如:

      用Numba加速Python代碼10

        每個線程中的核函數必須知道它在哪個線程中,以便了解它負責數組的哪些元素。Numba 只需調用一次即可輕松獲得這些元素的位置。

      用Numba加速Python代碼11

        為了節省將 numpy 數組復制到指定設備,然后又將結果存儲到 numpy 數組中所浪費的時間,Numba 提供了一些 函數 來聲明并將數組送到指定設備,如:numba.cuda.device_array,numba.cuda。device_array_like,numba.cuda.to_device 等函數來節省不必要的復制到 cpu 的時間(除非必要)。

        另一方面,設備函數 只能從設備內部(通過核函數或其他設備函數)調用。比較好的一點是,你可以從 設備函數 中返

      用Numba加速Python代碼12

        你還應該在這里查看 Numba 的 cuda 庫支持的功能。

        Numba 在其 cuda 庫中也有自己的原子操作,隨機數生成器,共享內存實現(以加快數據的訪問)等功能。

        ctypes/cffi/cython 的互用性:

        cffi – 在 nopython 模式下支持調用 CFFI 函數。

        ctypes – 在 nopython 模式下支持調用 ctypes 包裝函數。

        Cython 導出的函數是 可調用的。

      聲明:本站稿件版權均屬千鋒教育所有,未經許可不得擅自轉載。

      10年以上業內強師集結,手把手帶你蛻變精英

      請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通

      免費領取

      今日已有369人領取成功

      劉同學 138****2860 剛剛成功領取
      王同學 131****2015 剛剛成功領取
      張同學 133****4652 剛剛成功領取
      李同學 135****8607 剛剛成功領取
      楊同學 132****5667 剛剛成功領取
      岳同學 134****6652 剛剛成功領取
      梁同學 157****2950 剛剛成功領取
      劉同學 189****1015 剛剛成功領取
      張同學 155****4678 剛剛成功領取
      鄒同學 139****2907 剛剛成功領取
      董同學 138****2867 剛剛成功領取
      周同學 136****3602 剛剛成功領取

      猜你喜歡LIKE

      最新文章NEW

      相關推薦HOT

      更多>>

      快速通道 更多>>

      開班信息
      北京校區
      • 北京校區
      • 大連校區
      • 廣州校區
      • 成都校區
      • 杭州校區
      • 長沙校區
      • 合肥校區
      • 南京校區
      • 上海校區
      • 深圳校區
      • 武漢校區
      • 鄭州校區
      • 西安校區
      • 青島校區
      • 重慶校區
      • 太原校區
      • 沈陽校區

      亚洲 欧洲 自拍 另类 校园

      <em id="7f7jb"></em>
      <sub id="7f7jb"><progress id="7f7jb"><thead id="7f7jb"></thead></progress></sub>
        <track id="7f7jb"></track>

        <progress id="7f7jb"><meter id="7f7jb"><th id="7f7jb"></th></meter></progress>

          <pre id="7f7jb"></pre>

          <del id="7f7jb"><sub id="7f7jb"><strike id="7f7jb"></strike></sub></del>
          <video id="7f7jb"><track id="7f7jb"><th id="7f7jb"></th></track></video>