Numba

From Wikipedia, the free encyclopedia

NumbaPythonおよびNumPyのサブセットのソースコードを高速に実行する機械語に変換するJITコンパイラ。llvmliteにて、LLVMをバックエンドに使用し、CPU向けにコンパイルする。Anaconda, Inc.がスポンサーになっている。

初版 2012年8月15日 (13年前) (2012-08-15)
最新版
0.63.1[1] ウィキデータを編集 / 2025年12月10日 (3か月前)
概要 開発元, 初版 ...
Numba
開発元 Anaconda, Inc.
初版 2012年8月15日 (13年前) (2012-08-15)
最新版
0.63.1[1] ウィキデータを編集 / 2025年12月10日 (3か月前)
リポジトリ ウィキデータを編集
プログラミング
言語
Python, C言語
プラットフォーム x86-64, ARM64, POWER
ライセンス 二条項BSDライセンス
公式サイト numba.pydata.org
テンプレートを表示
閉じる

かつてはNVIDIA CUDA向けもNumba内で開発されていたが、Numba 0.61より非推奨になり、Numba CUDAに分離され、NVIDIAが開発することになった。[2]

実行時コンパイル

Pythonの関数に @jit のデコレーターを付けることで、実行時にJITコンパイルされる。

下記の例においては、Numba 0.27.0において、Pythonよりも200倍高速に動作し、NumPyの組み込みのsum()関数よりも30%高速に動作する[3][4]

from numba import jit

@jit
def sum1d(ary):
    total = 0.0
    for i in range(ary.shape[0]):
        total += ary[i]
    return total

Numba CUDA

概要 開発元, 最新版 ...
Numba CUDA
開発元 NVIDIA
最新版
0.23.0 / 2025年12月18日 (2か月前) (2025-12-18)[5]
リポジトリ numba-cuda - GitHub
プラットフォーム NVIDIA GPU Maxwell アーキテクチャ以降[6]
ライセンス 二条項BSDライセンス
公式サイト nvidia.github.io/numba-cuda/
テンプレートを表示
閉じる

Numba CUDAはNVIDIAが開発していて、通常はCUDAカーネルをC++で記述するが、Numba CUDAはそれをPythonで記述できる[7]。なお、CUDAカーネルをC++で記述するので構わないが、CUDAをPythonで実行したい場合は、PyCUDA[8]やCUDA Python[9]などがある。

Numba CUDAのCUDAカーネル内では、Pythonの記法で記載するが、メモリ確保が出来ないため、NumPyのほとんどの機能は使えない[10]。Numba CUDAはCuPyと併用することが出来て、CUDAカーネル外になるが、CuPyではNumPyの機能が使える。以下、CuPyを併用したときのB = A + A.Tのサンプルコード。

import cupy as cp
from numba import cuda

@cuda.jit
def add_kernel(A, B):
    y, x = cuda.grid(2)
    B[y, x] = A[y, x] + A[x, y]

A = cp.array([[1, 2], [3, 4]], dtype=cp.float32)
B = cp.zeros(A.shape, dtype=cp.float32)
add_kernel[1, A.shape](A, B)

print(B)
print(A + A.T)

参照

関連項目

外部リンク

Related Articles

Wikiwand AI