import cupy as cp import numpy as np
x_cpu = np.random.randn(100, 100).astype(np.float32) x_gpu = cp.asarray(x_cpu)
%%timeit x_cpu*x_cpu
2.41 s ± 19.7 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
%%timeit x_gpu*x_gpu
14.3 s ± 53.4 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
import torch
x_tensor = torch.from_numpy(x_cpu)
%%timeit x_tensor*x_tensor
3.01 s ± 33.5 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
x_gpu_tensor = x_tensor.cuda()
%%timeit x_gpu_tensor*x_gpu_tensor
7.85 s ± 13.9 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
![]() | 1 leido 2018-11-30 21:13:15 +08:00 via Android 用 Python 你还在乎效率? |
![]() | 3 justou 2018-11-30 21:19:05 +08:00 via Android 数据量太小,让 gpu 工作的一系列中间步骤所花费的时间占主要了,换大点的矩阵试试,比如 100000*100000 |
![]() | 4 justou 2018-11-30 21:22:29 +08:00 via Android gpu 适合一次性处理大量的数据 |
5 wlwood 2018-11-30 21:26:55 +08:00 via Android 当然,矩阵计算,numpy 可是堪比 matlab 的 |
![]() | 6 necomancer 2018-11-30 21:41:25 +08:00 直接用 * 是矩阵乘法吗……别的不知道,numpy 下是批量相乘吧…… numpy 里 x_cpu.dot(x_cpu) 才是矩阵乘法。 |
![]() | 7 Nimrod 2018-11-30 21:56:45 +08:00 via Android numpy 的矩阵乘法是 dot 不是*吧。。 |
![]() | 8 lonccc 2018-12-01 01:04:42 +08:00 via Android 你这也不是矩阵乘法啊,这是 element wise 的乘法。另外,numpy 的矩阵乘法可以用到 blas 的库,优化的很好了 |
![]() | 9 takato 2018-12-01 01:22:01 +08:00 用 matmul() |
![]() | 10 Xs0ul 2018-12-01 02:24:14 +08:00 给个数量级参照: def add(a, b): return a+b def add2(a, b): return add(a, b) x = 100.0 %%timeit add(x, x) 180 ns ± 6.67 ns per loop (mean ± std. dev. of 7 runs, 10000000 loops each) %%timeit add2(x, x) 281 ns ± 3.59 ns per loop (mean ± std. dev. of 7 runs, 1000000 loops each) 函数调用的开销都只比你低一个数量级了 |
![]() | 11 northisland 2018-12-01 12:44:39 +08:00 量太小了,换成 5000 维的方阵,GPU 的并行加速的特性就能体现出来了 |