更改维度后的map_blocks返回IndexError:元组索引超出范围
我正在尝试使用dask数组创建聚合统计信息。map_blocks看起来很理想,但却无法正常工作。我是dask的新手,所以我想了解它的工作原理。我计划使用自定义函数,并从一些基础知识开始。我被卡住了,在几个小时的试错之后,我看不到解决方案。importdask
importdask.arrayasda
fromnumpyimportmedian,array
deffunc(a):
m=median(a)
print(m)
returnarray(m)
x=da.random.random((10000,10000),chunks=(5000,5000))
x.map_blocks(func,chunks=(1,1)).compute()复制我希望得到一个包含每个块结果的新数组,但是get:nan
0.5001597269075302
0.49996143572562185
0.49994227403711916
0.5001512434686584
Traceback(mostrecentcalllast):
...
result.append(tuple([shape(deepf
|