FLOPS和FLOPs、GFLOPs区别与计算

您所在的位置:网站首页 flops和tflops FLOPS和FLOPs、GFLOPs区别与计算

FLOPS和FLOPs、GFLOPs区别与计算

#FLOPS和FLOPs、GFLOPs区别与计算| 来源: 网络整理| 查看: 265

FLOPS (全部大写)是floating-point operations per second的缩写,意指每秒浮点运算次数。用来衡量硬件的性能。FLOPs 是floating point of operations的缩写,是浮点运算次数,可以用来衡量算法/模型复杂度。常用当然还有GFLOPs和TFLOPsGFLOPS 就是 Giga Floating-point Operations Per Second,即每秒10亿次的浮点运算数,常作为GPU性能参数但不一定代表GPU的实际表现,因为还要考虑具体如何拆分多边形和像素、以及纹理填充,理论上该数值越高越好。1GFlops = 1,000MFlops。

单位换算一个MFLOPS(megaFLOPS)等于每秒一百万(=10^6)次的浮点运算,一个GFLOPS(gigaFLOPS)等于每秒十亿(=10^9)次的浮点运算,一个TFLOPS(teraFLOPS)等于每秒一万亿(=10^12)次的浮点运算,(1太拉)一个PFLOPS(petaFLOPS)等于每秒一千万亿(=10^15)次的浮点运算,一个EFLOPS(exaFLOPS)等于每秒一百京(=10^18)次的浮点运算,一个ZFLOPS(zettaFLOPS)等于每秒十万京(=10^21)次的浮点运算。

 

对于torchstat:

from torchstat import stat import torchvision.models as models model = model.densenet121() stat(model, (3, 224, 224))

对于thop:

from torchvision.models import densenet121 from thop import profile model = densenet121() input = torch.randn(1, 3, 224, 224) macs, params = profile(model, inputs=(input, ))

参考链接:http://imgtec.eetrend.com/blog/2020/100048896.html



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3