V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
mzotw2babm
V2EX  ›  NVIDIA

关于算力单位 TOPS、FLOPS 和 MACS 的一些疑问

  •  
  •   mzotw2babm · 2022-05-17 10:50:47 +08:00 · 3357 次点击
    这是一个创建于 947 天前的主题,其中的信息可能已经有所发展或是发生改变。

    各位大佬,

    应公司要求,最近在做 Nvidia 的芯片研究,研究过程中发现对算力大小的描述出现了多种不同的单位。

    TOPS:每秒可做 1T 次操作 TFLOPS:每秒可做 1T 次浮点操作 GMACS:每秒可做 1G 次定点乘累积操作

    我看到描述算力大小的时候,有时候用 TOPS ,有时候用 TFLOPS ,我想知道这两者之间没有一个确定的换算关系吗?

    再就是想问一下,浮点运算和定点乘累积运算分别的使用场景。我看到图像处理这一块好像浮点运算比较多,但音频处理定点乘累积运算比较多?

    5 条回复    2022-05-19 10:59:10 +08:00
    thinkershare
        1
    thinkershare  
       2022-05-17 10:57:40 +08:00   ❤️ 1
    没有直接的换算关系, 否则就不会出现这么多单位了. 主要看你干什么, 因为不同场景下评估一个芯片的算力使用同一个单位是无法准确对比其真实性能的. 不同类型的任务有时候用的操作类型有时候相差很多, 甚至完全不相干. 在做卷积神经网络训练的时候, 我们做报告都使用 GMACs, 因为主要的就是乘积累加运算.
    mzotw2babm
        2
    mzotw2babm  
    OP
       2022-05-17 11:07:37 +08:00
    @thinkershare #1 谢谢大佬,追问一下,卷积神经网络不是对 FP16 FP32 或者 INT8 的运算能力要求比较高吗?

    另外,能否解释一下,这个 TOPS 中所谓的多少次操作,都是指什么操作?我看我们芯片选型的时候最后只参考了 TOPS 一个参数,是不是这个参数在某种程度上有一定广泛适用性,可以代表整体的性能?
    thinkershare
        3
    thinkershare  
       2022-05-17 11:21:41 +08:00   ❤️ 1
    我只是一个小透明, 主要是 FP16(也比较少),FP32(密集), uint8 很少(transforms 最初需要), 然后就需要大量的累乘和加法了, 因为不同类型的运算耗时也是不同的, 所有只能综合考虑.一般 TOPS 应该是只能做 8 位的定点数运算, 浮点运算需要模拟, 一般 GPU 我感觉都是使用 FLOPS, TOPS 用在于 FPGA, 很少看到混合使用. 另外芯片中不同位长, 不同类型的运算所需要的时间都不相同, 不在同一个标准, 有时候很难定量的去比较实际差异, 你可以 google 搜索一下相关的研究论文.
    mzotw2babm
        4
    mzotw2babm  
    OP
       2022-05-17 11:31:33 +08:00
    @thinkershare #3 谢谢大佬。
    mzotw2babm
        5
    mzotw2babm  
    OP
       2022-05-19 10:59:10 +08:00   ❤️ 1
    @thinkershare #3 大佬,我在网上找到一篇文章,感觉有些用处,跟你分享一下
    http://www.360doc.com/content/21/0419/01/30375878_972997803.shtml
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5506 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 01:53 · PVG 09:53 · LAX 17:53 · JFK 20:53
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.