1. 我们研究了神经网络量化的挑战性任务,即后训练量化(PTQ),它通常需要少量训练数据但产生的量化模型不如量化感知训练(QAT)强大。
2. 我们提出了一个新的PTQ框架,叫做BRECQ,它将PTQ的位宽限制推到INT2。BRECQ利用神经网络中的基本构建块逐个重建。
3. 通过对二阶误差的全面理论研究,我们证明BRECQ在跨层依赖性和泛化误差之间取得了良好的平衡。
本文是一项关于神经网络量化后训练量化(PTQ)方法BRECQ的有关工作。作者声明BRECQ能够将PTQ位宽限制推到INT2并且在跨层依赖性和泛化误差之间取得了良好的平衡。
此处存在一定的可信度问题。文章中使用“comprehensive theoretical study of the second-order error”来证明BRECQ能够在跨层依赖性和泛化误差之间取得平衡。然而,文章中并没有对这一理论进行充分、准备、有效证明或者测试。因此无法保证上述声明是真实可信的。
此处也存在一定的可靠性问题。文章中使用“extensive experiments on various handcrafted and searched neural architectures”来测试BRECQ方法在图片分类以及目标检测任务上的效果。然而文章中并没有对所使用数据集、测试方式、测试样本数量、测试时间、测试条件进行充分、准备、有效说明或者测试。因此无法保障上述声明是真实可靠的