尽管深度神经网络(DNN)是打开AI时代的革命力量,但是众所周知,巨大的硬件开销挑战了它们的应用。 最近,几个二进制和三进制网络(其中昂贵的乘法累加运算可以被累加或什至二进制逻辑运算代替)使DNN的片上训练非常有前途。 因此,迫切需要建立一种可以将这些网络包含在一个统一的框架中的架构,该架构既可以实现更高的性能,又可以减少开销。 为此,有两个基本问题尚待解决。 第一个是在神经元激活离散时如何实现反向传播。 第二个方法是如何在训练阶段消除精确的隐藏权重,以打破内存/计算消耗的瓶颈。 为了解决第一个