转移学习以实现预算的语音识别
在ACL 2017上发布的``基于语音的语音学习的转移学习''源代码
抽象的
自动语音识别(ASR)系统的端到端培训需要大量的数据和计算资源。 我们探索基于模型自适应的转移学习,作为在受限GPU内存,吞吐量和训练数据下训练ASR模型的方法。 我们进行了一些系统化实验,将最初训练为英语ASR的Wav2Letter卷积神经网络改编为德语。 我们证明了该技术可以在消费级资源上进行更快的训练,同时需要更少的训练数据以达到相同的准确性,从而降低了用其他语言训练ASR模型的成本