微毕业
微型Autograd引擎(咬一口!:))。通过类似PyTorch的API,在动态构建的DAG和位于其之上的小型神经网络库上实现反向传播(反向模式autodiff)。两者都很小,分别有大约100行和50行代码。 DAG仅在标量值上运行,因此,例如,我们将每个神经元切成其所有单独的微小加法和乘法。但是,这足以构成进行二进制分类的整个深度神经网络,如演示笔记本所示。潜在地用于教育目的。
安装
pip install micrograd
用法示例
以下是一个稍作设计的示例,显示了许多可能的受支持