DianNeuron 说明 一个使用python手动实现的简单神经网络框架 支持的算子和层 Input Dense ADD Dropout BatchNorm1d 支持的激活函数 relu softmax tanh sigmoid swish ELU LeakyReLU 支持的损失函数 CrossEntropy HingeLoss 支持的优化器 sgd adam momentum AdaGram 支持的初始化方法 normal zero Xavier Kaiming_normal 其他支持 目前只能使用单输入,单输出的无向图网络 L1,L2 对W的正则 使用可视化工具来打印出网络结构