得益于反向传播算法,神经网络计算导数时非常方便,下面代码中演示如何使用LibTorch进行自动微分求导. 进行自动微分运算需要调用函数 torch::autograd::grad( outputs, // 为某个可微函数的输出 y=f(x) 中的 y inputs, // 为某个可微函数的输入 y=f(x) 中的 x grad_outputs,// 雅克比矩阵(此处计算 f'(x),故设置为1,且与x形状相同 ) retain_graph,// 默认值与 create_graph 相同,这里设置