抱歉,您的浏览器无法访问本站
本页面需要浏览器支持(启用)JavaScript
了解详情 >
  1. pytorch: grad can be implicitly created only for scalar outputs:
1
z.backward(torch.ones_like(x))

原因:backward必须使用标量来进行

  1. python本身看起来数据类型不敏感,但是pytorch极其敏感,int与double不能直接相加,出现相关错误后应查看数据类型:
1
2
print(tx.dtype) 
tx=tx.to(dtype=torch.float64)
  1. torch.nn.functional.Softmax 和 torch.nn.softmax不是一个东西 前者本质是一个函数,用于最后的lost计算,后者是一个神经元节点的定义

  2. 小心tensor的维度,用xxx.size()查看tensor的维度及范围

1
print(out.size())

评论