import torch

# 创建一个张量
x = torch.tensor([1.0, 2.0, 3.0], requires_grad=False)

# 打印初始的 requires_grad 属性
print(f"初始的 requires_grad 属性: {x.requires_grad}")

# 使用 requires_grad_ 方法修改 requires_grad 属性
x.requires_grad_(True)

# 打印修改后的 requires_grad 属性
print(f"修改后的 requires_grad 属性: {x.requires_grad}")

# 定义一个简单的函数
y = x.sum()

# 进行反向传播
y.backward()

# 打印梯度
print(f"x 的梯度: {x.grad}")