"""
用于临时储存各种脚本
"""
import torch

# 创建一个需要梯度的Tensor
x = torch.tensor([1.0], requires_grad=True)


# 定义一个简单的函数，确保Tensor的requires_grad属性不变
def my_function(tensor):
    # 在这里不要使用.detach()、.data或.clone(requires_grad=False)
    # ... 对tensor进行一些操作 ...
    return tensor * 2  # 示例操作


# 调用函数，并检查输出Tensor的requires_grad属性
y = my_function(x)
print(y.requires_grad)  # 应该输出True

# 现在可以对y执行反向传播等操作
y.backward()  # 这将计算x的梯度