import onnxruntime as ort
import numpy as np

# 加载模型（指定GPU或CPU）
session = ort.InferenceSession("yolo.onnx", providers=["CPUExecutionProvider"])  # 或 "CPUExecutionProvider"

# 准备输入数据（需与模型输入形状匹配）
input_data = np.random.rand(1, 3, 224, 224).astype(np.float32)
outputs = session.run(None, {"input_name": input_data})  # 输入名通过session.get_inputs()获取
print(outputs)