如何将PyTorch模型导出为ONNX并使用ONNX Runtime进行推理?(导出.如何将.推理.模型.ONNX...)

wufei1232025-03-08python6

pytorch模型导出为onnx并进行推理

本文将详细介绍如何使用torch.onnx.export导出pytorch模型到onnx格式,以及如何使用onnx runtime进行推理。

许多开发者在使用pytorch训练模型后,希望能够将其部署到其他环境中,例如移动端或服务器端。这时,onnx (open neural network exchange) 格式就发挥了重要作用。onnx 是一种开放的标准,允许不同框架之间互操作。torch.onnx.export 函数可以将pytorch模型导出为onnx格式。然而,导出后的onnx模型如何使用呢?

以下代码展示了使用torch.onnx.export导出一个简单的pytorch模型:

import torch

class summodule(torch.nn.module):
    def forward(self, x):
        return torch.sum(x, dim=1)

torch.onnx.export(
    summodule(),
    (torch.ones(2, 2),),
    "onnx.pb",
    input_names=["x"],
    output_names=["sum"]
)

这段代码导出一个名为onnx.pb的onnx模型文件。 该模型接收一个形状为(2, 2)的张量作为输入,并计算其每一行的和作为输出。

接下来,我们需要使用onnx runtime加载并运行这个模型。 直接使用pytorch的tensor作为onnx runtime的输入是错误的。onnx runtime 期望的是numpy数组。

错误的代码示例:

import onnxruntime
import torch

resnet_onnx = onnxruntime.inferencesession("onnx.pb")
x = torch.ones(2, 2)
inputs = {resnet_onnx.get_inputs()[0].name: x}
resnet_onnx.run(none, inputs)

这段代码会抛出runtimeerror: input must be a list of dictionaries or a single numpy array for input 'x'的错误。

正确的代码示例:

import onnxruntime
import numpy
import torch

resnet_onnx = onnxruntime.inferencesession("onnx.pb")
x = numpy.ones((2, 2), dtype=numpy.float32)
inputs = {resnet_onnx.get_inputs()[0].name: x}
print(resnet_onnx.run(none, inputs))

通过将输入数据类型从torch.tensor更改为numpy.ndarray,并指定数据类型为numpy.float32,我们解决了这个问题。 numpy.ones((2, 2), dtype=numpy.float32) 创建了一个形状为(2, 2)的numpy数组,其元素都为1.0,且数据类型为32位浮点数。 这与onnx模型的预期输入相匹配。 这使得我们可以成功运行onnx模型并得到结果。

另一种使用onnx runtime加载并运行模型的方法:

import onnxruntime as ort
import numpy as np

sess = ort.InferenceSession("onnx.pb")
input_data = np.ones((2, 2)).astype("float32")
output_data = sess.run(None, {"x": input_data})[0]
print(output_data)

此方法同样使用了numpy数组作为输入,并成功运行了模型。 需要注意的是,输入数据的形状和数据类型必须与导出onnx模型时指定的输入相匹配。

以上就是如何将PyTorch模型导出为ONNX并使用ONNX Runtime进行推理?的详细内容,更多请关注知识资源分享宝库其它相关文章!

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。