RELATEED CONSULTING
相关咨询
选择下列产品马上在线沟通
服务时间:8:30-17:00
你可能遇到了下面的问题
关闭右侧工具栏

新闻中心

这里有您想知道的互联网营销解决方案
pytorch如何使用加载训练好的模型做inference-创新互联

这篇文章主要介绍pytorch如何使用加载训练好的模型做inference,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

成都创新互联坚持“要么做到,要么别承诺”的工作理念,服务领域包括:网站建设、做网站、企业官网、英文网站、手机端网站、网站推广等服务,满足客户于互联网时代的尤溪网站设计、移动媒体设计的需求,帮助企业找到有效的互联网解决方案。努力成为您成熟可靠的网络建设合作伙伴!

1、 构建模型(# load model graph)

model = MODEL()

2、加载模型参数(# load model state_dict)

 model.load_state_dict
 (
 {

 k.replace('module.',''):v for k,v in

 torch.load(config.model_path, map_location=config.device).items()

 }
 )
 
model = self.model.to(config.device)

* config.device 指定使用哪块GPU或者CPU  

*k.replace('module.',''):v 防止torch.DataParallel训练的模型出现加载错误

(解决RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1问题)

3、设置当前阶段为inference(# predict)

model.eval()

以上是“pytorch如何使用加载训练好的模型做inference”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注创新互联行业资讯频道!


文章名称:pytorch如何使用加载训练好的模型做inference-创新互联
文章起源:http://lswzjz.com/article/cspdgj.html