We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
自己数据集用yolov8s官网训练的pt模型,model.predict预测同一张图(1024*1024),和用这里的trt代码推理,为什么结果存在差异,比如数量多一个,坐标有几个像素的差别,置信度也有几分的差别? 模型都是同一个pt,trt这边用这里的转换生产代码把pt转成engine,然后进行推理,结果存在差异,输入图片都是一样的。
The text was updated successfully, but these errors were encountered:
请使用一张原图大小就是1024*1024的图片进行推理测试,排除预处理动态和静态的影响,保证两边的置信度和nms阈值相同,使用fp32推理
Sorry, something went wrong.
已经在王大佬和自己尝试下,确定是cuda_batch_preprocess这个预处理函数导致的。 应该是v8和这里函数处理方法不太一样,后面我自己写了一个完全按照yolov8官网的流程的预处理函数,现在结果是对了,但是速度和原来的cuda_batch_preprocess函数差太多。大佬,有正确且快速的函数嘛
原始yolov8的预处理就是利用的cv::resize双线性插值实现的,cuda_batch_preprocess这个核函数也是双线性插值实现,我猜测区别可能就是关于上下限,四舍五入问题。如果你非要用你实现的函数,那你可以考虑把你的函数解析成为一个cuda核函数使用。
No branches or pull requests
自己数据集用yolov8s官网训练的pt模型,model.predict预测同一张图(1024*1024),和用这里的trt代码推理,为什么结果存在差异,比如数量多一个,坐标有几个像素的差别,置信度也有几分的差别?
模型都是同一个pt,trt这边用这里的转换生产代码把pt转成engine,然后进行推理,结果存在差异,输入图片都是一样的。
The text was updated successfully, but these errors were encountered: