We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
作者您好,我最近根据文章要求配置数据集,并且用github仓库提供的checkpoint进行测试,但是我们测试下来结果无法达到readme中报告的AUC,可能会差2个点以上(例如CSV的AUC是81.45)。我认为可能是我的数据集下载和预处理存在问题。 我采用 ffmpeg -i xxx.mp4 -s 320x180 -y .../%06d.jpg 的形式(也试过最高的压缩质量)提取视频的帧并resize到180x320的大小,想了解一下你们所采用的数据预处理方法是什么,是否有区别?如果不是预处理的问题,那么可能是什么导致了性能的差异,或者如果官方能够提供预处理后的数据集下载方式就最好了。
The text was updated successfully, but these errors were encountered:
我们在压缩时使用cv2.resize进行处理;其余的预处理在/data/dataset.py中,有随机性可以多跑几个模型与epoch试试。
Sorry, something went wrong.
No branches or pull requests
作者您好,我最近根据文章要求配置数据集,并且用github仓库提供的checkpoint进行测试,但是我们测试下来结果无法达到readme中报告的AUC,可能会差2个点以上(例如CSV的AUC是81.45)。我认为可能是我的数据集下载和预处理存在问题。
我采用 ffmpeg -i xxx.mp4 -s 320x180 -y .../%06d.jpg 的形式(也试过最高的压缩质量)提取视频的帧并resize到180x320的大小,想了解一下你们所采用的数据预处理方法是什么,是否有区别?如果不是预处理的问题,那么可能是什么导致了性能的差异,或者如果官方能够提供预处理后的数据集下载方式就最好了。
The text was updated successfully, but these errors were encountered: