Skip to content

Latest commit

 

History

History
97 lines (67 loc) · 3.8 KB

FAQ_zh_cn.md

File metadata and controls

97 lines (67 loc) · 3.8 KB

常见问题解答

1.在较新版本的mac上使用命令安装pip install magic-pdf[full] zsh: no matches found: magic-pdf[full]

在 macOS 上,默认的 shell 从 Bash 切换到了 Z shell,而 Z shell 对于某些类型的字符串匹配有特殊的处理逻辑,这可能导致no matches found错误。 可以通过在命令行禁用globbing特性,再尝试运行安装命令

setopt no_nomatch
pip install magic-pdf[full]

2.使用过程中遇到_pickle.UnpicklingError: invalid load key, 'v'.错误

可能是由于模型文件未下载完整导致,可尝试重新下载模型文件后再试 参考:#143

3.模型文件应该下载到哪里/models-dir的配置应该怎么填

模型文件的路径输入是在"magic-pdf.json"中通过

{
  "models-dir": "/tmp/models"
}

进行配置的。 这个路径是绝对路径而不是相对路径,绝对路径的获取可在models目录中通过命令 "pwd" 获取。 参考:#155 (comment)

4.在WSL2的Ubuntu22.04中遇到报错ImportError: libGL.so.1: cannot open shared object file: No such file or directory

WSL2的Ubuntu22.04中缺少libgl库,可通过以下命令安装libgl库解决:

sudo apt-get install libgl1-mesa-glx

参考:#388

5.遇到报错 ModuleNotFoundError : Nomodulenamed 'fairscale'

需要卸载该模块并重新安装

pip uninstall fairscale
pip install fairscale

参考:#411

6.在部分较新的设备如H100上,使用CUDA加速OCR时解析出的文字乱码。

cuda11对新显卡的兼容性不好,需要升级paddle使用的cuda版本

pip install paddlepaddle-gpu==3.0.0b1 -i https://www.paddlepaddle.org.cn/packages/stable/cu123/

参考:#558

7.在部分Linux服务器上,程序一运行就报错 非法指令 (核心已转储)Illegal instruction (core dumped)

可能是因为服务器CPU不支持AVX/AVX2指令集,或cpu本身支持但被运维禁用了,可以尝试联系运维解除限制或更换服务器。

参考:#591#736

8.在 CentOS 7 或 Ubuntu 18 系统安装MinerU时报错ERROR: Failed building wheel for simsimd

新版本albumentations(1.4.21)引入了依赖simsimd,由于simsimd在linux的预编译包要求glibc的版本大于等于2.28,导致部分2019年之前发布的Linux发行版无法正常安装,可通过如下命令安装:

pip install -U magic-pdf[full,old_linux] --extra-index-url https://wheels.myhloli.com

参考:#1004

9. 旧显卡如M40出现 "RuntimeError: CUDA error: CUBLAS_STATUS_NOT_SUPPORTED"

在运行过程中(使用CUDA)出现以下错误:

RuntimeError: CUDA error: CUBLAS_STATUS_NOT_SUPPORTED when calling cublasGemmStridedBatchedEx(handle, opa, opb, (int)m, (int)n, (int)k, (void*)&falpha, a, CUDA_R_16BF, (int)lda, stridea, b, CUDA_R_16BF, (int)ldb, strideb, (void*)&fbeta, c, CUDA_R_16BF, (int)ldc, stridec, (int)num_batches, compute_type, CUBLAS_GEMM_DEFAULT_TENSOR_OP)

由于Turing架构之前的显卡不支持BF16精度,并且部分显卡未能被PyTorch正确识别,因此需要手动关闭BF16精度。

请找到并修改pdf_parse_union_core_v2.py文件中的第287至290行代码(注意:不同版本中位置可能有所不同),原代码如下:

if torch.cuda.is_bf16_supported():
    supports_bfloat16 = True
else:
    supports_bfloat16 = False

将其修改为:

supports_bfloat16 = False

参考:#1508