请问SDK部署优化后的模型推理如何编译代码?

已解决

请问SDK部署优化后的模型推理如何编译代码?

展开
收起
felix@ 2023-01-29 12:45:21 846 分享 版权
2 条回答
写回答
取消 提交回答
  • 今天也要加油吖~
    采纳回答

    您好,编译代码时,您需要链接libtorch相关库和SDK /usr/local/lib子目录下的SO文件(libtorch_blade.so和libral_base_context.so)。编译命令可以参照:

    TORCH_DIR=$(python3 -c "import torch; import os; print(os.path.dirname(torch.__file__))")
    g++ torch_app.cc -std=c++14 \
        -D_GLIBCXX_USE_CXX11_ABI=0 \
        -I ${TORCH_DIR}/include \
        -I ${TORCH_DIR}/include/torch/csrc/api/include \
        -Wl,--no-as-needed \
        -L /usr/local/lib \
        -L ${TORCH_DIR}/lib \
        -l torch -l torch_cuda -l torch_cpu -l c10 -l c10_cuda \
        -l torch_blade -l ral_base_context \
        -o torch_app
    
    2023-01-29 12:46:19
    赞同 展开评论
  • 您好,编译代码时,您需要链接libtorch相关库和SDK?/usr/local/lib子目录下的SO文件(libtorch_blade.so和libral_base_context.so)。编译命令可以参照:TORCH_DIR=$(python3?-c?"import?torch;?import?os;?print(os.path.dirname(torch.file))")g++?torch_app.cc?-std=c++14?\????-D_GLIBCXX_USE_CXX11_ABI=0?\????-I?${TORCH_DIR}/include?\????-I?${TORCH_DIR}/include/torch/csrc/api/include?\????-Wl,--no-as-needed?\????-L?/usr/local/lib?\????-L?${TORCH_DIR}/lib?\????-l?torch?-l?torch_cuda?-l?torch_cpu?-l?c10?-l?c10_cuda?\????-l?torch_blade?-l?ral_base_context?\????-o?torch_app

    2023-02-09 19:32:23
    赞同 展开评论
http://www.vxiaotou.com

人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。

还有其他疑问?
咨询AI助理