Skip to content

Latest commit

 

History

History
executable file
·
85 lines (64 loc) · 3.06 KB

README_CN.md

File metadata and controls

executable file
·
85 lines (64 loc) · 3.06 KB

语义理解预测服务

(简体中文|English)

示例中采用BERT模型进行语义理解预测,将文本表示为向量的形式,可以用来做进一步的分析和预测。

若使用python的版本为3.X, 将以下命令中的pip 替换为pip3, python替换为python3.

获取模型

方法1: 示例中采用Paddlehub中的BERT中文模型。 请先安装paddlehub

pip3 install paddlehub

执行

python3 prepare_model.py 128

参数128表示BERT模型中的max_seq_len,即预处理后的样本长度。 生成server端配置文件与模型文件,存放在bert_seq128_model文件夹。 生成client端配置文件,存放在bert_seq128_client文件夹。

方法2: 您也可以从bos上直接下载上述模型(max_seq_len=128),解压后server端配置文件与模型文件存放在bert_chinese_L-12_H-768_A-12_model文件夹,client端配置文件存放在bert_chinese_L-12_H-768_A-12_client文件夹:

wget https://paddle-serving.bj.bcebos.com/paddle_hub_models/text/SemanticModel/bert_chinese_L-12_H-768_A-12.tar.gz
tar -xzf bert_chinese_L-12_H-768_A-12.tar.gz
mv bert_chinese_L-12_H-768_A-12_model bert_seq128_model
mv bert_chinese_L-12_H-768_A-12_client bert_seq128_client

若使用bert_chinese_L-12_H-768_A-12_model模型,将下面命令中的bert_seq128_model字段替换为bert_chinese_L-12_H-768_A-12_model,bert_seq128_client字段替换为bert_chinese_L-12_H-768_A-12_client.

获取词典和样例数据

sh get_data.sh

脚本将下载中文词典vocab.txt和中文样例数据data-c.txt

启动预测服务(支持BRPC-Client、GRPC-Client、HTTP-Client三种方式访问)

启动cpu预测服务,执行

python3 -m paddle_serving_server.serve --model bert_seq128_model/ --port 9292  #启动cpu预测服务

或者,启动gpu预测服务,执行

python3 -m paddle_serving_server.serve --model bert_seq128_model/ --port 9292 --gpu_ids 0 #在gpu 0上启动gpu预测服务

执行预测

执行预测前需要安装paddle_serving_app,模块中提供了BERT模型的数据预处理方法。

pip3 install paddle_serving_app

BRPC-Client

执行

head data-c.txt | python3 bert_client.py --model bert_seq128_client/serving_client_conf.prototxt

启动client读取data-c.txt中的数据进行预测,预测结果为文本的向量表示(由于数据较多,脚本中没有将输出进行打印),server端的地址在脚本中修改。

GRPC-Client/HTTP-Client

执行

head data-c.txt | python3 bert_httpclient.py --model bert_seq128_client/serving_client_conf.prototxt

性能测试

bash benchmark.sh bert_seq128_model bert_seq128_client

性能测试的日志文件为profile_log_bert_seq128_model

如需修改性能测试用例的参数,请修改benchmark.sh中的配置信息。

注意:bert_seq128_model和bert_seq128_client路径后不要加'/'符号,示例需要在GPU机器上运行。