本文档将指导您如何将训练好的机器学习模型部署到生产环境。我们提供了多种部署方式,包括REST API、gRPC服务和边缘设备部署等。
在部署模型前,请确保已完成模型验证和性能测试,建议使用测试数据集进行端到端测试。
在部署模型之前,您需要准备以下环境:
首先,您需要将训练好的模型导出为通用格式。我们支持ONNX、PMML和SavedModel格式。
# 导出为SavedModel格式
import ai_framework as af
model = af.load_model('my_model.h5')
af.export_model(model, 'saved_model', format='tf')
# 转换为ONNX格式
import onnxmltools
onnx_model = onnxmltools.convert_keras(model)
onnxmltools.utils.save_model(onnx_model, 'model.onnx')
使用我们的部署工具,可以快速创建REST API服务:
# 安装部署工具 pip install ai-deploy # 创建API服务 ai-deploy create --model saved_model --name my-model-api # 启动服务 ai-deploy start --port 8080
服务启动后,您可以通过以下方式测试API:
POST /predict HTTP/1.1
Host: localhost:8080
Content-Type: application/json
{
"data": [
[0.1, 0.5, 0.8, 0.3],
[0.6, 0.2, 0.4, 0.9]
]
}
为了提高模型推理性能,可以采用以下优化策略:
量化操作可能会导致模型精度轻微下降,请在优化后重新评估模型性能。
部署后,建议监控以下指标: