《OpenShift / RHEL / DevSecOps 汇总目录》
说明:本文已经在 OpenShift 4.14 + RHODS 2.50 的环境中验证
说明:请先根据《OpenShift 4 - 部署 OpenShift AI 环境,运行 AI/ML 应用(视频)》一文完成 OpenShift AI 环境的安装。
注意:如无特殊说明,和 OpenShift AI 相关的 Blog 均无需 GPU。
Model Serving 是指将机器学习模型部署到生产环境中,以便实时处理和提供预测服务。在模型训练完成后,通常需要对其进行部署以供实际应用使用。
在 RHOAI 的 Model Serving 中包含了 Model Server 以及被运行的模型。
请先根据《OpenShift 4 - 管理和使用 OpenShift AI 运行环境》一文安装 MinIO,并创建一个名为 rhoai-bucket 的存储桶。
(app-root) (app-root) pip install -r /opt/app-root/src/rhods-qc-apps/4.rhods-deploy/chapter2/requirements.txt
$ export IRIS_ROUTE=https://$(oc get routes -n model-serving-demo | grep iris-model | awk '{print $2}')/v2/models/iris-model/infer
$ export TOKEN=$(oc whoami -t)
$ curl -s -H "Authorization: Bearer $TOKEN" $IRIS_ROUTE -X POST --data '{"inputs" : [{"name" : "X","shape" : [ 1, 4 ],"datatype" : "FP32","data" : [ 3, 4, 3, 2 ]}],"outputs" : [{"name" : "output0"}]}' | jq
{
"model_name": "iris-model__isvc-4e49574209",
"model_version": "1",
"outputs": [
{
"name": "label",
"datatype": "INT64",
"shape": [
1
],
"data": [
0
]
},
{
"name": "scores",
"datatype": "FP32",
"shape": [
1,
3
],
"data": [
3.1270404,
3.4207978,
4.8063498
]
}
]
}
https://redhatquickcourses.github.io/rhods-deploy/rhods-deploy/1.33/index.html