A ce stade, vous allez déployer le modèle que vous venez de créer dans le serveur de modèle d’Openshift AI. Si quelque chose s’est mal passé pendant l’entrainement du modèle, vous pouvez toujours faire cette section. Suivez simplement la première section “Fallback”.
Une fois de plus, dans les objets suivants que vous allez créer, vous êtes priés de remplacer “userX “ par votre véritable ID d’utilisateur.
Model Registry
userX
- Change with your USER IDminio123
https://minio-s3-minio.apps.crazy-train.sandbox1730.opentlc.com
none
model-registry
Dans votre projet, créez un serveur de modèle. Vous pouvez cliquer ici pour voir tous les modèles déployés :
Cliquez sur Add model server
Voici les informations que vous devez entrer :
Traffic Sign Detection
OpenVINO Model Server
1
Small
unchecked
unchecked
Le résultat devrait ressembler à ceci:
Vous pouvez cliquer sur Add pour créer le serveur de modèle.
Dans votre projet, sous Models and model servers, sélectionnez Deploy model.
Cliquez sur Déployer le modèle
Voici les informations que vous devrez entrer. Si vous avez suivi le fallback, veuillez remplacer la “Existing data connection - Name” par le nom de la “Data Connection” que vous avez créée (Model Registry):
new
Traffic Sign Detection
onnx-1
pipelines
- FOR FALLBACK track: use Model Registry
models/model.onnx
Le résultat devrait ressembler à ceci
Cliquez sur Deploy model.
Si le modèle est déployé avec succès, vous verrez son statut en vert après quelques secondes.
Nous allons maintenant confirmer que le modèle fonctionne bien en l’interrogeant !
Une fois que le modèle est servi, nous pouvons l’utiliser comme un endpoint qui peut être requêté. Nous envoyons une requête REST ou gRPC au modèle et obtenons un résultat. Cela s’applique à toute personne travaillant au sein de notre cluster. Il peut s’agir de collègues ou d’applications.
Tout d’abord, nous devons obtenir l’URL du serveur de modèle.
Pour ce faire, cliquez sur le lien Internal Service dans la colonne Inference endpoint.
Dans le popup, vous verrez quelques URLs pour notre serveur de modèle.
Notez ou copiez le RestUrl, qui devrait être quelque chose comme http://modelmesh-serving.{userX}:8008
Nous allons maintenant utiliser cette URL pour interroger le modèle. Retournez dans votre workbench, c’est-à-dire dans l’environnement jupyter notebooks.
inference/inference.ipynb
. Mettez à jour la variable “RestUrl” avec l’url copié précédemment dans votre presse papier.La première section interroge le modèle de base qui a été déployé globalement pour tout le monde. La deuxième section prend endpoint RestUrl et interroge le modèle que vous avez formé et déployé. Vous devriez constater qu’avec le modèle de base, seuls les panneaux de signalisation de limitation de vitesse sont reconnus. Après le réapprentissage du modèle, vous avez maintenant un modèle qui peut mieux détecter les panneaux de signalisation Lego. Félicitations !