Creando y Desplegando Modelo de Inteligencia Artificial en Red Hat Openshift AI

 

Creación de un modelo de Machine Learning

«Necesitas crear un modelo basado en Machine Learning utilizando Jupyter Notebook, Python y PyTorch.»

  • El primer paso en el proceso es crear un modelo de Machine Learning. Esto se puede hacer utilizando herramientas como Jupyter Notebook, Python y la biblioteca PyTorch. Se pueden aplicar diferentes enfoques, como aprendizaje supervisado y no supervisado, así como clasificaciones y regresiones, dependiendo del objetivo del proyecto.

Exportación y almacenamiento del modelo

«Necesitas exportar el modelo al formato ONNX para interoperar con modelos de inteligencia artificial.»

  • Una vez que se ha creado el modelo, es crucial exportarlo al formato ONNX (Open Neural Network Exchange). Este formato permite la interoperabilidad entre diferentes plataformas de inteligencia artificial. Después de exportar el modelo, se debe cargar en un almacén de objetos que esté basado en S3, como en el caso de Red Hat que puede utilizar OpenShift Data Foundation.

Configuración del entorno y almacenamiento

«Voy a configurar mi almacenamiento basado en S3 donde voy a desplegar estos modelos.»

  • Para llevar a cabo el despliegue del modelo, es necesario configurar un almacenamiento en S3. En el video, se utiliza MinIO como almacenamiento de objetos. Se crean buckets donde se almacenarán los modelos generados. La conexión y configuración adecuadas son fundamentales para que el proceso sea fluido.

Entrenamiento y exportación del modelo

«El archivo ONNX es lo que nos permitirá llevar el modelo a OpenVINO como servidor de modelos.»

  • A medida que se entrena el modelo, es importante exportarlo como un archivo ONNX. Este archivo facilitará el posterior uso del modelo en OpenVINO, que actuará como servidor de modelos. En este contexto, se enfatiza el uso de Jupyter Notebooks para escribir y ejecutar el código que genera el modelo de clasificación.

Exposición del modelo a través de un endpoint

«Es tan sencillo crear una exposición del modelo y deberías poder consumirlo a través de un endpoint REST.»

  • Una vez que el modelo está listo y bien configurado, se puede exponer fácilmente para que sea consumido a través de un endpoint REST. Esto implica configurar un nombre para el modelo, definir el tipo de runtime, establecer la cantidad de réplicas necesarias, y configurar características adicionales como la autenticación. Esto permite que otros sistemas puedan hacer uso del modelo de manera efectiva.

Creación y Exportación de Modelos

«La clave es entender cómo se llega desde la creación de un modelo hasta su implementación.»

  • En este segmento, se aborda el proceso de creación de un modelo de inteligencia artificial y su exportación para ser utilizado en un entorno compatible. Se inicia generando una URL para el servicio REST necesario para acceder al modelo.
  • El puerto utilizado para la conexión ha sido configurado a 5001, lo cual es un paso crítico para asegurarse de que el modelo se ejecute correctamente.
  • Se muestra la importancia de realizar pruebas para verificar que los parámetros y el puerto están bien configurados, cambiando de 50 a 51 como parte del proceso de ajuste.

Implementación en OpenShift

«El modelo debe ser expuesto en el servidor de modelos para que sea consumible desde una aplicación.»

  • Una vez que el modelo ha sido creado y exportado, se carga en un almacén de objetos que es compatible con S3, lo que facilita su acceso y gestión.
  • El modelo se expone a través de un servidor de modelos, lo que permite que aplicaciones locales lo consuman fácilmente. En este caso, la aplicación fue creada en un entorno de Jupyter en una máquina local, mientras que el modelo reside en un clúster de OpenShift, lo que proporciona capacidades avanzadas de inteligencia artificial.
  • Se configura el endpoint y se pasan los parámetros necesarios para invocar la función local que llama a la función del modelo en OpenShift, lo que permite realizar predicciones de manera efectiva.

 

Añadir un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *