MLOps: Asegura el Éxito de tus Proyectos de IA




¿De qué hablamos cuando hablamos de MLOps?


Nvidia es una compañía que es mayormente conocida por sus unidades de procesamiento gráfico (GPUs). Además, dada la capacidad que los GPUs otorgan para entrenar modelos de deep learning, Nvidia — naturalmente — se convirtió en un referente en temas de inteligencia artificial.


Si consideras que “asegurar” es una palabra ambiciosa, podría tranquilizarte el hecho de que Nvidia — y no solo su humilde servidor — define MLOps como un conjunto de buenas prácticas para ejecutar IA con éxito.


Cuando nos adentramos en temas más específicos, siempre es útil comentar qué conceptos se asumen conocidos por el lector. La idea es que puedas acompañarnos independiente de lo que conozcas sobre inteligencia artificial o ciencia de datos, pero si te sientes un poco perdido al avanzar, te sugiero partir por acá.


¿Por qué MLOps?


Para entender MLOps es vital iniciar por el contexto en el que se generó. Algunos comentan que la magnitud de la solución tiene que tener un grado de proporcionalidad con el tamaño del problema, y como veremos a continuación, el problema no era menor. Esto exigía, por ende, una solución con altos estándares.


Entonces ¿cuál era este contexto?


Para evitarles la típica introducción de “los datos son el petróleo del siglo XXI”, prefiero contarles la progresión histórica de la inteligencia artificial y el machine learning en la empresa. A continuación podemos ver una línea de tiempo, sobre lo que ocurrió a grandes rasgos en la industria (y digo a grandes rasgos porque, estrictamente, sabemos que el concepto de inteligencia artificial surge en los años 50, antes de los proveedores cloud).


Como vemos en la gráfica, antes de la popularidad del cloud computing, ya existían áreas dedicadas a analizar los datos de manera masiva, sin embargo, la irrupción cloud, permitió a empresas de diferentes tamaños acceder a altas capacidades de procesamiento, sin necesidad de invertir enormes cantidades en infraestructura.


Esta “democratización” de la capacidad computacional, abrió la llave para que las áreas analíticas pudieran empezar a explorar proyectos de inteligencia artificial. Las empresas sabían que grandes ventajas competitivas estaban ahora al alcance de la mano, a solo un científico de datos de distancia… ¿o no?


La caída


Bueno en realidad no era tan simple como se esperaba, al intentar nuevos procesos y tecnologías siempre existe un plazo de adaptación, y para la industria las cifras fueron arrolladoras:

  • Según una encuesta realizada por NewVantage realizada a referentes analíticos en la industria, se muestra que un 77% de ellos consta que la adopción de negocio de iniciativas de IA y Big Data es aún un desafío.

  • Según VentureBeat 87% de los proyectos de ciencia de datos nunca llegan a la fase productiva del desarrollo.

  • Gartner pronóstica que para el 2022 solo el 20% de los insights analíticos tendrán accionables de negocio.

Las estadísticas expuestas son solo una muestra de las dificultades que han tenido las empresas para conseguir obtener el valor esperado por la inteligencia artificial. Por esto es que a este proceso de adaptación lo denominamos como “la caída”.


Si comparamos los problemas en el desarrollo de software y la cantidad de años que tomó empezar a desarrollar buenas practicas y frameworks adecuados asociados a estos proyectos, realmente parece algo natural haber pasado por esta etapa.


Sin embargo, dada la gran adopción a nivel mundial de áreas analíticas y de machine learning, se está aprendiendo sobre la marcha de manera bastante rápida. Y en este contexto de aprendizaje acelerado es que surge MLOps.


¿Qué es MLOps?


Si bien no entramos en el detalle de todas los componentes que involucra poner en producción o automatizar un proyecto de inteligencia artificial, el conjunto de prácticas MLOps explican esto por sí mismas. En la gráfica podemos ver una condensación de estos principios y prácticas:



A continuación enumeraré estructuralmente cada uno de ellos:

  • Replicable y versionado: Este punto es sumamente trascendente, puesto que ya no solo hay que versionar código, como en el desarrollo de software convencional, además debemos versionar modelos y datos. Y dado que todos estos componentes pueden cambiar es clave generar la noción de versiones de cada uno de estos componentes (al estilo Git para código).

  • Auditable e interpretable: Pudiendo replicar y versionar todos los componentes necesarios, nos permite directamente poder demostrar qué componentes de los datos utilizamos para asegurar a entes auditores que se está cumpliendo con la legislación pertinente.

  • Empaquetamiento y validación: Dada la cantidad de frameworks existentes, es importante poder empaquetar versiones en cada ambiente, esto nos asegurará que el código funcioné más allá del ambiente local de cada científico de datos. Además es necesario revisar que la latencia de los servicios en donde se ponga en producción el modelo, cumpla con los requerimientos que implique el proyecto.

  • Despliegue y monitoreo: Poder poner en producción los modelos es un gran desafío per se, por lo que la implementación debe tomar en cuenta los principios antes discutidos. Además es necesario monitorear el comportamiento de los modelos, debido a que su calidad tiende a decaer con el tiempo.


¿Con qué nos quedamos?


Es interesante analizar como un todo cada uno de los elementos necesarios para tener desarrollos exitosos en este campo, ya que de este análisis se desprende que ya existían prácticas en el desarrollo de software convencional que fueron replicadas (como el versionamiento), pero otras que tuvieron que desarrollarse sobre la marcha (como que el versionamiento sea de modelos y de datos).


Debido a que es un concepto bastante nuevo dentro de la industria (siendo que la IA ya es bastante nueva), existen muchas otras formas de abordar MLOps. Otras aproximaciones incluyen revisarlo por capas (datos, modelos, desarrollo y operaciones) como también se puede abordar desde los roles en específico en un equipo analítico e incluso desde los frameworks.


Pero como dicen los textos académicos cuando algo es importante pero no es el foco detallarlo, vamos a decir que está fuera del scope. Pero para que no piensen que es pereza por parte del escritor, les vamos a dejar a continuación la grabación del webinar en el que conversamos sobre MLOps y revisamos todos aquellos detalles con un mayor grado de profundidad.



Mauricio Letelier

Machine Learning Consultant

mauricio.letelier@imagemaker.com




WEBINAR: MLOps: Asegura el Éxito de tus Proyectos de IA

Locations

Headquartes

La Concepción 141, 6th floor.

Providencia, Santiago - Chile

Miami

Bogotá

São Paulo

© Copyright 2020  |  Imagemaker  |  All rights reserved