A finales de la década de 2010, yo trabajaba para uno de los principales fabricantes de electrodomésticos del mundo como Master Black Belt en Six Sigma , dirigiendo proyectos para mejorar la calidad. Tuvimos mucho éxito, llegando a ahorrar alrededor de $30 millones cada año al formar y entrenar nuevos Black Belts en Six Sigma para resolver los problemas. En aquel entonces, recuerdo claramente la renuencia a trabajar con herramientas de analítica predictiva. ¡Poco sabíamos lo que nos estábamos perdiendo!
En aquellos días, se enseñaba a los Black Belts a abordar los problemas mediante experimentos planificados y basados en datos. Por ejemplo: Cuando los incidentes de servicio empezaban a acumularse por un nuevo defecto en una de nuestras lavadoras, verificábamos que podíamos medir con precisión el problema, entender la variación en relación con el problema y quizás utilizar el diseño de experimentos (DOE) para descubrir las causas y efectos para nuestras teorías y soluciones previstas. En la nueva era de la manufactura (a veces llamada la industria 4.0), la cantidad de datos disponibles fue creciendo cada vez más, y los ejecutivos comenzaron a esperar respuestas más rápido que nunca.
Nuestra comunidad de solucionadores de problemas tenía un método establecido para priorizar los problemas. Solíamos esperar por un informe de tasas de incidentes de servicio (SIR) para ver qué problemas ocurrían con mayor frecuencia. Desafortunadamente, el SIR era una métrica rezagada, que frecuentemente se recibía unos 6 meses después de que los problemas ocurrían en los hogares de nuestros clientes. Nuestro dilema era obvio: necesitamos resolver esos problemas más rápido.
Aparte del tiempo que se requería para descubrir los problemas, también teníamos algunas dificultades para pasar de pequeños volúmenes a grandes volúmenes de datos. Nuestros Black Belts incluso llegaban a reducir grandes cantidades de datos a un diseño de experimentos (DOE) factorial, ¡porque así es como se hacían las cosas! Al fin y al cabo, así es como pensaban que les había enseñado su Master Black Belt.
Finalmente, los líderes técnicos, como los ingenieros principales, los master black belts y otros similares en el ámbito de la manufactura, comenzaron a adoptar herramientas para el recién acuñado concepto del “Big Data”. La esperanza era que el big data pudiera usarse para finalmente vincular las fallas en campo a los datos de fábrica para predecir y reducir cosas como el costo de garantía y mejorar la calidad. Digo que este era un concepto nuevo para nosotros porque, aunque habíamos tenido estos datos durante años o décadas, nunca lo habíamos puesto todo junto.
Los técnicos que trabajaban en los incidentes de servicio recopilaban algunos datos de prueba y el número de serie de los electrodomésticos dañados en los hogares de nuestros clientes... pero los datos de desarrollo y los datos de manufactura nunca se vinculaban explícitamente con los datos de servicio en campo.
Parte del problema incluía los diferentes métodos de almacenamiento de datos. La gente no sabía cómo lidiar con estas fuentes de datos masivas, y generalmente no había presupuesto para aprender a combinarlas. Incluso si hubiésemos podido combinarlas, no había una forma común de obtener insights de todo eso.
Finalmente, invertimos millones para que los consultores nos ayudaran a recopilar nuestras fuentes masivas de datos y prepararlas para el análisis. Este proceso de “excavar el lago de datos” no es una tarea sencilla. “Lago de datos” es un término que se emplea en el mundo del big data al que hago referencia aquí simplemente para describir cómo se juntaron todas esas grandes fuentes de datos. Ahora, teníamos un conjunto de datos más grande que nos permitía vincular las fallas de campo por número de serie a los datos de manufactura con el mismo número de serie. Ahora podíamos buscar insights sobre las cosas en común que tenían los aparatos con fallas.
Identificar insights es más difícil de lo que se podría imaginar con solo leer este blog. Son muchas las métricas de prueba que se recopilan en la manufactura. Existe muy poca variación, y una gran multicolinealidad, entre todos esos predictores. Si solo ajustamos y=fallas de válvulas en función de cientos de valores predictivos de x... los datos están demasiado desordenados y el análisis de regresión no encuentra mucho. El R^2 es terriblemente bajo. Nuestra confianza en esas antiguas técnicas de modelado era baja.
Finalmente, nuestros consultores sugirieron que comenzáramos a explorar la analítica predictiva. ¡Notamos que era mucho más efectiva en cuanto al manejo de datos desordenados! Encontramos algunas señales e hicimos algunas mejoras en nuestra planta piloto, poniendo a prueba estos nuevos métodos. Ahora disponíamos de métodos para agregar y preparar nuestros datos para buscar insights como éstos.
Sin embargo, nuestro vicepresidente estaba decidido a obtener un enorme rendimiento de esas inversiones en almacenamiento de datos y consultoría. En ese momento, teníamos nuevos consultores, que nos ayudaron a encontrar muchos insights, pero no eran ingenieros, por lo que los resultados de la analítica predictiva solían tener poco sentido para ellos. No sabían cómo funcionaba un electrodoméstico. Todo lo que los científicos de datos sabían era que varias métricas de prueba al final de la línea predicen una falla.
Luego de un tiempo, solo un par de años después de ese costoso proceso, mi empresa decidió que los consultores ya le habían enseñado lo suficiente para hacerse cargo del análisis por sí misma. Específicamente, el equipo de “desarrollo avanzado” de la Vicepresidencia de Calidad, el líder Master Black Belt y algunos ingenieros de la planta piloto llegaron a ser lo suficientemente capaces como para poder replicar los resultados de los consultores.
Ahora nuestro pequeño equipo era muy bueno en AP. Sin embargo, expandir esta metodología de AP a toda la organización fue muy difícil. El problema estaba en que el uso de la analítica predictiva era tan difícil que solo un puñado de personas se sentía competente. El resto de la organización ni siquiera sabía que esto estaba ocurriendo, ¿cómo íbamos a empezar a entrenar a más personas? Se decidió que el Master Black Belt principal reuniría los insights y se limitaría a entrenar a los equipos de ingeniería a medida que se les asignaran recursos para resolver los problemas. No era un proceso muy eficiente. Era demasiado difícil desarrollar conocimientos especializados, es decir, formar a más expertos en AP internamente en aquel entonces.
Vea las opciones y la salida que generan las herramientas de AP, como los Árboles de clasificación y regresión, Random Forests y TreeNet. De veras no se podía simplemente abrir un enorme conjunto de datos y presionar “analizar”. Se requería mucha habilidad. ¡Es por eso que la ciencia de datos es lo máximo!
Durante un tiempo, a finales de la década de 2010 y principios de la de 2020, tuvimos una división: para algunos productos se utilizaba la AP, mientras que para otros se seguían empleando métodos más antiguos. La analítica predictiva permitía predecir la garantía, mejorar más rápido la calidad y prevenir los defectos. Los que utilizaban métodos más antiguos seguían esperando seis meses para recibir el informe de tasas de incidencias de servicio y trabajaban con herramientas Six Sigma para resolver los problemas más frecuentes.
La analítica predictiva actual está a años luz de lo que era cuando empecé a utilizarla hace más de 10 años. Ya no tiene por qué ser la tarea compleja y especializada que solía ser. La Analítica predictiva con Auto ML de Minitab hace que la analítica predictiva sea más accesible para las masas. Puede sugerirle los mejores modelos a partir de sus datos y le permite, con una interfaz de usuario simple, buscar modelos alternativos.
Le invito a explorar cómo la combinación de Minitab Connect (para agregar y preparar los datos con la analítica predictiva de Minitab) con Auto ML (para encontrar insights) puede hacerle la vida más fácil, además de mejorar y acelerar los resultados. Utilizar de esta manera las soluciones que ofrece Minitab en la manufactura permite mejorar la calidad y predecir la garantía, prácticamente en tiempo real. Antes de estas herramientas, el proceso de mejora de la calidad tardaba medio año o más en completarse y la predicción de garantía se basaba en datos de años anteriores y no en los datos del año en curso. Todo esto significa millones de dólares para nuestros clientes y partes interesadas.