Mostrando las entradas con la etiqueta gráficas de control. Mostrar todas las entradas
Mostrando las entradas con la etiqueta gráficas de control. Mostrar todas las entradas

viernes, 5 de agosto de 2016

El Método Taguchi, la Ingeniería Robusta y el Diseño de Experimentos

Gen'ichi Taguchi, estadístico e ingeniero japonés, fue uno de los personajes más importantes en el desarrollo de técnicas estadísticas para la mejora de los procesos de manufactura. Taguchi fue el principal propulsor de lo que se conoce como Ingeniería Robusta, método que apunta a una reducción en la variabilidad de los outputs de los procesos. Históricamente, se buscaba reducir la variabilidad de los procesos a través de la eliminación de las fuentes de ruido que la producían, algo bastante utópico y complejo de realizar. El Método Taguchi, en cambio, se basa en eliminar o minimizar los efectos de los ruidos, y no los ruidos en sí.

La variabilidad de los procesos son provocados por parámetros que no pueden ser controlados. A estos parámetros se los conoce como ruidos de proceso. El Diseño de Experimentos (DOE, por las iniciales en inglés de Design of Experiments) es una disciplina que permite analizar qué efectos provocan los ruidos sobre los procesos de manera cuantitativa. Esta relación causa-efecto es modelada mediante una relación funcional, la cual se logra con ayuda experimental. La información obtenida empíricamente permite entender el 'peso' de cada fuente de ruido sobre la variabilidad del proceso. Muchos parámetros de ruido podrán tener efectos considerables, otros leves, y otros despreciables.

Taguchi fue también el creador del concepto de ingeniería de calidad, que contempla control de calidad en línea y fuera de línea (on-line y off-line). El control en línea contempla toda actividad de control y mantenimiento de procesos, apoyado generalmente por el uso de gráficas de control. El control fuera de línea es un concepto algo más innovador y se utiliza en la etapa de diseño de los productos y los procesos involucrados. La técnica utilizada en este caso es el DOE.


14 pasos para el Diseño de Experimientos


El DOE se basa en datos empíricos. Éstos pueden ser obtenidos si se siguen los siguientes pasos fundamentales:
  1. Se define el objetivo del análisis, en cuanto al alcance, los costos y el fin.
  2. Se conforma un equipo de trabajo para el proyecto de mejora mediante DOE.
  3. Se especifica concretamente el problema. Se puede utilizar alguna técnica de análisis de problemas, como los Diagramas de Ishikawa o Pareto, cuyos datos se pueden obtener de un brainstorming.
  4. Se evalúa el entorno técnico y humano.
  5. Se define y valida el sistema de medida.
  6. Se construye el DOE, mediante ensayos de factibilidad y procedimientos específicos de trabajo.
  7. Se preparan los ensayos.
  8. Se ejecutan los ensayos.
  9. Se miden los ensayos.
  10. Se analizan los resultados, discriminando señal de ruido, y se realiza el modelado.
  11. Se eligen los valores óptimos de los parámetros.
  12. Se realizan nuevas experiencias para confirmar.
  13. Se informan los resultados.
  14. Se comparan los progresos obtenidos con los objetivos planteados en los primeros puntos.


La Función de Pérdida de la Calidad de Taguchi


La Función de Pérdida de la Calidad de Taguchi permite calcular y cuantificar cuánto nos alejamos del valor esperado (objetivo) de un parámetro en particular. Esta valorización se realiza en unidades monetarias. Cuanto más alejado esté el parámetro del valor esperado (objetivo o target), mayor será la pérdida monetaria asociada que se transfiere al cliente.
Función de Pérdida de Taguchi
Este crecimiento es exponencial y está definido por la siguiente ecuación:

L(x) = k · (x - T)²

en donde L(x) es el resultado de la función de pérdida, x el valor de la característica analizada, T su valor esperado y k una constante de conversión a unidades monetarias. Por lo tanto, si L = 0, estamos ante la calidad esperada. A medida que L se aleja de 0, en cualquier sentido, vamos perdiendo calidad y aumentando los costos. Existen límites de tolerancia, en donde L toma un valor máximo permitido: el Límite Inferior de Especificación  y el Límite Superior de Especificación. Se observa una diferencia con el enfoque tradicional de tolerancia, en el que se considera que dentro de los límites no hay pérdida alguna.

Enfoque tradicional del concepto de la tolerancia
(dentro de la tolerancia hay cero pérdida)




Otros artículos relacionados

lunes, 27 de junio de 2016

Postales de Deming en Japón


Corría 1947 en un Japón que trataba de recuperarse de la devastación. Las secuelas de la Segunda Guerra Mundial eran evidentes. El ejército estadounidense se encontraba aún en territorio japonés, desde la rendición del Imperio en 1945, producto de la lamentable decisión de arrojar bombas atómicas sobre las ciudades de Hiroshima y Nagasaki. Las fuerzas aliadas permanecerían allí hasta 1952. Dentro del proceso de reordenamiento territorial japonés de la posguerra, se planificó un censo poblacional para 1951. Fue aquí cuando la Armada Estadounidense recurrió a W. Edwards Deming, un físico y matemático con amplia formación estadística, para que los asistiera en el proceso. Deming era un confeso admirador del trabajo de Walter A. Shewhart, estadístico de la Bell Company, al que accedió mientras trabajaba en la Oficina de Censos de los Estados Unidos. Shewhart era un pionero. Sus métodos y teorías fueron el comienzo de lo que hoy conocemos como Control Estadístico de la Calidad. A través de las gráficas de control, entre otras herramientas, logró inculcar a las compañías la necesidad de un análisis estadístico serio en materia de control de la calidad. Shewhart y Deming se convertirían luego en colaboradores y mantendrían una estrecha amistad, signada por la admiración mutua. Deming se encargaría de difundir sus teorías, de perfeccionarlas y de darles su impronta. Tal es la importancia del trabajo de Deming sobre las teorías de Shewhart, que una de sus principales herramientas, el Ciclo PDCA (Plan-Do-Check-Act) hoy es mundialmente conocido como el Círculo de Deming cuando en realidad se trata del Círculo de Shewhart. Para ese entonces, Deming trabajaba para la Oficina de Censos de los Estados Unidos en donde se especializaba en técnicas estadísticas de muestreo.

Este sería el primer acercamiento de Japón con Deming, quien no tenía el reconocimiento debido en su país. Los japoneses necesitaban desarrollar su industria, de pésima calidad, con un reconocido desprestigio mundial. Hacia principios de la década del ’50, los líderes industriales de Japón se encontraban buscando la salida a esta situación, y vieron al control estadístico de la calidad como una solución viable a sus problemas. Allí fue donde se toparon con la obra de Deming. Aprovechando la presencia militar estadounidense en su país, los japoneses invitaron a Deming a brindar conferencias de estadística aplicada a la calidad. Esta serie de conferencias fueron patrocinadas por la JUSE (Unión de Científicos e Ingenieros Japoneses). La presencia de Deming en Japón cambiaría para siempre la manera de pensar de este país, culturalmente tan opuesto a lo que él estaba acostumbrado en Estados Unidos. Los japoneses supieron escuchar a Deming, supieron aplicar sus principios. Ideas tan revolucionarias como pensar que invertir en calidad reducía los costos, o poner como máxima responsable de la calidad a la Alta Dirección eran imposibles de entender en la decadente industria occidental.

Con los derechos de autor de sus primeras publicaciones formales, Deming realizó una importante donación a la JUSE, organismo que utilizaría el dinero para la creación del hoy prestigioso Premio Deming. El Premio Deming es aún el mayor reconocimiento internacional en materia de calidad al que una organización puede aspirar. También puso a disposición su obra para que fuese traducida al japonés, de manera gratuita, con el objeto de poder difundir masivamente sus conocimientos. Esta generosidad de Deming lo llevó a convertirse en un referente indiscutible en Japón. Lo llamarían el “padre de la tercera revolución industrial". Con la participación de Deming en este proceso de mejora, la industria japonesa pasó de ser símbolo de productos de bajísima calidad a convertirse en muy poco tiempo en potencia industrial a nivel mundial. 


En 1960, Nobusuke Kishi, Primer Ministro de Japón (en representación del Emperador Hirohito) entrega a Deming el mayor reconocimiento a un extranjero que dicho país puede otorgar: “La Medalla del Tesoro Sagrado. Segundo Orden.”. Años más tarde Ishikawa y Juran recibirían una distinción similar por su aporte a la calidad de la industria japonesa. Ambos sumaron su aporte a lo propuesto por Deming, en el marco de los programas de entrenamiento conocidos como TWI (Training Within Industry o 'Entrenamiento Dentro de la Industria'). La industria civil japonesa se nutrió de todos los conocimientos impartidos, sentando las bases de la filosofía de la mejora continua (kaizen). Una perfecta simbiosis entre la cultura racional típica de occidente y la cultura más emocional y espiritual de oriente. 

Estados Unidos, y todo el mundo occidental, comenzaron a mirar con otros ojos las teorías que habían ignorado durante años. Hoy, el legado de Deming es universalmente reconocido. Sus herramientas y teorías son aplicadas con éxito en innumerables organizaciones. A pesar de su ausencia física, la vigencia de sus conceptos es asombrosa. Hoy, The Deming Institute es una organización sin fines de lucro que continua difundiendo sus principios a nivel mundial, fundada por él en sus últimos meses de vida.


Otros artículos relacionados

lunes, 7 de diciembre de 2015

¿Mi proceso está bajo control? Gráficas de control y cómo detectar desvíos

El Control Estadístico de la Calidad es una poderosa herramienta para analizar cómo está funcionando nuestro proceso. Si bien se asocia habitualmente su aplicación a procesos de manufactura, puede ser utilizada en infinidad de aplicaciones. Uno de los grandes pilares de la Gestión de la Calidad Total (TQM) es la conformidad con las especificaciones. El Control Estadístico de la Calidad o Control Estadístico de los Procesos (SPC, por sus iniciales en inglés) nos permite conocer si el resultado de cualquier proceso que esté bajo análisis cumple con lo especificado o no. Sin mayor profundidad estadística ni matemática intentaremos dar una noción de su importancia y sus aplicaciones. En futuras publicaciones se ahondará más en sus detalles.

¿Cuál es el primer paso? Conocer la variabilidad de nuestro proceso.

Por más controlado que se encuentre nuestro proceso, posee indefectiblemente una variabilidad de los resultados que produce. Todas las piezas que salen de una lìnea son diferentes, todos los resultados de una campaña de marketing son diferentes, la facturación mes a mes es diferente. Podemos conocer las causas más importantes de esta variabilidad, estimarlas muy bien pero nunca conoceremos exactamente qué sucederá.
Podemos tener comportamientos aleatorios (causas comunes), que podemos representar a través de una distribución estadística. Logrando este comportamiento (mediante la eliminación de las causas sistemáticas o causas asignables), podemos avanzar en el conocimiento de nuestro proceso. Con esto estaremos seguros que la variabilidad del proceso sigue una distribución conocida.

Segundo paso: Eliminar las causas asignables.

Se deben identificar las causas asignables y se deben eliminar. Por ejemplo, si el proceso produce resultados erráticos porque una máquina esta funcionando incorrectamente, se debería reparar. Aquí desaparecería esta fuente de variabilidad que afecta a la distribución habitual.

Tercer paso: Conocer la distribución de las causas comunes

No es factible conocer cuáles son las causas comunes, pero se puede acotar su comportamiento a una distribución estadística. Esto permite contar con un patrón de comportamiento facilitando su análisis. En general, poseen una distribución normal.

La distribución de las causas comunes se caracteriza por 3 parámetros fundamentales:
  • La media. Es el promedio aritmético de las observaciones.
  • La dispersión. El desvío estàndar nos indica qué dispersión tienen los valores de todas las observaciones con respecto a la media.
  • La simetría. Indica si el patrón de la distribución es simétrico con respecto a la media o es sesgado.

¿En qué consiste el Control Estadístico de los Procesos?

Consiste básicamente en medir los resultados de los procesos y determinar si los mismos se encuentran bajo control. Es decir, si los valores obtenidos en las mediciones correspondientes se encuentran dentro de los patrones esperados.
Existen dos maneras de medir la calidad de los procesos:
  • Una es la medición por atributos. Aquí se mide una característica del producto (o servicio) y se determina si es aceptable o no. Es un pasa / no pasa.
  • La otra es la medición por variables. Se mide de manera continua una variable del proceso. Aquí generalmente aparecen todas las variables que tomen valores continuos (por ejemplo: longitud, peso, temperatura, facturación, rentabilidad, número de accidentes, no conformidades, etc).

¿Cómo se utilizan las Gráficas de Control?

Las Gráficas de Control son diagramas ordenados en el tiempo en donde se representan los valores obtenidos durante la observación. Se determina un valor nominal, el que deseamos que la variable tome, el que esperamos.
Luego se determinan dos lìmites de control. Un acotamiento de control superior (UCL) y un acotamiento de control inferior (LCL). Su valores están directamente relacionados con la distribución estadística de la variable.Si los valores observados caen por fuera de estos límites, se considera que nuestro proceso está fuera de control. Se deben identificar las causas asignables que correspondan y se deben eliminar.
Algo importante a observar es que, muchas veces, es positivo que nuestro proceso se vaya por fuera de los límites. Por ejemplo, si lo que estamos graficando corresponde a la rentabilidad de una empresa no habrá problemas en tener puntos por encima del UCL.
Pero no sólo con puntos fuera de los acotamientos se puede determinar que un proceso se encuentra fuera de control. Existen algunos comportamientos predefinidos que siguen un patrón que pueden considerarse propios de un proceso fuera de control

Procesos bajo control

Un proceso con comportamiento normal debería verse armónico, con suaves variaciones, sin exceder las cotas y sin tendencias. Por ejemplo, la siguiente gráfica corresponde a un proceso bajo control:
Comportamiento Normal - Proceso bajo control

Procesos fuera de control

Existen diversos casos en los que se deben analizar las causas (y actuar sobre ello), en los que se considera que el proceso está fuera de control:

Comportamiento errático
Un punto fuera del lìmite inferior
Un punto fuera del lìmite superior
5 puntos consecutivos bajo la línea central
5 puntos consecutivos sobre la línea central
2 puntos consecutivos cerca del lìmite inferior 
2 puntos consecutivos cerca del lìmite superior
5 puntos consecutivos con tendencia ascendente
 5 puntos consecutivos con tendencia descendente

Errores en su uso

Las gráficas de control son una excelente herramienta orientativa acerca del estado de nuestro proceso. Pero no son infalibles. Podemos cometer errores en los criterios tomados. Existen dos tipos de errores en los que podemos caer:
Errores del Tipo I: Se rechaza un conjunto de datos o lote de buena calidad (que debería haber sido aceptado).
Errores del Tipo II: Se acepta un conjunto de datos o lote de mala calidad (que debería haber sido rechazado).