¿Confiaría
su negocio, inversión o proyecto en el resultado obtenido como consecuencia de
correr un modelo matemático?, lo más probable
que en primera instancia lo dudaría, sin embargo, desde la segunda guerra
mundial, las grandes potencias le han confiado la vida de sus soldados y el
resultado de sus operaciones militares a los modelos matemáticos, en aquellos
tiempos los recursos escasos y la necesidad de optimizar el resultado de las
maniobras militares convocó a un gran número de científicos para que encuentren
una solución a estos problemas, es aquí donde se gestan los primeros modelos
matemáticos. Luego de la guerra, y viendo el éxito que representaron estos
modelos matemáticos, se dieron cuenta que estos podían utilizarse en un campo
diferente al de la guerra, ya por estos años el crecimiento industrial trajo
consigo el aumento en la complejidad de los procesos y de las organizaciones
que lo soportaban, y así, estos modelos matemáticos consolidaron su
posicionamiento como herramientas poderosas para la toma de mejores decisiones
(Hiller, 2015). Pero, ¿qué necesitan realmente los modelos matemáticos determinísticos para
incrementar su confiabilidad y mejorar la toma de
decisiones?
El presente ensayo busca
poner en evidencia que un análisis de qué pasa si en los modelos
determinísticos, puede ayudar a entender mejor el modelo, de esta manera lograr
generar mayor confianza, y finalmente tomar una mejor decisión. Para esto se
comenzará hablando de los principales factores que motivaron el desarrollo de
los modelos matemáticos, seguidamente se tratará los tipos de modelos, dentro
del cual, se pondrá énfasis en el modelo determinístico, luego se revisará las
principales características de los modelos determinísticos y la importancia de
los parámetros en el desarrollo de la solución de los problemas y en el
resultado óptimo. Seguidamente se profundizará hablando de los beneficios que
trae realizar un análisis qué pasa si, para finalizar analizando dos
trabajos que hará reflexionar sobre la importancia de utilizar el análisis qué
pasa si y cómo su uso ha mejorado la toma de decisiones.
Son dos los factores que
tuvieron gran importancia en el desarrollo de estos modelos matemáticos. El
primero fue el gran interés que motivó a los científicos, que habían
participado en la guerra, para seguir con las investigaciones, lo cual trajo
avances importantes en el desarrollo de muchas herramientas que ya existían en
la década de los cincuenta, como la programación lineal, programación dinámica,
teoría de colas, teoría de inventarios. El segundo factor fue el avance de la
computación lo cual permitió resolver de manera más eficiente problemas
complejos, que realizándolos de forma manual serían casi imposibles de
resolver, así el constante avance en la computación ha traído consigo el
desarrollo de aplicativos sencillos que están al alcance de todos (Hillier, 2015,
pp. 32-33). Sin embargo, para la elaboración de cualquier modelo matemático aún
se tiene un factor crítico que puede determinar el éxito o el fracaso del
modelo, y este es el factor humano, a pesar que las herramientas están
disponibles y listas para utilizarse, es el criterio y la interpretación de la
realidad del investigador el punto de quiebre en la resolución de problemas
matemáticos, de aquí se desprende la importancia que el investigador conozca el
comportamiento del modelo a profundidad y se asegure que este refleje en lo que
se pueda a la realidad.
Según Anderson et al. (2015), “Herbert
A. Simon, ganador del Premio Novel de economía y experto en la toma de
decisiones, afirmó que un modelo matemático no tiene que ser exacto; sólo
tienen que ser lo bastante aproximado para proporcionar mejores resultados de
los que pueden obtenerse mediante el sentido común” (p. 8). Del mismo modo Hillier (2018) indicó
que “En
las aplicaciones reales, muchas de las cifras del modelo pueden ser sólo
estimaciones aproximadas” (p. 162). Claramente
se puede deducir que los modelos matemáticos no pueden llegar a ser exactos,
mucho menos representar la realidad tal cual es, sin embargo, lo que sí va a proporcionar
la construcción de un buen modelo, es de información que servirá para la toma de
decisiones.
Los
modelos matemáticos se dividen en dos, los modelos determinísticos y los
modelos estocásticos o probabilísticos. Los modelos estocásticos o
probabilísticos tienen un parámetro, que es un factor o entrada del entorno del
tomador de decisiones, que es incontrolable y además es incierto, como por ejemplo
la demanda de un determinado producto. En este tipo de modelos los resultados
óptimos varían de acuerdo a como van cambiando los parámetros incontrolables. De
otro lado, los modelos determinísticos incluyen parámetros que pueden ser controlables
e incontrolables, de los cuales los parámetros incontrolables para este tipo de
modelos tienen que ser conocidos y no variar, por lo que el resultado de aplicar
al modelo los mismos parámetros, será inevitablemente un mismo resultado (Anderson,
Sweeney, Williams, Camm, & Martin, 2008, p. 9). El
principal reto en los modelos determinísticos, es estudiar adecuadamente los
parámetros que son controlables, con la finalidad de realizar estimaciones
adecuadas que permitan generar un modelo robusto.
Por ejemplo, Hillier (2008) sugiere que uno de los principales parámetros de los
modelos determinísticos son los recursos, los cuales determinan las
restricciones de los modelos y de ellos se debe recolectar tres tipos de datos:
(a) la cantidad de recurso disponible, (b) la cantidad de recurso requerida, y
(c) la contribución por unidad de recurso. Las estimaciones de estos tres tipos
de datos tienen que ser lo más adecuados posibles a la realidad, esto permitirá
construir modelos que puedan orientar adecuadamente las decisiones gerenciales
(Hillier, 2008, p. 83).
Además, Hillier (2008) dijo que “Se requiere
investigar y consultar mucho para obtener oportunamente las mejores
estimaciones disponibles. Este paso es crítico. Se necesitan estimaciones bien
fundamentadas para obtener un modelo válido de programación lineal que oriente
las decisiones de la administración” (p.
83), de aquí se puede deducir la importancia de los parámetros que se ingresa
al modelo y como estas pueden afectar en el resultado óptimo que se quiere
obtener, es por esta razón principalmente que es necesario realizar un análisis
qué pasa si.
Según Hiller (2015),
“Una solución óptima para el modelo original puede estar muy alejada del ideal
en el caso del problema real, de manera que es necesario hacer un análisis
adicional” (p. 48), lo que sugiere el autor es tomar en consideración que
muchas de las veces los problemas reales no pueden ser colocados dentro de un
modelo determinístico y arrojar una solución única, y que, además, ésta sea la solución
óptima. El autor indicó en su trabajo que es necesario el análisis posóptimo
que es el que se lleva a cabo luego de encontrar la solución óptima en el
modelo, y además que este análisis constituye una parte fundamental en la
mayoría de casos. El análisis posóptimo, no es otra cosa que el análisis qué pasa si. Sólo el hecho de que el
modelo no pueda representar la realidad en un 100% implica que se tenga que
realizar este tipo de análisis.
Otro motivo por el que
se debe realizar el análisis qué pasa si
viene a ser explicado en las siguientes líneas. Primeramente, si una o varias de
las estimaciones de los parámetros es inexacta, se deberá evaluar si la
solución óptima se mantiene para un rango de valores de los parámetros dentro
del modelo, si el resultado óptimo no varía, entonces las decisiones que se
tomen sobre este modelo, serán satisfechas en gran medida. Sin embargo, si ante
una pequeña variación en la cantidad requerida de algún parámetro cambia la
solución óptima, se tendrá que realizar un análisis qué pasa si (Hillier, 2008,
pp. 162-163). Es necesario prestar atención a los parámetros sensibles y
de ser necesario, volver a revisar la fuente de las estimaciones para estos
parámetros.
Según Hillier (2008), el análisis qué pasa si, también llamado análisis de
sensibilidad, nos brinda tres principales beneficios.
Primero, nos permite
determinar que parámetro es sensible, quiere decir que variaciones mínimas en
éste hará variar el resultado óptimo. Entonces cuánto más sensibles son los
parámetros, más atención se debe tomar a las estimaciones realizadas, para
evitar caer en una solución óptima equivocada. Pero se debe ser consciente que
en la actualidad las necesidades de los clientes internos y externos son muy
dinámicas, siendo así, el planteamiento que se modela y se aplica en un periodo
determinado, puede que no tenga las mismas condiciones en el siguiente periodo,
por lo que es importante ser ágil a la hora de volver a resolver el problema,
si se tuviera un modelo sencillo, uno o dos variables, no se tendría inconvenientes
de volver a realizar el modelo, sin embargo si se tuviera modelos complejos con
más de cien parámetros, no sería práctico volverlo a resolver, y es aquí donde
surge el segundo beneficio de realizar un análisis de qué pasa si.
Segundo, nos permite
prever si un cambio en un parámetro afecta la solución óptima sin necesidad de
volver a resolver el problema. Es así que, se considera importante realizar un
análisis de sensibilidad de las variables más significativas, principalmente en
modelos que serán constantemente reutilizados y mejorados, ya que, si se
requiere, ayudará a tomar decisiones mucho más ágiles.
Tercero, permite
cuestionar las restricciones con el afán de lograr un mejor resultado óptimo (Hillier, 2008, pp. 162-163). Imagine
que existe en su empresa un proyecto de inversión que tiene un determinado
presupuesto de acuerdo a las políticas de la empresa, y este presupuesto es una
restricción en el cálculo para maximizar los ingresos por ventas del proyecto,
mediante el análisis qué pasa si, se
puede evaluar como es el comportamiento del resultado óptimo si se aumenta, disminuye
o se elimina la restricción en cuestión. Así pues, si aumentar el presupuesto
implica obtener un mayor ingreso, se podría plantear a los directivos de dicho
proyecto, la posibilidad de cambiar las políticas en favor de la empresa.
En conclusión, de aquí se desprende que es
importante revisar y cuestionar los parámetros que ingresan al modelo. Realizar
un análisis qué pasa si permitirá, en
resumen: Identificar variables sensibles, resolver de manera rápida cambios en
los parámetros del modelo, así como preguntarnos si los lados derechos de las
restricciones pueden ser revisados y modificados con el fin de optimizar el
resultado deseado del modelo. Además, se puede deducir que realizar un análisis qué pasa si sobre los parámetros,
permitirá reducir el riesgo de tomar una mala decisión, así como identificar
debilidades del modelo que permita sugerir mejoras, y finalmente el modelo no
estará sujeto sólo a una solución viable, sino, que puede presentar varias
soluciones posibles.
Además, se podría
creer que el final de la solución se logra luego de realizar un análisis de
sensibilidad de los parámetros, sin embargo, esto no es así. Los valores
finales de los parámetros sólo se pueden tener con certeza incluso luego de
implementar el modelo en la realidad, ya que a pesar de los esfuerzos que se
realicen por definir los parámetros adecuados, al final, el resultado óptimo
obtenido no necesariamente será el mejor. Las consecuencias positivas o
negativas de haber usado el modelo, están relacionadas de cierta manera a las
restricciones, que pueden ser suaves o duras (Hiller, 2015, pp. 272-273), por lo que es necesario saber distinguir
unas de otras, según Del Carpio (2012) las restricciones duras son
aquellas que son absolutamente inviolables, y las restricciones blandas son aquellas que son más
elásticas, son más frecuentes en la realidad de lo que puede parecer a primera
vista, es por esta razón que durante la elaboración del modelos matemáticos
determinísticos hay poner especial atención a los tipos de restricciones, así
como los parámetros asociados a cada una de ellas.
Como
ya se ha visto es demasiado complicado colocar la realidad en un modelo
matemático, así pues, la conclusión de un trabajo realizado por Zozaya, A. R.
(2010) indicó “es difícil que los métodos cuantitativos, por más avanzados que
sean, logren recoger a plenitud la interacción gobierno-sistema productivo”,
sin embargo, se puede utilizar el análisis qué
pasa si en los modelos más complejos, lo que permitirá explicar mejor el
modelo, y lograr el resultado esperado.
El
trabajo de Amariles y Soto-Mejía trata sobre las inconformidades que ha
generado el modelo matemático actual que utiliza el Sistema Universitario
Estatal (SUE) colombiano para evaluar las universidades públicas “rankeandolas”
según su desempeño, y debido a esto propone utilizar el enfoque de análisis de sensibilidad
para medir la sensibilidad de los resultados del modelo basado en el análisis
envolvente de datos. (Amariles & Soto-Mejía, 2015, p. 54)
Además,
en el trabajo de Amariles y Soto-Mejía (2015) se indicó que:
En
el contexto del modelo SUE, la medición de las variables es un asunto
determinístico, lo cual no debe confundirse con un reporte de información no
confiable. La sensibilidad que se evalúa en el contexto del SUE está
relacionada, no con la incertidumbre en la información suministrada, sino con
el impacto que la variación de un valor(es) pueda tener en la eficiencia de la
universidad evaluada o medir hasta qué punto ella tolera cambios en la información
sin perder su eficiencia. (p. 56)
Así
pues, el trabajo concluye aseverando la importancia del análisis de
sensibilidad con lo que se logró calcular rangos de estabilidad de las
universidades eficientes del sistema, además que surgen preguntas adicionales
sobre otros parámetros del modelo que a futuro permitirá entender mejor la
realidad. Como se puede apreciar, la importancia del análisis de sensibilidad
en los modelos determinísticos es evidente, nos ayuda a entender mejor el
modelo planteado y a tomar mejores decisiones.
En otro trabajo realizado por Ojeda (2016), se
busca determinar la sensibilidad de los parámetros en un modelo de Hidrólisis
del Isocianato de Metilo, el cuál es un componente altamente inestable y
exotérmico, con el fin de predecir su estabilidad térmica y establecer las
condiciones límite en las que se puede operar, así pues, luego de culminado el
estudio, se logró determinar la inestabilidad térmica del contenedor, y se
determinaron regiones del sistema que estaban fuera de los límites de control,
lo cual dio como resultado recomendaciones para mitigar el peligro en dichas
regiones, y evitar futuros accidentes en la manipulación de estos compuestos.
Se
puede ver entonces, que aplicar un análisis de sensibilidad a los modelos
matemáticos determinísticos permiten reducir los riesgos y tentar a tener una
explicación más cercana a la realidad.
En
conclusión, como se ha podido ver a lo largo del ensayo, se habló del desarrollo de los
modelos matemáticos, así como los tipos de modelos, con énfasis en el modelo
determinístico, luego se revisó las características de estos y la importancia
de los parámetros en el desarrollo de la solución de los problemas y en el
resultado óptimo. Se profundizó sobre los beneficios que trae realizar un análisis
qué pasa si, y finalmente se revisó dos casos en los que el análisis de qué
pasa si o análisis de sensibilidad fueron fundamentales para lograr un
resultado que agregó valor a cada una de estas investigaciones. Así pues, vale
la pena decir que existen motivos suficientes que evidencian que un análisis de
qué pasa si en los modelos determinísticos, puede lograr generar mayor
confianza en el modelo, y de esta manera tomar una mejor decisión.
Referencias
Amariles,
J. M., & Soto-Mejía, J. A. (2015). Análisis de sensibilidad de los
resultados del modelo de gestión SUE (Sistema Universitario Estatal) basado en
el análisis envolvente de datos. Ingeniería Y Competitividad, 17(2), 53-64.
Anderson, D. R.,
Sweeney, D. J., Williams, T. A., Camm, J. D. & Martin, K. (2008). Métodos
cuantitativos para los negocios (11th ed.) (p. 9). México
D.F., México: CENEAGE Learning.
Anderson, D. R.,
Sweeney, D. J., Williams, T. A., Camm, J. D., Cochran, J. J., Fry, M. J. &
Ohlmann, J. W. (2015). Métodos cuantitativos
para los negocios (13th ed.) (p. 8). México D.F.,
México: CENEAGE Learning.
Del
Carpio, L. (2012). Presentación Planeamiento de PL. Presentación de Sesión del
curso Herramientas para la toma de decisiones para CENTRUM Católica, Lima,
Perú.
Hillier, F. S. (2008).
Métodos cuantitativos para administración. (3th. ed.) (p. 162) McGraw-Hill
Interamericana. Recuperado de http://www.ebooks7-24.com
Hillier, F. S. (2015).
Investigación de operaciones. (10th. ed.) McGraw-Hill
Interamericana. Recuperado de http://www.ebooks7-24.com
Ojeda,
J. C., GilPavas, E., Dobrosz-Gómez, I., & Gómez, M. Á. (2016). Análisis de
la Sensibilidad Paramétrica y del Comportamiento Dinámico de la Hidrólisis del
Isocianato de Metilo. Información
Tecnológica, 27(5), 49-56. doi:10.4067/S0718-07642016000500006
Zozaya,
A. R. (2010). La utilidad de los métodos cuantitativos: el caso del debate
neoclásicos vs. productivistas. Anáhuac
Journal, 10(1), 25-49
No hay comentarios:
Publicar un comentario