Journal Information
Title: Enfoque UTE
Abbreviated Title: Enfoque UTE
ISSN (print): 1390-9363
ISSN (electronic): 1390-6542
Publisher: Universidad UTE (Quito, Ecuador)
El significado de la expresión “riesgo de insolvencia” para una empresa infiere que experimenta dificultades financieras evidenciando esto cuando se observan hechos que caracterizan a un “estado de cesación de pagos” como incumplimiento de sus obligaciones o interrupción en el pago a los proveedores. De igual manera dicho estado es nocivo para cualquier entidad, debido a que son desviadas de sus objetivos principales que son la creación de valor y la maximización de sus utilidades. Si esta situación perdurase en el tiempo, la empresa se puede declarar en quiebra. Como bien plantea DrC. Andrés Fernández Companioni junto a un colectivo de autores en el “Diccionario de Términos Económicos Contables” (Santiago de Cuba 2008) al referirse al término de quiebra como “Situación que se produce en un empresa cuando los pasivos son superiores a los activos, llevando a sus propietarios a cesar en el pago de sus obligaciones…Para que se produzca una quiebra es preciso que la situación apuntada no sea coyuntural o pasajera.”. (pp. 75-98) De tal forma que cuando una empresa declara su cierre o quiebra decimos que es insolvente y su estado irreversible.
El fenómeno de quiebra e insolvencia empresarial no resulta nuevo dentro del estudio financiero, este presenta distintos niveles de complejidad cuyo reconocimiento dependerá de la del estilo y la eficacia en la gestión para que se dé. La práctica parece demostrar que la gestión eficiente dota de mejores posibilidades de supervivencia a las empresas. Pese a la basta literatura desarrollada, es difícil encontrar un tratamiento homogéneo de la temática en cuestión. Si la intención es entender la complejidad del fenómeno de quiebra e insolvencia, se debe asociar con el fracaso empresarial. Sin embargo, lo que es verdad es que no se ha alcanzado a entender el fenómeno en toda su magnitud y eso se traduce en un escaso consenso sobre lo que se entiende y la forma en cómo se mide.
Algunos tratadistas apelan a una disminución en las condiciones de rentabilidad como elemento que evidencia el fracaso, en tanto otros se refieren a la incapacidad para hacer frente a los compromisos adquiridos con sus acreedores; algunos autores simplemente se centran en el comportamiento en las ventas. Para Beaver (1966), la empresa es una reserva de activos líquidos en la que hay flujos de entrada y de salida de tesorería, sustentando su enfoque en que la reserva sirve, por definición, como un “colchón” que permite salvar diferencias temporales entre estas entradas y salidas.
Sin embargo, Altman, Marco y Varetto (1994) plantean que el fracaso empresarial comienza como un fenómeno propiciado por un evento catastrófico en la organización, aunque exponen que puede manifestarse como el resultado final de un lento proceso de declinación que solo es percibido cuando es irremediable. Por su parte, McRobert y Hoffman (1997) asumen que el fracaso empresarial es un proceso que se inicia por defectos en el sistema administrativo que desembocan en decisiones desacertadas, en deterioro financiero y en un colapso de toda la empresa. Perfeccionando las propuesta clásicas, Abad, Arquero y Jiménez (2003) plantean la hipótesis de que el fracaso financiero es decir quiebra e insolvencia se produce cuando el deudor es incapaz de atender a sus compromisos, ya que cualquier acreedor estaría dispuesto a aplazar el cobro de una deuda (o a conceder un préstamo) si se le compensa suficientemente y se le garantiza el reembolso. Por lo tanto, las expectativas favorables no solo aumentarían la capacidad de endeudamiento, también atraerían a los inversionistas. Más reciente, Mosqueda (2008) concibe el fracaso como el momento, conforme a un umbral, en que se detecta el incumplimiento de los objetivos financieros y estratégicos marcados por la gerencia que, en su conjunto, posibilitan el riesgo de quiebra de los negocios.
De todos estos enfoques se deduce que una de las consecuencias más importantes del fracaso empresarial es la quiebra del negocio, entendiendo como quiebra empresarial los problemas serios de liquidez-solvencia que no pueden ser resueltos y causan el cierre definitivo de la entidad, transformando estados de insolvencia sostenible e irremediables en devenida e irreversible quiebra; y por tanto surge la necesidad de predicción de estados financieros en ámbito empresarial actual.
El estudio para predecir la insolvencia con el fin de evitar un posible cierre o quiebra en una empresa, ha sido explorado en numerosas investigaciones a partir de 1932 cuando Fitzpatrick llevó a cabo los primeros trabajos que dieron origen a la denominada etapa descriptiva. Motivados al encontrar que índices contable-financieros diferían significativamente entre empresas en quiebra y empresas prósperas, Smith y Winakor (1935) propusieron un modelo simple que les permitía clasificar a las empresas y predecir su quiebra. Sin embargo, los estudios hasta esa época fueron considerados poco formales y no fue hasta la década de los años 60 en que se comienzan a utilizar modelos matemáticos y estadísticos más robustos. Es en esta época cuando aparece el primer acercamiento científico serio que conducía a los especialistas financieros a utilizar la información contable, que introducen en testes dicotómicos, para identificar los ratios que mejor correspondían a la realidad de las empresas estudiadas. De esta época se destacan los aportes correspondientes de Beaver (1966) quien se interesó por el fracaso empresarial y la suspensión de pagos mediante el uso de las razones financieras y en especial el Modelo Z-score de Altman (1968) utiliza el análisis multivariado discriminante para predecir la insolvencia. El modelo de Altman utilizó cinco razones financieras con un poder de predicción entre el 72% y el 80%. El modelo de Altman no solo permitió una interpretación más clara del efecto de cada variable en el modelo, sino que definió puntos de corte, lo cual se traduce en un aumento de la eficiencia del esfuerzo de análisis, al reducir el tiempo dedicado a las empresas con una probabilidad de quiebra muy alta o muy baja, y así aumentar la eficiencia de la dirección para evaluar aquellas firmas que se encontraban en la “zona gris”.
Las variables del Z-score identificadas por Altman son las siguientes: capital de trabajo; ATOT representa al activo total; UTRET son las utilidades retenidas; EBIT es la utilidad antes de intereses e impuestos; PTOT son los pasivos totales. Supuso en ese momento una revolución en la investigación contable que, en aquellos momentos, se estaba planteando: la eliminación del análisis mediante ratios como técnica analítica para evaluar el rendimiento de las empresas.
A partir de dicho trabajo revolucionario se desarrollaron un sinnúmero de modelos predictivos del riesgo de quiebra, aunque estudios recientes sugieren que estos no son mejores que el modelo inicial de Altman. Durante los siguientes 40 años, el esfuerzo dirigido a la mejora del Z-score fue impresionante. Luego, durante la década de 1970, los estudios de predicción del fracaso empresarial se orientaron, en su mayoría a la técnica del Análisis Discriminante Múltiple (Libby, 1975; Wilcox, 1973). Sin embargo, debido a sus características operacionales, la mayoría de los autores que escribió sobre quiebra diseñaron modelos más complejos, pero al mismo tiempo más precisos, para determinar la probabilidad de quiebra de la empresa. Tales son los modelos Logit (Ohlson, 1980), el análisis Probit (Zmijewski, 1984).
Sin embargo, estas técnicas presentan limitaciones pues partían de hipótesis más o menos restrictivas que, por su propia naturaleza, la información económica, y en especial los datos extraídos de los estados financieros de las empresas, no iban a cumplir, perjudicando los resultados. Carmona Vega (2009, p. 12) plantea que la aplicación de técnicas procedentes del campo de la Inteligencia Artificial surge como un intento de superar dichas limitaciones, pues estas últimas no parten de hipótesis preestablecidas y se enfrentan a los datos de una forma totalmente exploratoria, configurándose como procedimientos estrictamente no paramétricos. Es por esto que nacen los modelos de inteligencia artificial aplicados a la predicción de quiebra o insolvencia, cuyo antecedente lo encontramos en el test de Turing. Este test postulaba que una máquina presenta comportamiento inteligente si un observador es incapaz de distinguir entre las sucesivas respuestas proporcionadas por la máquina y un ser humano. La ventaja de estos modelos es que no parten de hipótesis preestablecidas y se enfrentan a los datos de una forma totalmente exploratoria, configurándose como procedimientos estrictamente no paramétricos.
Según el propio Altman y Saunders (1998, p. 1722) el análisis de la solvencia empresarial sufría una gran evolución a lo largo de los últimos 20 años, debido a factores tales como el aumento en el número de empresas insolventes y de las quiebras, la desintermediación creciente que se observaba en los mercados financieros, o el desarrollo de nuevos instrumentos financieros. Todo ello impulsaba el desarrollo de nuevos y más sofisticados métodos de análisis de predicción de la insolvencia, y entre este tipo de sistemas ocupan un papel destacado aquellos que están basados en técnicas de Inteligencia Artificial.
Podemos decir que el estudio de la predicción de insolvencia hasta ese momento implicaba una investigación selectiva dentro de un espacio de alternativas inmenso pues, como se ha comentado, no existía un procedimiento que condujera de forma inequívoca a la solución óptima. Por lo tanto, la selección estaba basada en reglas prácticas o heurísticas, debiendo fijarse también un criterio de suficiencia para determinar cuándo las soluciones encontradas eran satisfactorias. Todo ello concordaba plenamente con el paradigma de la racionalidad limitada, que gobierna los procesos de decisión en el ámbito económico. Es por ello que la aplicación de técnicas procedentes del campo de la Inteligencia Artificial surge como un intento de superar dicha limitación. La Inteligencia Artificial (IA) en el mundo empresarial representa más que un reto, un cambio de paradigmas y pensamientos por las llamadas recetas de las prácticas empresariales que sustentaban los pensamientos de análisis económicos financieros.
Carmona Vega (2009, p. 17) expone que las redes neuronales comienzan a utilizarse para analizar la solvencia empresarial cuando se desarrolla el algoritmo BP, a finales de los años ochenta. Su introducción vino motivada por el deseo de mejorar los resultados que se alcanzaban con los modelos estadísticos (análisis discriminante y regresión logística, principalmente), pues estos proporcionan regiones de decisión definidas a través de funciones lineales, mientras que con la inserción de capas “ocultas” de neuronas en un modelo perceptrón es posible la definición de regiones mucho más complejas y, por lo tanto, la reducción del número de empresas incorrectamente clasificadas. En la Figura 1 se puede ver un ejemplo de las regiones de decisión definidas por los distintos modelos para el caso de un espacio de variables bidimensional. El diagrama (a) representa las regiones de clasificación que genera un modelo estadístico lineal, (b) las que se obtendrían con una red perceptrón de dos capas, mientras que (c) es un posible ejemplo de regiones generadas mediante la inserción de una capa intermedia de neuronas entre la de entrada y la de salida.
En una muestra selectiva de estudios relacionados con el fracaso empresarial se constatan los siguientes resultados que evidencian la superioridad de los modelos desarrollados a través de empleo de las redes neuronales artificiales (RNA):
Serrano y Martín (1993) y Laffarga (1986), emplean un modelo basado en Redes neuronales artificiales en el mercado español. Los resultados obtenidos evidencian la superioridad de las RNA respecto a los métodos multivariantes habituales. No obstante en el presente trabajo corroboran, tal y como apunta Altman (1994), que las RNA no sean por el momento un instrumento sustitutivo de los métodos convencionales, sino más bien un complemento, ya que, en esta última, el proceso de entrenamiento es relativamente lento cuando la DATA no es lo suficientemente fiable y completa
Marose (1992), emplea Redes neuronales (Sistema híbrido de perceptrón multicapa y herramientas estadísticas). Este modelo conocido como PCML (Public Company Loan Model). Fue desarrollado por el Chase Manhattan Bank para que sirva de ayuda para decidir la concesión de créditos a través del suministro de extensos informes, gráficos, puntos fuertes y débiles, así como una clasificación de las empresas según el crédito que merecen. Minimizan la problemática de la fiabilidad de la DATA pues el origen de esta fue el banco
Altman, Marco & Varetto (1994), emplean Redes neuronales (Perceptrón multicapa). Los autores alertan del peligro que supone la imposibilidad de interpretación del modelo neuronal ante la problemática de la DATA básica. Los autores de dicha alternativa utilizan únicamente información contable no incorporan variables cualitativas
López y Flórez (2000), utilizando de la muestra original de 66 bancos en España, únicamente toman 52, la mitad de los cuales quebraron, observan mejores resultados en las predicciones efectuadas por una RNA del tipo PMC ( perceptrón multi capa). Asimismo, únicamente utilizan 6 ratios contables para clasificar las entidades bancarias en solventes y fracasadas (Activo Circulante/Activo Total,Coste de Ventas/Ventas Brutas,Reservas/Pasivo Exigible, Ventas/Activo, Reservas/Neto y Tesorería/Activo Circulante). En la muestra de estimación, la RNA ofrece una fiabilidad del 100%, mientras que la regresión logit acierta el 95% de casos y el análisis discriminante, el 92,5%. En la muestra de comprobación, la RNA se continúa manteniendo con un porcentaje de aciertos más elevado que los otros métodos.
Harvey et. al. (2000), utiliza como variables predictivas, los ratios PER y book-tomarket y la rentabilidad por dividendo observan, en diferentes mercados emergentes, que las RNA del tipo PMC generan estrategias de compra y venta de acciones más eficientes que las efectuadas por una regresión lineal o una estrategia de comprar y mantener. Kanas (2001) compara, en el mercado inglés y alemán, el comportamiento de los PMC y de la regresión lineal en la estimación de rendimientos a partir de la rentabilidad media por dividendo del mercado y del volumen negociado en anteriores periodos, con un resultado favorable a las RNA
En el mercado español, Fernández et. al. (2000) muestran la capacidad predictiva de los PMCs en el Índice General de la Bolsa de Madrid (IGBM). Las estrategias generadas por las RNA, en ausencia de costes de transacción, se muestran más eficientes que las de comprar y mantener en escenarios estables o bajistas de la bolsa, si bien ello no se manifiesta en el episodio alcista analizado. Por otra parte, Pérez y Torras (2001) contrastan, en el IBEX-35, la capacidad predictiva de diversos modelos no lineales econométricos de series temporales (series del tipo ARCH, LSTAR, etc.) y de diversas arquitecturas de RNA (PMC, redes de Elman y redes de Jordan). Observan que es posible efectuar predicciones del IBEX-35 a partir de su comportamiento pasado, mostrándose las RNA como un instrumento de predicción sensiblemente superior
Sánchez (2003), evidencia en su trabajo luego de realizado un análisis comparativo de la capacidad de ajuste y predicción de los métodos econométricos convencionales respecto al empleo de las RNA en la predicción de la quiebra; y en la estimación de los rendimientos de carteras de valores a partir de una formulación multibeta. En la primera aplicación debiendo realizar una modelización uniecuacional, trabajando con datos de carácter transversal, mientras que en la segunda, los datos utilizados fueron series temporales, siendo la modelización de los rendimientos de las carteras, de carácter multiecuacional. Aunque se trata de escenarios de modelización diferentes, en ambos casos, los resultados son favorables a las RNA
Mariano Alcántara y Eduardo Daniel (2007), emplean un modelo de redes neuronales desarrollado en las empresas en la CONASEV. Dichos autores revelaron que para los modelos de redes neuronales desarrollados en su investigación consideraron variables cuantitativas como los ratios financieros, pretendiendo luego incluir como aporte y necesidad variables cualitativas tales como el desempeño, calidad dejando abierto la posibilidad de incursión y relación de otras de este tipo. Evidencian superioridad de las RNA ante los modelos estadísticos tradicionales
Bravo, F. y Pinto, C. (2008). La aplicación de modelos predictivos de la probabilidad de insolvencia en microempresas chilenas reflejaron que los modelos de redes neuronales presentan un mejor desempeño clasificatorio y predictivo con respecto a los modelos de rough set y la regresión logística. Estos modelos desarrollados con RNA evidencian su rapidez para procesar gran cantidad de información, tanto cualitativa como cuantitativa, y su capacidad para generar reglas de decisión fácilmente comprensibles, constituye una alternativa muy competitiva con las técnicas más eficientes.
De manera general de acuerdo a los diferentes hallazgos evidenciados en las aplicaciones actuales Romani Chocce (2002) plantea que los modelos de RNA muestran mejor desempeño, en cuanto a clasificación y predicción de quiebra empresarial con elevadas capacidades predictiva. Y evidencia el empleo de estas como un avance en el estudio del fracaso en las empresas Chilenas y en el mundo. Resulta necesario relacionar aparejado a dicha temática relacionar las siguientes observaciones derivadas de la concepción de los modelos de forma general:
Abad, Arquero & Jiménez (2003), Identifican a la manipulación contable como un factor que limita los resultados finales de cualquier modelo, esto manipula la acertada predicción
Mosqueda, (2004), emplea la Teoría de síndrome financiero. Las empresas con síndrome “agujero negro” se distinguen de aquellas saneadas por los ratios “capital contable / activo total” y “cobertura de intereses”. En tanto que para aquellas con síndrome de “crecimiento fracasado”, las variables más significativas son el crecimiento del activo y, de nuevo, capital contable / activo total. El estudio se limita a empresas que cotizan en la bolsa mexicana de valores por la limitante de la una DATA fiable. Adolece de variables cualitativas
Mosqueda R, (2008), referencia la necesidad de tener en cuenta información cualitativa. Define el fracaso a partir del cierre del negocio. Los descubrimientos obtenidos que sugieren que el fracaso empresarial se debe a los siguientes indicadores: la Presión Financiera, a la habilidad para detectar las Oportunidades de Negocio, al Sistema de Gestión Financiera, a la Dotación en Equipo y Tecnología, a la Rentabilidad de la Inversión y algún Indicador Específico propio a cada Sector. De estos indicadores destacan el “Ratio Presión Financiera” y las “Oportunidades del negocio” como los más relevantes. Refieren la necesidad de incorporar variables cualitativas y hacen alusión a la problemática de la DATA
Las variables que han conformado los modelos de predicción han sido varias las más significativas y su representatividad se puede observar en la Figura 2. Variables de los Modelos de Predicción de quiebra y su representatividad.
La literatura especializada demuestra que los modelos actuales para predecir la quiebra o insolvencia no son estables en el tiempo, pues muestran resultados inconsistentes a lo largo del tiempo; esta circunstancia ha llevado a diversos investigadores a indagar sobre los aspectos puntuales en los que fallan. Todo parece indicar que el esfuerzo debería centrarse primeramente en la calidad y el tipo de datos que alimenta al modelo. Además se puede percibir, lamentablemente que la generalidad de los modelos se vale exclusivamente de la información contable la representatividad de aspectos fuera del marco contable financiero traducido en datos cualitativos es casi nulo. Algunos autores alegan que es preciso clasificar los procesos de fracaso empresarial porque existe la posibilidad de que algunas empresas, que están experimentando tensiones financieras o formas leves de fracaso, manipulen la información contable para aumentar la confianza del público (Wilcox, 1971). Otros afirman que las técnicas estadísticas sobre ajustan los modelos predictivos para alcanzar el máximo éxito clasificatorio en la muestra, reduciendo su validez externa (Hair et al., 1999).
En general, se argumenta que las empresas parecen seguir diferentes procesos que desembocan en el fracaso financiero y, por lo mismo, no es posible establecer sobre qué variables financieras ni valores en las mismas se determina la futura solvencia o insolvencia (Ball, Kothari, & Robin, 2000; Laitinen, 1993). Bravo, F. y Pinto, C. (2008, p. 39) la introducción de variables cualitativas robustece la capacidad de los modelos. Los resultados han demostrado que en el caso de las microempresas, la información contable y activos tangibles del negocio no son suficientes por si solos para predecir el éxito o fracaso de la microempresa.
La característica de valerse de los modelos de predicción, exclusivamente de la información contable, resulta común e imperante en los estudios iniciales y actuales. Aún y cuando la información cualitativa no está exenta de brindar información parcial, al igual que la información contable, los teóricos coinciden en que la mezcla de estos dos tipos de información en los modelos predictivos robustece sus predicciones.
Corroborando lo anterior Rubén Mosqueda, Doctor en Ciencias Económicas y Empresariales, afirma que, a pesar de que la importancia de los ratios en el estudio del fracaso empresarial no puede ser negada, su uso ha sido por demás criticado, fundamentalmente por: (a) los constructos, que se elaboran con ratios financieros que no tiene una teoría que justifique su uso y, a su vez, los modelos y los resultados que de estos se derivan, serían simplemente un ejercicio estadístico; (b) estos modelos son incapaces de pronosticar la quiebra de las empresas de aquellas que presentan una alta clasificación crediticia debido a que omiten uno o varios elementos importantes, tales como la relación entre riesgo-rendimiento de manera adecuada.
Estas dos circunstancias planteadas por Rubén Mosqueda y los estudios relacionados hasta este momento dan pie a los siguientes razonamientos:
Restricción. Dado que la obligación por presentar públicamente la información contable los modelos de predicción del fracaso empresarial que utilizan ratios están restringidos.
Imagen fiel. Se debe reconocer que existe información contable viciada que no puede proporcionar la imagen real del negocio. Rosner, (2003) encontró evidencia de que las empresas fracasadas manejan ganancias al alza para dar una imagen positiva sobre su situación financiera, especialmente cuando se encuentran al borde del fracaso.
Parcialidad. Desde el momento en que los investigadores introducen solo ratios financieros a sus modelos predictivos, ellos asumen que los indicadores relevantes, ya sea de fracaso o éxito, quedan captados por la información contable. Argenti, (1976) asegura que “a pesar de que los ratios financieros pueden mostrarnos que algo anda mal…dudo que alguien pudiera atreverse a predecir el colapso o fracaso con la sola evidencia de estos ratios.” (p. 62).
Por tanto hasta este momento se plantea que la aplicación de las redes neuronales artificiales vislumbra un importante avance para el abordaje de problemas financieros complejos. La evidencia en la literatura encuentra gran aceptación y en los estudios actuales de predicción de quiebra o insolvencia con el empleo de RNA se demuestra que a pesar de la complejidad del aprendizaje de las RNA, su amplia aplicación en el tema financiero, en especial, en el pronóstico de estados futuros de quiebra es factible evidenciado en sus altos porcentaje de fiabilidad y aciertos, además pueden emplearse como herramientas complementarias a los enfoques tradicionales de análisis multivariante.
La data inicial de las empresas manipula, tergiversa y complejiza el resultado final de una RNA. Por tanto desempeñarán un papel importante las aplicaciones que hibriden redes neuronales con otras técnicas (sistemas expertos, algoritmos genéticos, redes de petri) para eliminar la problemática existente. Aunque estos estudios tienen un carácter más experimental, pues muchos de ellos son muy novedosos, también se puede encontrar alguna aplicación en servicio en instituciones financieras. Sin embargo, parece ser solo el inicio de una búsqueda frenética que interrelaciona a distintas y diversas ciencias con el propósito firme de lograr “predecir con datos fiables y arribar a estados reales”.
El entorno empresarial integra un cúmulo de ciencias, herramientas y estudios que pueden garantizar una predicción de estados empresariales certeros. El camino hacia esa predicción, se sustenta en hacer el híbrido correcto sin obviar las realidades de la conformación de las informaciones económicas financieras que sustentan las entidades actuales.
La propuesta de solución de esta investigación tiene como punto de partida las limitantes de la integración y relación de las variables cuantitativas y cualitativas para predecir la quiebra o insolvencia así como la manera de alimentar la RNA propuesta con una data fiable. La primera novedad de este modelo, a diferencia de los desarrollados hasta este momento, es el de incorporar información cualitativa. Integrando lo que hasta el momento se ha expuesto se presenta la lógica que facilita la construcción de la Red Neuronal Artificial a través de tres etapas.
Primera etapa. Construcción y recolección del conjunto de datos que permitirá activar el proceso de aprendizaje de la Red Neuronal Artificial. En esta etapa se realiza el muestreo, selección y limpieza de la DATA inicial. Esto permite transformar la información disponible en conocimiento útil. La selección de esta consiste en elegir los atributos que sean relevantes para la organización, pues a una mejor selección y mayor relevancia de los datos los algoritmos aprenderán con mayor rapidez y los resultados han de ser fiables y certeros ver la Figura 3. El resultado de esta primera etapa será.
Depurar, recolectar y organizar la información
Identificación de las variables financieras y no financieras que se van a pronosticar
Construcción del conjunto de datos que permitirán activar el proceso de aprendizaje de la Red Neuronal Artificial (variables de entrada).
Luego de procesada la información se establece la adecuada relación de las variables cuantitativas y cualitativas, asociadas a la empresa y a su micro y macro entorno lo que conforman la variante más importante en la predicción del fracaso empresarial. En la predicción de ese estado final la relación de todos los datos describen la trayectoria y el comportamiento de una empresa; es necesario tener presente oportunidades amenazas y el grado de satisfacción con que ese percibe ese producto o servicio, la capacidad de respuesta y la razón de ser de la entidad. Los estados finales deben permitir diagnosticar a priori situaciones actuales y futuras.
Las variables se dividirán en criterios de rentabilidad, liquidez, solvencia y eficiencia y se seleccionaran conforme a las razones más usadas en estudios previos por lo que en caso de ser necesario se aplicará análisis factorial para reducir la muestra amplia de razones o seleccionar de manera aleatoria las razones para finalmente quedar con las razones financieras más representativas en los siguientes aspectos financieros ver la Figura 4. Variables propuestas.
Se establecerá la identificación de las principales variables que inciden sobre la situación económica de la empresa en un período determinado y en un sector determinado. En el caso particular de los estudios de predicción se utilizaran datos de mercado, información del mercado y se incorporará información relevante de la empresa. Se deben determinar las variables de forma categórica e incorporar en una función lineal los ratios seleccionados como variables independientes, asignándoles una ponderación individual a cada uno de ellos con el fin de aplicar un método multivariable clasificatorio para obtener porcentajes de exactitud y errores predictivos “ex-ante” o “expost”.
Segunda etapa. Activación del proceso de aprendizaje, con la selección de la arquitectura y los parámetros necesarios para la definición de los pesos de la conexión entre las neuronas. Para procesar la información las neuronas se organizaran en capas: la capa de entrada transmite las variables input utilizadas, la capa de salida presenta el output final y entre medias pueden existir una o más capas ocultas que procesan la información. Los parámetros a tener en cuenta en esta etapa son.
La división temporal de la base de datos
El número de las capas ocultas y el número de neuronas que se insertarían en cada capa
Los mecanismos de conexión entre las diferentes capas
La función de activación
Las reglas de aprendizaje
Los indicadores de error de la Red Neuronal.
Tercera etapa. Generalización de los reportes de salida para el pronóstico de las variables. Una vez que los indicadores son favorables para la Red Neuronal, es necesario verificar la bondad del pronóstico. Es posible que el modelo sea exitoso en la selección de los conjuntos de aprendizaje y de prueba, pero sea inadecuado en el proceso del pronóstico. Figura 5.
Las redes de Petri (PN, por sus siglas en ingles Petri Nets) representan una alternativa para modelar el comportamiento y la estructura de un sistema, y llevar el modelo a condiciones límite, que en un sistema real son difíciles de lograr o muy costosas. La teoría de PN ha llegado a ser reconocida como una metodología establecida en la literatura de la robótica para modelar los sistemas de manufactura flexibles, pero su empleo ha llegado hasta la modelación de sistemas de mercados, financieros, transporte, logísticos entre otros.
Las PN comparada con otros modelos de comportamiento dinámico gráficos, como los diagramas de las máquinas de estados finitos, ofrecen una forma de expresar procesos que requieren sincronía. Y quizás lo más importante es que las PN pueden ser analizadas de manera formal y obtener información del comportamiento dinámico del sistema modelado. Para modelar un sistema en una PN debemos reconocer las condiciones y los eventos que se dan en él, de esta manera podemos hacer la analogía entre el sistema y el modelo, al conocer las condiciones que se necesitan para dar cierto evento podemos diseñar los módulos y relacionarlos con otras condiciones, y para esto necesitamos saber la estructura de una PN para saber que corresponde a una condición y un evento en la red. La representación gráfica de una PN es importante porque al observar el modelo del sistema en forma gráfica y observar cómo cambia de un estado a otro puede mantener la atención y dar una perspectiva más clara a quién esté analizando el problema.
Definición: Una gráfica G de una PN P=(P,T,I,O) es una gráfica múltiple bipartita dirigida G=(V,A). Dónde V={ v1, v2, …, vn} es un conjunto de vértices y A={ a1, a2, …, an} es un conjunto de arcos dirigidos ai=(vj,vk) con vj, vk V, V=P T para cada ai A se cumple aj=(vj,vk) vj P, vk T, ó vj T, vk P.Más adelante se puede observar un ejemplo de representación de una red sencilla con tres estados y cuatro transiciones. Es importante comentar que a pesar de que las dos representaciones de la figura parecen distintas, las redes son equivalentes ya que los elementos son los mismos. Ver Figura 6 çde representación de una PN.
Las redes de Petri Lugar/Transición, también denominadas PT por su sigla en inglés, son las redes más estudiadas en la literatura y son las que más se aplican para modelar sistemas de la vida real.
Las PN permiten reducir el tiempo de ciclo de la producción, buscando los cuellos de botella, estaciones de trabajo verificando limitantes de tiempo. Las propiedades de las PN: por comportamiento (estado inicial) y estructural (topología o estructura de red), nos permitirán observar que el modelado del sistema cumpla con el comportamiento de un sistema esto es que sea asequible, acotable, conservable, alcanzable y persistente.
Revisando las múltiples técnicas de modelización existentes (Flowchart, Workflow, Role interaction diagrams, Integrated definition for function modelling-IDEF, Yourdon-DFD, Object Oriented, Structured Systems Analysis and Design Methodology-SSADM, Graph with Results and Activities Interrelated-GRAI, etc.), se selecciona la técnica de Redes de Petri para el presente estudio por sus características de robustez y flexibilidad (semántica y representaciones gráficas) como exponen algunos autores (Billington, 1997; Thiagarajan, 2000; Billington et al. 2003). Un elemento fundamental en las Redes de Petri es la posibilidad de análisis del comportamiento dinámico de los sistemas (procesos, tiempos, costes, etc.) que ofrece esta técnica, aspecto estudiado y explotado por Wang (1998); y Salimifard y Wright (2001), que permite una gran variedad de aplicaciones debido a su generalidad y adaptabilidad inherentes.
Las redes de Petri han sido utilizadas para modelar sistemas híbridos. En se hace una presentación tanto intuitiva como formal de las redes de Petri híbridas, es decir, de redes de Petri conteniendo una parte discreta y una continua, cuya aplicación permite el modelado de sistemas con eventos discretos y dinámicas de tiempo continuas. Para sistemas híbridos se ha modelado la parte discreta por una red de Petri mientras el aspecto continuo está descrito como un conjunto de ecuaciones algebraicas diferenciales. Este modelo puede ser visto como una extensión de un autómata híbrido. Las redes de Petri de alto nivel están caracterizadas por el uso detokens individuales estructurados, este modelo provee una representación gráfica simple de sistemas híbridos tomando ventaja de la estructura de las redes de Petri para ver una descripción compacta de los sistemas. Corroborado esto por lo expuesto por Borja Chois y Mejía Delgadillo (2004) cuando plantean relacionado a las redes PN lo siguiente:
Pueden modelar diferentes tipos de familias de procesos en un mismo modelo compacto gracias a su naturaleza coloreada
Permiten la asociación de tiempos estocásticos o determinísticos a sus transiciones gracias a su naturaleza temporal
Tienen en cuenta la perspectiva de recursos
Soportan el modelamiento de patrones avanzados con la ayuda de algunas extensiones como arcos inhibidores y ponderados, y transiciones tipo fuente
A modo de resumen se plantea que la simulación asistida por computadora presenta ciertas desventajas:
Los resultados numéricos obtenidos se basan en el conjunto específico de números aleatorios, cuyos valores corresponden a sólo uno de los resultados posibles Por tanto, los valores finales reportados en una simulación son sólo estimaciones de los valores reales que está buscando.
Cada simulación requiere su propio diseño especial para imitar el argumento real bajo investigación y su propio programa de computadora asociado. Aunque es posible aprender y usar paquetes de software especializados, el esfuerzo de desarrollo en el diseño y programación de simulaciones del mundo real es extremadamente tardado.
Siempre quedarán variables por fuera que, si hay mala suerte, pueden cambiar completamente los resultados en la vida real que la simulación no previó... en ingeniería se "minimizan riesgos, no se evitan".
Como resultado de estas desventajas, usted debería intentar resolver su problema usando técnicas analíticas siempre que sea posible. Hacer esto requiere menos esfuerzo y da como resultado respuestas exactas en vez de estimaciones.
No obstante, a pesar de las desventajas, la simulación es una de las que ofrece las siguientes ventajas:
La simulación le permite analizar grandes problemas complejos para los que no están disponibles resultados analíticos. De hecho, la mayoría de los problemas de mundo real encajan en esta categoría. La simulación proporciona una alternativa práctica.
Como con cualquier forma de simulación, la simulación por computadora permite que el tomador de decisiones experimente con muchas políticas y argumentos diferentes sin cambiar o experimentar realmente con el sistema existente real. Por ejemplo, con una simulación por computadora, usted puede estudiar el impacto de añadir una nueva estación de trabajo a una línea de producción sin tener que organizar la estación de trabajo físicamente.
La simulación por computadora le permite comprimir tiempo. Por ejemplo, usted puede estudiar el impacto a largo plazo de una política para un banco durante todo un año en una simulación por computadora que dura unos cuantos minutos. La alternativa de implantar realmente la política y observar sus resultados en un año tal vez no sea práctica.
Algunas técnicas analíticas requieren de experiencia matemática sofisticada, tanto para utilizarlas como para comprenderlas. Una simulación por computadora pueda requerir pocas o ningunas matemáticas complejas y por tanto, puede ser intuitivamente más comprensibles.
Las redes neuronales si bien ya han demostrado su eficacia en la solución de diversos problemas y el desarrollo de un gran número de aplicaciones, aún resulta necesario profundizar en la problemática de la data inicial Mosqueda R.(2010) que atenta contra la veracidad y factibilidad del resultado final. Pese a la superioridad de las RNA, ante modelos tradicionales, no las deja exentas de los problemas inherentes del pronóstico del fracaso empresarial, como la selección de la muestra de empresas, la identificación de las variables, la existencia de valores perdidos o extremos, y el de la data fiable y completa, todos estos no se eliminan por la mera utilización de redes neuronales, por lo que deben de ser igualmente abordados y considerados (Nasir, 1998, p. 2). Por ello resulta necesario obtener una data fiable y representativa del proceso productivo y financiero de una empresa con el fin de garantizar la generación de un buen modelo de predicción.
Los investigadores de la presente investigación plantean que para la captura u obtención de los datos productivos y financieros, se propone la simulación de un entorno empresarial, que considere de manera integrada los parámetros y restricciones que caracterizan el entorno tecnológico, flujo productivo, mercado, las normas de gestión y la definición de las variables o indicadores, ya sean de carácter objetivo o subjetivo, que permitan describir inequívocamente los diferentes estados financieros (solvencia o quiebra).
Tal simulación se realizará con el empleo de redes de Petri lo cual presupone la definición de:
Un conjunto de nodos.
Un conjunto de transiciones.
Una función de entrada.
Una función de salida.
Esto permitirá obtener una base de datos, que contendrá los valores de la salida de diferentes escenarios productivos evaluados con sus correspondientes estados financieros. Esta Data corresponde a diferentes estados de ejecución del sistema productivo, sin la influencia de parámetros que pueden perjudicar, falsear o alterar la misma, lo cual permitirá para la generación de la red neuronal artificial para la predicción de los estados financieros, sea de solvencia o quiebra, ver Figura 7. Esquema de la concepción general para la obtención de un modelo de predicción fiable de estados financieros.
La data inicial que ofrecen las empresas, por lo general, se encuentra alterada con datos falsos, lo cual manipula, tergiversa y complejiza el resultado final de una RNA.
La adecuada definición de las variables cuantitativas y cualitativas, asociadas a la empresa y a su micro y macro entorno permitirán en mejor medida la predicción del fracaso empresarial.
Las Redes de Petri son una alternativa de modelado de sistemas, aplicados principalmente hacia el control y proceso, por su facilidad de manejo en el problema de la sincronización de procesos.
La simulación de los ambientes empresariales con redes de Petri permitirá la obtención de la data confiable para la generación de modelos de predicción de estados financieros con redes neuronales artificiales.