lunes, 12 de junio de 2023

La escula Austria de economía y la pseudociencia de la praxología

 Una de las escuelas de pensamiento económica que se se ha puesto de moda entre muchos políticos, ideólogos y demás difamadores es la escuela austriaca de economía. Esta surge de los trabajos de Carl Menger (1840-1921), pero alcanza su máximo potencial (y posterior declive) con la obra de dos filósofos y economistas de origen austriaco, Ludwig von Mises (1881-1973) y Friedrich Hayek (1899-1992). Esta escuela de economía es una de la más inusuales y controvertidas de la Historia del pensamiento económico. Esto se debe principalmente por su crítica voraz al excesivo colectivismo y materialismo de la economía, planteando un nuevo paradigma epistemológico en el campo de la economía que se contrapone a la economía neoclásica, el keynesianismo, y sobre todo, al marxismo. 

Los trabajos de Menger representa el inicio de la trayectoria de esta tradición epistemológica-económica. Menger apunta, junto con la economía neoclásica, que los valores no son propiedades objetivas de los objetos, sino que son características subjetivas que construyen los individuos en función de sus deseos y necesidades, siendo el mercado aquel sistema racional que distribuye estos valores subjetivos en función de la oferta y la demanda. Esto supone un rechazo total a la teoría del valor-trabajo propia de la economía clásica, y por ende, a la marxista. Siendo que los valores de los bienes y servicios que se ofrecen y demanda en el mercado son subjetivos, no tiene sentido que el Estado intervenga en la economía. Esto se debe a que los factores subjetivos son demasiado numerosos y difíciles de medir que el Estado no pueden tener una información fiable para poder dirigir la economía con mayor racionalidad que el propio mercado. 

Desde este enfoque subjetivista y liberal respecto al Estado y la sociedad, Mises enfoca toda su obra en dos aspectos, la fundamentación de un nuevo paradigma epistemológico para la economía, la praxología, y la crítica de todo intervencionismo económico, en especial el socialismo, al que dedica extensos y voluminosos libros criticando todos sus puntos desde su propia metodología. 

La praxología, tal y como la entiende Mises y sus seguidores, es la ciencia formal que estudia la estructura lógica de las acciones humanas a partir de un enfoque axiomático y una metodología individualista. Mises rechaza aplicar a la economía el enfoque de las ciencias naturales. El objeto de la economía no es estudiar las causas y regularidades de grandes procesos sociales y económicos, sino dilucidar la estructura lógico-formal que regula las percepciones subjetivas de los individuos y sus relaciones de oferta y demanda bajo un régimen de mercado perfecto. Desde este individualismo metodológico, las relaciones de oferta y demanda surgen al combinarse todas las escalas de valores de personas. Para Mises, la sociedad es un mero proceso aditivos de todos los miembros que la componen. 

Un enfoque similar es el que planteó el premio Nobel de economía Gérard Debreu (1921-2004). Según este autor, un vez que su teoría del equilibrio económico queda axiomatizada, esta queda incluida como parte de la matemática y es indiferente por tanto a los datos empíricos. Debreu entiende la economía (más concretamente a la microeconomía) como un sistema matemático formal ajeno a las contingencias del devenir empírico. La economía estaría más emparentada con la geometría formal que con las estadísticas concretas. 

El mayor defensor de este marco conceptual es el economista y filósofo alemán Hans-Hermann Hoppe (1949). Hoppe es una gran apologista de la praxología austriaca, afirmando la superioridad metodológica de la ciencia económica frente a otras ciencias por basarse en categorías apriorísticas en referencia a la racionalidad subjetivista de los individuos en un régimen de mercado. Hopper argumenta a su vez que este enfoque metaeconómico, al basarse en el racionalismo kantiano y el formalismo apriorístico, tiene una mayor validez y fecundidad que la economía ortodoxa o tradicional. Esta última, según Hoppe, se basa en principios empíricos-positivistas, los cuales hacen que la economía tienda al relativismo y al historicismo.

A partir de este paradigma, la escuela austriaca argumenta que el comportamiento humano está determinado por una serie de principios apriorísticos universales, como la regla del máximo beneficio. Los seres humanos son individuos racionales que buscan siempre el máximo beneficio, siendo el mercado el único mecanismo social que puede garantizar dicho beneficio. La economía es por tanto una ciencia formal del comportamiento individual. 

Al definir al ser humano bajo estos parámetros, los economistas austriacos (más bien filósofos austriacos) abogan por la no intervención del Estado en materia económica, garantizando solo la seguridad y el respeto a la propiedad individual, el máximo derecho dentro de la moral de esta escuela. La intervención del Estado, desde este enfoque, siempre conlleva a la dictadura y a la socialización del pensamiento, la disolución la creatividad y el individualismo, y por tanto al totalitarismo. El socialismo ( y por tanto el comunismo) es quizás el mayor enemigo de esta escuela. Esta aversión hacia el socialismo llega a tal punto que Mises y Hayek llegaron a defender regímenes dictatoriales la Austria del Frente Nacional o el Chile de Pinochet para destruir todo movimiento socialista. 

A pesar de sus extravagancias y difusión, la escuela austriaca de economía representa una total pseudociencia a nivel metodológico, y una completa falsedad descarada a nivel político y moral. Es  cierto que la crítica a la teoría del valor trabajo tiene cierto fundamento, pues el tiempo de trabajo no es el mejor indicador para determinar el valor de un producto o servicio. Sin embargo, la praxología es insostenible a nivel epistemológico, de hecho representa un insulto a la psicología, la sociología, la historia e incluso al sentido común. 

La ciencia es la construcción de teorías matemáticas que representen relaciones entre variables del mundo real, utilizando por ello la observación y la experimentación racional. Reducir el comportamiento humano a una serie de principios apriorísticos abstractos y argüir que estos no se cumplen en la experiencia por la intervención del Estado, es cuanto menos una broma de mal gusto. Numerosas investigaciones en psicología y sociología ha demostrado que los individuos no siempre se guían por el máximo beneficio. Los seres humanos son seres sociales, individuos que cooperan entre sí para resolver problemas. 

El mercado real no se ajusta a los modelos abstractos de estos pensadores (ni tampoco a los de la economía neoclásica). En el mercado se producen grandes desequilibrios en la oferta y la demanda, la distribución de la riqueza o en la capacidad de acción, los cuales son el resultado de la conjunción de múltiples factores, como la distribución no homogénea de la información, la concentración de los medios de producción o factores socioculturales que modelan las relaciones económicas. 

 La intervención del Estado siempre ha sido necesaria para el mercado y la economía en general, pues el Estado es el principal proveedor de seguridad jurídica y personal, orden y promotor de infraestructuras necesarias para todo desarrollo industrial y económico. Desde el Estado se han impulsado el desarrollo de incontables avances científicos y tecnológicos que ha revolucionado el mercado en multitud de ocasiones (la energía nuclear es un buen ejemplo). Esto no quiere decir que el Estado deba suplantar por completo al mercado, pero si es cierto que el mercado necesita del Estado para existir. Al fin y al cabo, todas la economías desarrolladas son economías mixtas, pero siempre con ciertos grados.

martes, 21 de marzo de 2023

Milton Friedman y el monetarismo económico

 La crisis del keynesianismo ha sido (y sigue siendo) uno de los acontecimientos en la historia del pensamiento económico reciente. Antes de la crisis del petróleo de 1975, el keynesianismo era el paradigma hegemónico del pensamiento económico. Este surgió ante la insuficiencia de la economía neoclásica para abordar los desajustes y desequilibrios económicos y sociales que trajo el crack del 29 y la subsiguiente Gran Depresión (1929-1939). Durante este periodo, los diferentes Estados Occidentales implementaron amplios planes de planificación e intervención económica con el objetivo de garantizar la concordia social y evitar la proliferación de movimientos marxistas, fomentados por la entonces URSS (Barder, 1976). 

El keynesianismo proporcionó una base teórica y metodológica para la intervención económica del Estado con el objetivo de salvaguardar el capitalismo de sus propios desequilibrios. Por medio de grandes políticas de empleo y obras públicas, el Estado keynesiano pretende garantizar el pleno empleo y el consumo con el objetivo de expandir la economía y mantener la concordia social. Con estas políticas económicas, los diferentes países occidentales pudieron desarrollar lo que se denomina Estado de Bienestar, un modelo de Estado que, dentro de una economía de mercado, garantiza un cierto orden y progreso social mediante su intervención activa en dicho mercado (Barder, 1976) . 

No obstante, la persecución del pleno empleo, la expansión del consumo y el gasto social por parte del Estado conllevó a altos niveles de inflación en los países occidentales, fenómeno que se agravo considerablemente con la crisis del petróleo de 1975, niveles de inflación que no podrían ser moderados por medio de las políticas keynesianas. La inflación galopante, el creciente desempleo y el estancamiento económico (lo llamado por los economistas como estanflación), fueron fenómenos económicos muy fuertes que las políticas keynesianas no podían afrontar, ya que, tal como indicó el economista sueco Gunnar Myrdal (1898 - 1987) que el keynesianismo es una teoría incompleta, pues solo explicaba los fenómenos de deflación, y no los de inflación, que son lo que producen las propias políticas keynesianas (Galbraith 2011)

Ante el desajuste entre las perdiciones keynesianas y los fenómenos económicos reales, surge un nuevo enfoque de la mano de una serie de economistas estadounidenses, más concretamente la escuela de Chicago. Entre estos economistas, resalta la figura de Milton Friedman (1912-2006), el cual no fue un importante teórico en el campo de la economía y la política económica, sino que también tuvo una gran influencia en la política real de muchos países, en especial en Estados Unidos y el Reino Unido durante la década de los años 80 (Galbraith 2011)

La base de la filosofía económica de Friedman se base en un revitalizamiento del liberalismo económico y de la limitación radical de la intervención del Estado propia de la economía neoclásica y la escuela Austriaca de Ludwig von Mises (1881-1973) y Friedrich Hayek (1899-1992). Friedman, junto con los pensadores neoconservadores, como Francis Fukuyama (1952), propone que el Estado debe limitarse a la provisión de la seguridad colectiva frente al exterior, la preservación del orden y la ley, garantizando la propiedad privada y la seguridad jurídica. Es por ello que Friedman afirma que el Estado de Bienestar es inviable, pues supone que enormes gastos económicos y pervierte la libertad y la creatividad individual (del Pino Matute, Canosa et colaboradores, 2018) . 

Para garantizar el desarrollo y la libertad económica, Friedman propone el monetarismo. Según este enfoque, la intervención del Estado debe de limitarse a la política monetaria, a la intervención de los tiempos de interés y a la oferta monetaria por parte del Estado. Por medio de estas políticas, el Estado de Friedman garantiza una intervención mínima del Estado para garantizar la libertad económica y los mecanismos regulatorios del propio mercado. El mercado, según Friedman, es el mejor distribuidor de recursos, siendo el modelo ideal la competencia perfecta a la que debe aspirar el Estado (Friedman & Friedman 1993)

Friedman argumenta que aquellos Estados que han contribuido a la protección de la propiedad privada y a la desregularización del mercado han sido lo que han garantizado un mayor desarrollo económico, y por tanto el mayor desarrollo social sostenible a nivel económico. Friedman siempre ponía como ejemplo la economía de Singapur, país que siempre está en los puestos más altos en los rankings de libertad económica. Este ejemplo es bastante dudoso, pues Singapur instauró un gran plan de políticas públicas para garantizar su existencia tras su separación de la Federación Malaya.  Sin embargo, la obra de Friedman no solo se limita a la política económica, sino que hizo importantes aportaciones a la econometría y a la estadística inferencia (Friedman & Friedman 1993).

En el campo de la econometría, Friedman criticó los planteamientos de William Phillips (1914-1975) sobre la relación curvilínea negativa entre el desempleo y la inflación, lo que se conoce como curva de Phillips. Según esta relación matemática, una política económica encaminada a la estabilización de precios (una política monetaria restrictiva, por ejemplo), provocaría un crecimiento de las tasas de desempleo. Esta correlación negativa daba una justificación matemática a las políticas de pleno empleo, pues a pesar de que estas generasen inflación,  estas generan empleo (Bellod Redondo, 2007)

Friedman crítico estos planteamientos, llegando a firmar que estas asociación no era tan fuerte, llegando incluso a darse el fenómeno contrario, es decir, una relación curvilínea entre la inflación y el desempleo, de tal modo que paro e incremento de inflación estén ligados. Eso sucedió en las crisis del petróleo de los años 70, situación que la teoría keynesiana era incapaz de explicar (Bellod Redondo, 2007).

En base a estas relaciones entre el desempleo y la inflación, Friedman, junto con Edmund Strother Phelps (1933), propuso su famosa tasa natural de desempleo. Esta representa el índice de paro hipotético al que tendería una economía a largo plazo el desempleo se equilibra usando las reglas de la oferta y la demanda, y no de forma aleatoria, lo que permite predecir el punto de equilibrio de la tasa de desempleo en una economía.​ De esto se deduce que para reducir la tasa de paro a largo plazo solamente hay que aumentar la oferta de empleo. Es por ello que las políticas focalizadas a fomentar el empleo, si sobrepasa la tasa natural, generará inflación y a largo plazo estancamiento (Friedman & Friedman 1993)

En el campo de la estadística, Friedman desarrolló un modelo matemático no paramétrico equivalente a la prueba ANOVA para medidas repetidas. Esta prueba estadística permite comparar las diferencias estadísticas entre más de dos medidas repetidas con variables ordinales o cuantitativas que no cumplen los supuestos de normalidad u homocedasticidad.  Esta prueba debe complementarse con la prueba de comparaciones múltiples de Durbin-Conever (Richardson & Machan, 2021). 

Friedman fue unos de los pocos intelectuales que cumplió en vida el sueño de Platón, la de plasmar sus ideas en las políticas reales de su tiempo. Friedman fue un gran colaborador en los gobiernos neoconservadores de Ronald Reagan (1911-2004) y Margaret Thatcher (1925-2013) durante los años ochenta, además de influir en las políticas económicas del régimen de Augusto Pinochet (1915-2006). Sus resultados han sido calificados por muchos economistas como muy deficientes, ya que, a pesar de controlar la inflación y la estabilidad macroeconómica, provocaron el desmantelamiento de la estructura de Estado de Bienestar en Estados Unidos, pero sobre todo en el Reino Unido. Esto ha conllevado a una creciente desigualdad económica, afectando negativamente a la concordia social (Bellod Redondo, 2007)

Una de las principales críticas realizadas a los planteamientos de Friedman fue realizada por la escuela institucionismo económico, siendo uno de sus máximos representantes John K. Galbraith (1908-2006). Galbraith argumenta que la gran mayoría de economistas (incluido el propio Friedman) no han tenido en consideración factores sociológicos, políticos e incluso biológicos que influyen en los factores económicos. Las instituciones políticas y sociales son factores muy importantes que no han sido incorporadas a las teorías económicas. Friedman considera que los problemas sociales tales como la educación, la sanidad, el empleo o la participación política por medio de estrategias de mercado y competitividad privada, medidas que conllevan a unos desequilibrios sociales que pueden llegar a ser fatales, tal y como argumentaba Keynes (1883-1946), o incluso Alfred Marshall (1824-1924), paladín de la economía neoclásica (Galbraith 2011)

La competitividad perfecta de mercado y el Estado minimalista de Friedman son construcciones abstractas demasiada artificiales y simplistas como para representar fielmente la realidad socioeconómica de los países industrializados. Friedman, como la mayoría de economistas neoliberales, han olivado las sanas recomendaciones de Alfred Marshall, el cual defendía que la economía no debía perderse en las abstracciones matemáticas, sino que debe enfocarse al mundo real si quiere ser un verdadera ciencia empírica. 

Referencias Bibliográficas

Barder, W. (1976). Historia del pensamiento económico . Madrid: Alianza Editorial.

Bellod Redondo, J. F. (2007). La curva de Phillips y la crítica de Friedman. Contribuciones a la economía, (2007-12).

 Del Pino Matute, E., Canosa, M. Á. A., Calzada, I., Colino-Cámara, C., Pulido, J. M. D., León, M., ... & Humet, J. S. (2018). Los Estados de Bienestar en la encrucijada: Políticas sociales en perspectiva comparada. Madrid: Tecnos.

Friedman, M. (1983). La "General Theory" como estímulo para la investigación económica. En J. Keynes, Crítica de la economía clásica, recopilación de escritos sobre economía keynesiana (págs. 83-91). Madrid: Sarpe, Los Grandes Pensadores .

Friedman, M., & Friedman, R. (1993). Libertad de elegir. Barcelona: Planeta-Agostino, Obras Maestras del Pensamiento Contemporáneo .

Galbraith, J. (2011). Historia de la Economía. Barcelona: Ariel.

 Richardson , P., & Machan, L. (2021). Comparing multiple means for repeated measures designs (One-way ANOVA and Friedman´s ANOVA. En P. Richardson, & L. Machan, Jamovi for Psychologists (págs. 202-205). Dublin: Red Globe Press.

lunes, 28 de noviembre de 2022

¿Qué es la causalidad? La relación causa-efecto en la filosofía de la ciencia

Introducción

La causalidad es uno de los conceptos más importantes del conocimiento humano. Mediante este el ser humano puede establecer conexiones explicativas y predictivas entre hechos u otros conceptos. Por medio del concepto de causalidad es por el que se posibilita el conocimiento explicativo y predictivo que marca a la ciencia y la filosofía en general. Gracias a este concepto, el ser humano puede determinar que un hecho, cosa, estado de cosa o concepto está determinado jerárquicamente por otro hecho, cosa, estado de cosa o concepto. La causalidad, al menos en una primera aproximación, es el puente epistemológico que posibilita el conocimiento explicativo y predictivo (Diéguez 2020).

El primer pensador de relevancia en reflexionar sobre el concepto de causalidad fue Aristóteles (384-320 a.C). En sus libros Categorías y Metafísica, el filósofo griego expone lo que él establece como las diez formas de ser o formas de predicar. Establece los principios por el cual se puede decir que algo es algo, siendo el concepto de causalidad esencial para dicha tarea de sistematización de la estructura del conocimiento y el lenguaje. Para Aristóteles, la causalidad es una relación objetiva de los hechos de la experiencia. Según el filósofo griego, cuando se establece una relación causa-efecto entre el movimiento de un balón de futbol y la patada que le precede, dicha relación existe entre estos hechos de forma independiente al observador que registra dicha conexión. El movimiento de la pelota es explicado por la patada inmediatamente anterior. Si uno estudia el tipo de patada, su inclinación y empuje, las condiciones contextuales y las características de la pelota, puede predecirse cómo será el movimiento del balón tras la patada (Rovira, 2021).

Esta interpretación objetiva de la relación causal desde Aristóteles ha triunfado enormemente, no solo en el ámbito científico-filosófico, sino que el propio sentido común nos empuja a ella. Cuando examinamos que una piedra se calienta al dejarla un rato al sol, pensamos rápidamente que la causa del calor es la luz solar y que el calor de la piedra es un efecto de la incidencia de esta última. La causalidad, entendida como una relación objetiva, es la base de todas nuestras explicaciones y predicciones de la vida cotidiana, asumiendo su independencia ontológica del sujeto que la capta (Rovira, 2021).

En el campo de la epistemología, esta interpretación “fuerte” de la causalidad ha sido muy exitosa, pero no presenta una total hegemonía. Con la decadencia de la escolástica a finales de la Edad Media y el nacimiento de la ciencia moderna, el concepto de causalidad aristotélica fue cuestionado principalmente por el empirismo inglés, de la mano de George Berkeley (1685-1753), pero sobre todo por el genial David Hume (1711-1776). El ilustrado escoces, apodado “el verdugo de la metafísica”, cuestionó el estatus epistemológico y ontológico de la causalidad por medio de una interpretación radical del empirismo (Russell, 2005).

Hume expone en su Investigaciones sobre el conocimiento humano (1748) que, siendo la experiencia empírica la base del conocimiento humano, las relaciones causales entre hechos solo se establecen ante el registro repetido de la sucesión de un hecho tras otro. Esto quiere decir que lo que nosotros entendemos como relación causa-efecto, solo supone una generalización inductiva de la sucesión de varios hechos que se repite en el tiempo (Russell, 2005).

Al basarse la causalidad en la inducción, no puede afirmarse de forma rotunda, pues cabe la posibilidad de que un hecho futuro refute dicha generación para que esta última no sea válida. Para Hume, todo nuestro conocimiento, si no son verdades lógicas triviales, es de naturaleza probabilística y no universal. No hay ninguna evidencia de una concepción rígida de la causalidad en la experiencia, siendo que esta última es un mero instrumento conceptual que utilizamos para hacer posible un conocimiento pragmático del mundo, lo que el filósofo de la ciencia Imre Lakatos (1922-1974) llama convencionalismo (Lakatos, 1982).

El convencionalismo entiende que la causalidad que impera en las teorías científicas solo es una manera de ordenar la realidad con un cierto grado de probabilidad. Si dicho orden permite explicar y predecir la mayor cantidad de fenómenos posibles, la relación causal se acepta como verdadera por pura conveniencia, pero no se afirma ningún estatus objetivo de dicha relación (Lakatos, 1982).

Ante las críticas de Hume, la concepción objetiva de la causalidad fue progresivamente abandonada por los filósofos para formular otras perspectivas. Este es el caso del filósofo alemán Immanuel Kant (1724-1804). En su monumental obra Crítica a la Razón pura (1781), Kant entiende que la causalidad no es una categoría que expresa una relación objetiva entre objetos, sino que es una categoría trascendental que ordena jerárquicamente los fenómenos de la conciencia de forma universal. La causalidad kantiana pasa de ser una relación ontológica, a una relación gnoseológica entre fenómenos que son captados por la conciencia. La causalidad no es captada por el sujeto, sino que es construida (a partir de los datos de la experiencia y otras categorías) por el propio sujeto (Rovira, 2021).

La causalidad en la filosofía de la ciencia contemporánea 

Con el análisis trascendental de la causalidad por parte de Kant, fue repensada en multitud de formas por parte de los pensadores y científicos posteriores al filósofo de Königsberg. Para el positivismo y el neokantianismo, la causalidad es un concepto que regula las relaciones entre hechos, pero no supone ningún conocimiento ontológico de la realidad objetiva. Este es el punto de vista de respetados pensadores y científicos como Auguste Comte (1798-1857), Ernst Mach (1838-1916), Henri Poincaré (1854-1912), Bertrand Russell (1872-1970) o Rudolf Carnap (1891-1970) entre otros. Desde la óptica positivista, la causalidad se entiende como una relación probabilística entre hechos o estados de cosas con cierto grado de verosimilitud. Este punto de vista es compartido por la metodología científica actual, pero con serias modificaciones. El positivismo entiende que la causalidad es una relación probabilística que se acepta como verdadera por el grado de correspondencia con la evidencia empírica, es decir, la relación causal se estable si y solo sí la experiencia la verifica con un cierto grado de significación (Kolakowski, 1981). 

El propio Carnap intentó desarrollar lo que él llamaba "lógica inductiva". Es ta lógica inductiva pretendía establecer un método por el cual se pudiera cuantificar la probabilidad de verdad de las hipótesis científicas. Esta lógica inductiva se basa en prescindir en el principio del tercer excluido, siendo la verdad o falsedad de una proposición un gradiente que oscilo entre el 0 (falso) y el 1 (verdadero). Habrá proposiciones que sean más probables respecto a otras, proyecto revitalizado por científicos y filósofos neopositivistas como Hacking y Cartwright (Suárez, 2022).

 Esta naturaleza probabilística de la causalidad que persiste en las teorías y leyes científicas es explicada de forma clara por Carl Hempel (1905-1997) en su libro Filosofía de la Ciencia Natural (1966). Una relación causal es la relación explicativa y predictiva que se establece entre dos conjuntos de hechos con un determinado sustento empírico en forma de probabilidad. Cuando hablamos de relación o tendencia causal en ciencia, debe de entenderse desde un “concepto débil”, una relación explicativa y predictiva que se sustenta en la evidencia empírica con un cierto grado de probabilidad, la cual puede ser refutada en el futuro (Hempel, 1984).

La explicación científica según Hempel y Popper se basa en el modelo nomológico-deductivo. Este último afirma que la explicación de un hecho particular a partir de su causa se basa en la de subsumir el primero a un conjunto de leyes generales y condiciones específicas. Los hechos particulares solo pueden ser explicados a partir de leyes generales y universales, como la mecánica clásica o la termodinámica, expresadas y unas condiciones específicas que unen las leyes con los hechos particulares (Hempel, 1984).

Sin embargo, este modelo no se adapta bien a aquellas explicaciones en las que no se tengan leyes generales tan consolidadas (como es el caso de las ciencias sociales o la psicología). En esta caso, la explicación viene dada por la establecimiento de unas serie de leyes generalizadas por inducción, a la cual se le añaden unas condiciones iniciales específicas. Es así que esta explicación está marcada por un grado de probabilidad en función de la evidencia empírica favorable a las leyes que sustentan tal explicación. A este tipo de explicación se le conoce como modelo inductivo-estadístico (Suárez, 2022).

La causalidad probabilística y las leyes estocásticas también fueron tratadas por el brillante matemático ruso Andréi Kolmogorov (1903-1987). Este afirma que las leyes de la naturaleza más simples son aquellas que establecen las condiciones bajo las cuales algún suceso de ocurrirá o no ocurrirá, pero en ambos casos con certeza. Un suceso A, que bajo un sistema de condiciones S a veces ocurre o no, se denomina aleatorio respecto al sistema de condiciones (Kolmogorov, 1982).

Sin embargo, estos hechos no son arbitrarios, sino que responde a leyes estocásticas, la cuales son igualmente válidas que las leyes deterministas. Una ley de estocástica no es una inducción probablemente válida, sino una ley que, partiendo de una aleatoriedad inicial, establece que un hecho ocurrirá o no ocurrirá en una determinada proporción probabilística, siendo la verdad o falsedad de esta ley determinada si la proporción del hecho en una serie de condiciones ocurre o no ocurre realmente, algo que acerca al matemático ruso a las reflexiones de Mario Bunge(1919-2020)  (Kolmogorov, 1982; Bunge, 2015).

Sin embargo, la concepción lógica-probabilística de la causalidad ha sido ampliamente crítica por muchos autores. Bunge argumenta que la lógica inductiva es imposible, debido a que la probabilidad es una propiedad inherente a los eventos, no a las proposiciones. Una proposición es un enunciado que hacer referencia a un hecho o un conjunto de hechos que estén relacionados, es decir, los enunciados son verdaderos o falsos en función de si existen los hechos a los que hacen referencia. Un hecho o conjunto de hechos existe o no existe en la realidad, no existen con un "cierto grado de probabilidad". La probabilidad inductiva no puede fundamentar la causalidad (Bunge, 2015).

 A su vez, el filósofo y lógico W. Quine (1908-2000) critica la posibilidad de construir una lógica inductiva, ya que la anulación del principio del tercer excluido impide la formulación de las leyes o teoremas más básicos de la lógica simbólica, llegando a una serie de inconsistencias y contradicciones que traen más problemas que soluciones. De hecho, Quine argumenta que debemos de tomar un compromiso ontológico con todas aquellas conexiones causales y teorías científicas que demuestran su existo a la hora explicar y predecir los fenómenos de la experiencia empírica (Quine, 1977).

A pesar de la irreductibilidad de la causalidad a la probabilidad, Bunge entiende a esta última como algo objetivo. La probabilidad, y por ende las relaciones probabilísticas siguen leyes muy determinadas, siendo los fenómenos aleatorios explicados por todo tipo de teorías científicas. La causalidad probabilística no hace alusión la "posibilidad de verdad", sino a la naturaleza propia de las entidades y relaciones que estudia algunas ciencias como la mecánica cuántica, la ecología o la sociología. Una relación causal probabilística determina que la probabilidad de que ocurra un efecto está determinada por la probabilidad de su causa. La causalidad incorpora a la probabilidad, siendo esta última un caso especial de las leyes propias de la ciencia (Bunge, 2015).

Una concepción interesante sobre la causalidad probabilística es dada por Patrick Suppes (1922-2014). Según Suppes, y en general quienes tratan de la causalidad probabilista, no es preciso que el efecto siga invariablemente a la causa, sino que basta con que ésta incremente la probabilidad del efecto. Es decir, basta con que la probabilidad condicional del efecto, dada la causa, sea mayor que la mera probabilidad del efecto. C es causa de E si la P(E/C)>P(E). Por tanto, la idea de causalidad se identifica con la de relevancia estadística positiva: la causa es un factor positivo estadísticamente relevante para su efecto, y tal relevancia estadística se detecta empíricamente observando frecuencias relativas. Siendo así, el concepto de relevancia estadística vendría a ser un sustituto de la idea humana de conjunción constante sin que se abandone por ello el enfoque empirista. Esta concepción de la causalidad no es alternativa a la concepción tradicional (determinista) sino que la incluye como un caso límite. Se dará causalidad determinista (de condición suficiente) cuando la probabilidad de la causa, dado el efecto, es igual al: P(E/C) = 1 > P(E) (Álvarez, 1992).

Pero esta definición es aún incompleta: permitiría afirmar una relación causal entre efectos colaterales de una misma causa. Suppes establece una segunda condición para determinar una causa probabilística: que no haya un factor F tal que P(E/CF)=P(E/F). El hecho de que un C cumpla la condición (1) lo convierte, según Suppes, en causa prima facie, pero si no logra cumplir la condición (2) se revela como una causa espuria, bastarda. Por el contrario, un C que satisfaga las condiciones (1) y (2) sería una causa genuina (Álvarez, 1996).

La postura actual de la ciencia no se basa en el positivismo, sino no en el falsacionismo. Este último fue desarrollado por Karl Popper (1902-1994) y enriquecido por Lakatos y Hempel . La relación causal que establece una proposición científica no se acepta como probablemente verdadera por medio de su verificación, sino por la imposibilidad provisional de refutarla. Las teorías científicas no tienen que ser verificables, sino falsables, es decir, debe de poder idearse una manera de refutarlas en la experiencia. Si al diseñarse un experimento que pueda refutar dicha relación causal por medio de la experiencia,  se muestra que no se refuta, se acepta dicha relación como verdadera, pero siempre de forma provisional (Lakatos, 1982). 

Conclusiones

Desde la más moderna filosofía de la ciencia, el conocimiento científico viene determinado por la construcción de interacciones formales entre teorías y leyes, haciendo referencias estas a las interacciones materiales. Las inferencias teóricas se traducen en inferencias materiales que hace alusión a conexiones causales (tanto deterministas como probabilísticas), la cual se basa en el contraste con los datos empíricos (Suárez, 2022).

Este breve examen del concepto de causalidad en ciencia pretende mostrar el carácter probabilístico, pero sobre todo condicional del conocimiento científico. Cuando una teoría científica establece una conexión causal, la cual no es un mero constructo apriorístico (Kant) o una relación lógica-matemática (neopositivismo), sino una relación real y ontológica cognoscible por la ciencia. Las conexiones causales pueden ser tanto deterministas como probabilísticas, pero siempre son aproximadamente verdaderas, pudiendo ser refutadas por la experiencia empírica futura y/o la reconceptualización teórica ante la insuficiencia y crisis de un paradigma dominante.  

Referencias 

Álvarez, S. (1992). Notas sobre la causalidad probabilista. Universidad de Salamanca.

Bunge, M. (2017). A la caza de la realidad (1.a ed.). Gedisa Mexicana.

Diéguez, A. (2020). Filosofía de la ciencia: ciencia, racionalidad y realidad. Málaga: umaeditorial.

Hempel, C. G. (1998). Filosofía de la ciencia natural (17a reimpr ed.). Madrid: Alianza.

Kolakowski, L. (1981). La Filosofía positivista. Madrid: Cátedra.

Kolmogorov, A. (1982). Teoría de las probabilidades. En A. Aleksandrov, A. Kolmogorov, & M. Laurentiev, La matemática: su contenido, métodos y significado vol 2 (págs. 269-272). Madrid: Alianza Editorial.

Lakatos, I. (1982). Historia de la ciencia y sus reconstrucciones racionales. Madrid: Tecnos.

Rovira, R. (2021) Kant, crítico de Aristóteles. Madrid: Tecnos.

Russell, B. (2005) Historia de la Filosofía. Madrid: RBA Grandes obras de la Cultura.

Suárez, M. (2022). Filosofía de la Ciencia, Historia y Práctica . Tecnos: Madrid.

Quine, WV. (1977). Filosofía de la lógica .Alianza Editorial: Madrid. 

La escula Austria de economía y la pseudociencia de la praxología

 Una de las escuelas de pensamiento económica que se se ha puesto de moda entre muchos políticos, ideólogos y demás difamadores es la escuel...