x
Batalla Electoral 2024

La manipulación de las estadísticas

¨Si torturas lo suficiente a las estadísticas, éstas terminan confesando.¨

(Ronald Coase, Premio Nobel de Economía)

Son innumerables los chistes que se han hecho sobre las estadísticas. No es nuestro propósito recopilarlos aquí, sino destacar que esa inclinación a mirarlas con sospechosa incredulidad se deriva de la maleable naturaleza de los datos. El mismo conjunto de datos puede ser interpretado de mil maneras. Cada quien elige la que más le conviene. Todo dependerá del grado de tortura que se les aplique.

En economía, así como en otras disciplinas sociales, existe un gran número de variables que no son directamente observables, y para su medición se requiere, normalmente, de un complicado proceso que envuelve la aplicación de métodos econométricos y matemáticos que generalmente solo los especialistas pueden entender. Tal es el caso de variables como el producto interno bruto (PIB), la inflación, el producto potencial, la tasa natural de desempleo, y otras de similar hechura. En contraposición, las variables directamente observables son aquellas que son medibles sin necesidad de hacer transformaciones importantes a los datos originales.

Por ejemplo, las importaciones de bienes, como las petroleras o las de automóviles, se pueden ver y medir en las aduanas. O la producción de arroz, de habichuelas o de carne se puede medir en las respectivas unidades productoras. En estos casos no hay mayores dificultades.

El problema surge en los cálculos de las variables no observables directamente, pues toda medición estadística envuelve un margen de error que dependiendo de la integridad del investigador puede ser muy grande. Recientemente, dos de los economistas más reconocidos en la actualidad, Carmen Reinhart y Kenneth Rogoff, escribieron un trabajo titulado “Growth in time of Debt” (Crecimiento en tiempo de deuda) que fue publicado por la que podría considerarse la revista económica de más prestigio internacional, esto es, The American Economic Review (mayo, 2010). Ese trabajo sirvió de base para apuntalar las políticas de austeridad, tanto en Estados Unidos como en Europa. Sin embargo, la reputación de esos dos profesores de Harvard University quedó bajo cuestionamiento cuando un estudiante de doctorado en University of Massachusetts detectó varios errores en la hoja electrónica utilizada, a la vez que los acusó de hacer un uso selectivo de los datos para lograr resultados que avalaran su hipótesis de trabajo.

Thomas Herndon, así se llama el estudiante, se ha hecho famoso en el mundo académico por esos hallazgos. Los citados profesores han admitido los errores en la hoja electrónica, pero niegan que hayan sido selectivos en la utilización de los datos.

No vayan a pensar que se trata de un hecho aislado. Un grupo de econometristas (Anderson, Green, McCullough y Vinod) hicieron una investigación para la Reserva Federal de San Luis (2005) sobre el rol de los datos y de los códigos de los programas para el futuro de la investigación económica. La idea era tomar trabajos publicados en las revistas especializadas en
economía y determinar si era posible replicar sus resultados utilizando los mismos datos y los mismos códigos de programación. Los resultados fueron realmente decepcionantes. De una muestra de 201 artículos publicados en diversas revistas (journals) solo 25 pudieron ser replicados con los mismos resultados que originalmente fueron publicados. Es decir, solo un 12% de esos artículos fueron validados. Un desastre ético para la academia. Son muchas las razones para tal ocurrencia. Los académicos se sienten obligados a publicar para ascender en la pirámide de las universidades, pero con creciente frecuencia las revistas tienden a favorecer la publicar trabajos que arrojan una comprobación de la hipótesis inicial; aunque desde el punto de vista científico una investigación tiene el mismo valor, no importando si confirma o rechaza dicha hipótesis. Pero al final, sigue siendo un problema ético.

Si esto nos da una idea de la dimensión de la manipulación de las estadísticas en el mundo académico, imagínense lo que pudiera estar ocurriendo en el mundo de los intereses económicos y políticos. El mismo Banco Central Europeo (BCE) se vio envuelto en una controversia, hace algunos años, cuando su Jefe Económico fue acusado de falsear las estadísticas de la eurozona con el propósito de justificar una reducción de las tasas de interés. Igual pudiera mencionarse el caso de Grecia y todas las falsas estadísticas que suministró a los organismos internacionales. O la falta de credibilidad de los datos oficiales de China continental o Venezuela. Pero el record lo tiene el Instituto Nacional de Estadísticas y Censos (INDEC) de Argentina, quien tiene la responsabilidad de ofrecer las cifras oficiales de inflación, manipuladas de tal manera que estimaciones independientes la sitúan en un tercio de su valor real. No es de extrañar, por lo tanto, que The Economist no publique las cifras de inflación de Argentina, y en su lugar pone una nota que dice “información no confiable.”

¿Qué se puede hacer? La única respuesta es la transparencia. Bien entendida. Una gran cantidad de datos en manos de los usuarios no es sinónimo de transparencia. Por el contrario, pudieran estar llenos de opacidad. La transparencia se refiere a la apertura al escrutinio público de los procesos que generan las estadísticas. Las revistas económicas están obligando a los investigadores a entregar la data y los códigos de programación utilizados en sus investigaciones para que sea posible hacer replicaciones independientes. Esto debe ser válido para las estadísticas oficiales, en cualquier país, para que los usuarios tengan la oportunidad de sacar sus propias conclusiones. Esa debe ser la fundamentación de la credibilidad de las cifras.

Comenta con facebook