La zona gris según Francisco D’Agostino

Crear una startup es una de las cosas más apasionantes que alguien puede hacer en su vida… pero también una de las más complicadas opina Francisco D’Agostino. No sólo porque una gran mayoría cierran a los pocos años, sino porque, como los bebés, vienen sin manual de instrucciones… y claro, es difícil saber si el éxito está a la vuelta de la esquina o si estamos atascados en la “zona gris”.

Hoy me gustaría compartir con ustedes una idea en la que Francisco D’Agostino lleva algún tiempo dándole vueltas, y que llamó “la zona gris”. Aunque hay muchas metodologías que supuestamente explican los pasos que deberíamos dar para tener éxito en una startup, o al menos validar rápido si las hipótesis en las que nos basamos tienen sentido, nadie nos prepara para la realidad.

LO QUE CREEMOS QUE VA A PASAR

Es habitual que cuando uno crea su primer negocio, y tras algún tiempo trabajando en el producto, salimos al mercado esperando que suceda una de estas tres cosas:

  • ÉXITO (verde): Tras unos pocos meses de pruebas, el mercado acepta el producto con entusiasmo y nos convertimos en uno de esos animales míticos, los famosos “unicornios” .
  • REGULAR (naranja): Un tiempo de debacle y trabajo duro nos permitirán llegar finalmente al éxito que nos merecemos, dado lo mucho que hemos peleado por conseguirlo opina tambien Francisco D’Agostino.
  • FRACASO (rojo): Tras poco tiempo el mercado rechaza lo que hacemos y resulta claro que lo mejor es cerrar. Game over.

LO QUE REALMENTE SUELE PASAR

Sin embargo, la realidad es mucho más terca, y como es habitual pocas veces cumple lo que esperamos. Desgraciadamente lo que sucede a menudo no es eso, ya que:

  • Los unicornios son animales mitológicos, o por lo menos, estadísticamente irreales.
  • El mercado raramente tiene en cuenta “lo que nos hemos esforzado”.
  • Habitualmente somos los últimos en darnos cuenta de que hemos fracasado según la teoria de Francisco D’Agostino.

De todo lo anterior, realmente lo más grave es lo último… ya que implica que hemos dedicado meses o años de nuestra vida a algo que finalmente no ha tenido éxito (aunque siempre aprendamos, y la definición de éxito en una startup es algo muy personal).
La realidad a menudo se parece más a unas laaargas vacaciones en la “zona gris”:

¿CÓMO SABER SI ESTAMOS EN LA ZONA GRIS SEGÚN FRANCISCO D’AGOSTINO?

Realmente no sería tan difícil detectar que estamos en la “zona gris” si tomáramos perspectiva… algo por desgracia bastante complicado con esa nefasta cultura que impera hoy en día en las startups de “muévete rápido y rompe cosas”, o “descansar es para débiles” de la que ya hablamos hace algún tiempo. Algunos síntomas que te pueden ayudar a detectar que vives en la “zona gris” según Francisco D’Agostino:

  1. Siempre parece que el éxito está al girar la esquina… pero nunca acaba de llegar. En la próxima presentación. Al cerrar el siguiente acuerdo. Cuando alcancemos x.000.000 usuarios…etc.
  2. El mercado aún no ha “entendido” nuestra proposición de valor, estamos por delante de nuestro tiempo, habrá que “educar al mercado”…etc. (una de las frases que más miedo da a cualquier inversor, y con razón)
  3. El éxito no llega porque al producto le faltan las funcionalidades x o y, y son absolutamente imprescindibles. O porque aún no tenemos suficiente volumen de clientes… o porque introduce aquí tu excusa.

 

La discriminación salarial de las personas con discapacidad según Francisco D’Agostino

Posiblemente, el mayor problema laboral de las personas con discapacidad es el del propio acceso al mercado de trabajo opina Francisco D’Agostino. Las tasas de empleo del colectivo han sido y siguen siendo relativamente bajas en comparación con las del resto de población. La última encuesta especializada sobre discapacidad (realizada en 2008) mostraba que la tasa de empleo del colectivo de personas con discapacidad entre 16 y 64 años era del 23,7% para mujeres y 33,4 para hombres, mientras que para la población de esas edades sin discapacidad era del 56,6% para mujeres y 77,5 para hombres.

Además de estas grandes diferencias, los problemas laborales para las personas con discapacidad no acaban con la entrada en el mercado de trabajo, pues está documentada la existencia de importantes diferencias salariales. En el 2010, las ganancias de los hombres con discapacidad fueron un 83% de las ganancias de los hombres sin discapacidad y, en el caso de las mujeres, un 98% nos cuenta Francisco D’Agostino. Estos porcentajes se han ido reduciendo a lo largo del tiempo llegando a 79% y 85%, respectivamente.

¿Son estas diferencias discriminatorias? No necesariamente, puesto que personas con y sin discapacidad tienen características diferentes que influyen sobre los salarios. Por ejemplo, las personas con discapacidad tienen, en promedio, niveles educativos más bajos que el resto de la población. Por tanto, el primer reto consiste en deslindar qué parte de las diferencias salariales entre personas con y sin discapacidad se deben a distintas características y qué parte a que la discapacidad hace que se remuneren en una cuantía distinta esas características opina Francisco D’Agostino. Esta segunda parte sería lo que asociaríamos con discriminación, pues a personas con las mismas características se las estaría remunerando de manera diferente por el mero de tener o no una discapacidad.

Algo más de la mitad en las diferencias salariales observadas se atribuirían a diferencias en las características y el resto a tener o no alguna discapacidad. Estos resultados se refieren al caso de los hombres. Para el caso de las mujeres, hay que plantearse que podría existir un problema de doble discriminación, por género y por discapacidad dice Francisco D’Agostino. Los estudios vienen a mostrar que, de manera semejante a los hombres, aproximadamente la mitad de la diferencia salarial observada está relacionada con diferencias en las características; ahora bien, las diferencias en rendimientos de esas características se deberían sobre todo al género y, en menor medida, a la discapacidad.

Ahora bien, las bases de datos con que contamos para este tipo de trabajos suelen presentar problemas a la hora de deslindar la discapacidad de todos sus potenciales impactos sobre la productividad en el puesto de trabajo. Así pues, las diferencias antes mencionadas como atribuibles exclusivamente a la discapacidad deben considerarse como límites superiores de la discriminación salarial por discapacidad según Francisco D’Agostino.

Existen, no obstante, algunas bases de datos que, a través de una hábil combinación de preguntas, permiten realizar estudiar las diferencias salariales de un grupo muy particular: las personas con discapacidad que no están limitadas en las actividades de la vida diaria por esa discapacidad –bien por ser de un grado leve bien por estar “compensadas” por ayudas técnicas o personales. En este caso, como la discapacidad no afecta a las actividades de la vida diaria, si existiese una diferencia exclusivamente ligada a discapacidad será necesariamente discriminatoria pues la discapacidad no puede disminuir la productividad en el puesto de trabajo según Francisco D’Agostino. Pues bien, los resultados del análisis de este colectivo no muestran la existencia de discriminación por discapacidad, ni para hombres ni para mujeres. En el caso de las mujeres, se detecta discriminación, pero está exclusivamente relacionada con discriminación por género.

Un resultado adicional interesante es que cuando se analiza el grupo de mujeres con discapacidad que sí se ven limitadas en sus actividades de la vida diaria, hay una parte de las diferencias salariales que podría estar ligada a discriminación o a diferencias en productividad, pero, además, la discriminación por género es más grande cuanto mayor es el grado de severidad de la discapacidad.

En muchas ocasiones, se discute si la discriminación salarial por discapacidad es una de las razones principales de la baja participación laboral de las personas con discapacidad. Un menor salario (por discriminación) podría desincentivar la búsqueda de empleo al no obtener en el mercado de trabajo el rendimiento que una persona espera obtener dadas sus características. Los estudios muestran que este efecto existe, pero que su tamaño es bastante reducido. En España, la tasa de empleo de las mujeres con discapacidad es 1,5 puntos porcentuales menor debido a la discriminación por discapacidad y la de los hombres sin discapacidad 2,4. Por tanto, no cabe achacar a la discriminación salarial el ser el principal motivo por el que las personas con discapacidad tienen una baja tasa de empleo. Este resultado está en la línea de lo que también se da en otros países, como Estados Unidos opina Francisco D’Agostino.

Así pues, tenemos dos grupos de resultados interesantes para la política económica: por un lado, cuando somos capaces de deslindar de forma clara la discapacidad de su impacto en la productividad no encontramos discriminación salarial por discapacidad y, por otro lado, no puede achacarse a la potencial discriminación salarial por discapacidad la menor tasa de empleo (y la menor participación laboral) de las personas con discapacidad. Por tanto, la lucha contra la discriminación de las personas con discapacidad (en salarios, en acceso al empleo o en la dimensión que sea) debería acometerse como un valor en sí mismo, pero no porque la eliminación de la discriminación salarial vaya a solucionar sus problemas de integración y normalización laboral. Para conseguir que las personas con discapacidad obtengan salarios más altos es imprescindible alterar sus características, en especial su nivel educativo y, en general, su formación. Por lo que respecta a la doble discriminación, aunque existen tanto la discriminación por género como por discapacidad, la evidencia muestra que es la relacionada con el hecho de ser mujer la que predomina; por tanto, las mujeres con discapacidad deberían estar involucradas en las medidas de lucha contra la discriminación de las mujeres en general concluye Francisco D’Agostino.

Francisco D’Agostino: Cómo invierten los multimillonarios

Un multimillonario probablemente tenga una vida fácil en cuanto al cumplimiento de sus necesidades y deseos opina Francisco D’Agostino. Sin embargo, la buena gestión del patrimonio y los ahorros se convierten en una necesidad capital que entraña riesgos y dificultades. Las grandes fortunas invierten constantemente su dinero. Dejar estático el ahorro provoca una pérdida de poder adquisitivo ya que se vive en un contexto en el que la inflación es un mal necesario.

Entre los más ricos también hay diferencias en sus estrategias de inversión. Hay perfiles con más riesgo que otros. Obviando que hay que gastar menos de lo que se gana, los multimillonarios suelen invertir en renta variable (acciones) o en bienes inmuebles según Francisco D’Agostino. Los más conservadores, con un perfil de riesgo bajo, invierten en renta fija tratando de preservar el capital, aunque la rentabilidad sea menor.

Por ejemplo, Amancio Ortega tiene un patrimonio inmobiliario valorado en 8.520 millones de euros que va desde la Torre Cepsa de Madrid a propiedades en Miami o Londres. El dueño de Inditex, es la primera fortuna del país y esto no se debe simplemente a los dividendos que recibe al poseer el 59% del grupo textil, que el año pasado fueron 1.108 millones de euros.

Francisco D’Agostino nos cuenta que otras fortunas, como la de Alicia Koplowitz, es gestionada a través de una SICAV (Sociedad de Inversión de Capital Variable) la cual maneja un capital de 542 millones de euros. Por otro lado, Bill Gates, el fundador de Microsoft y hombre más rico según Forbes, tiene una cartera de inversión muy dispar, que va desde participaciones en empresas informáticas hasta negocios especializados en alfombras. Sin embargo, Gates es además un gran filántropo. Desde 1994 lleva donados más de 35.000 millones de dólares en efectivo y 700 millones de acciones de Microsoft.

Pero invertir implica riesgos y ese riesgo normalmente se traduce en pérdidas. El pasado año algunos “ultra ricos” perdieron dinero en sus inversiones. El empresario mexicano Carlos Slim, tuvo que despedirse de 2.900 millones de dólares, aunque esto sólo supuso un descenso del 5,6% de su fortuna. Asimismo, el dueño de H&M Stefan Persson reportó pérdidas por valor de 3.200 millones de dólares.

Amasar una fortuna parece un trabajo fácil si el origen viene de una gran herencia. Sin embargo, el 68% de las 400 personas más ricas, según Forbes, crearon su fortuna desde cero, es decir, sin ninguna herencia de por medio opina Francisco D’Agostino.

En el contexto europeo, en el último año el número de multimillonarios ha aumentado un 4,2%. En Europa, desde el año 2008, el número de millonarios se ha incrementado en un 50%, lo que pone de manifiesto que desde la crisis hay más pobres, pero también más ricos.

En el mundo de las finanzas se sabe que es necesario que las economías desarrolladas crezcan para ganar al invertir, pero también se hace necesario que otros pierdan dinero y en muchas ocasiones son los pequeños inversores los que más pérdidas soportan, en términos porcentuales, sobre su capital opina Francisco D’Agostino.

Cuál es la diferencia entre criptomoneda, moneda virtual y dinero digital según Franciso D’Agostino

Francisco D’Agostino La fiebre del Bitcoin está creando algunas confusiones en la terminología que se usa para referirse a estas monedas. A veces se llama a este tipo de divisa criptomonedas, otras veces moneda virtual y en ocasiones dinero digital. Sin embargo los tres términos no son intercambiables.

Esto puede generar confusiones bastante graves como cuando un medio aseguró que el Banco de Inglaterra estaba preparando una criptomoneda, cuando en realidad es una moneda virtual

Digital es (prácticamente) todo dice Francisco D’Agostino

El dinero digital es, en general, cualquier medio de intercambio monetario que se haga por un medio electrónico. Cuando se hace una transferencia de dinero desde una cuenta de un banco a otra, se está usando dinero digital. Cuando se paga con tarjeta en un comercio, también.

Es decir, cuando se realiza un pago o envío de dinero sin intercambiar físicamente monedas o billetes, se está usando dinero digital. Prácticamente todo el dinero del mundo es digital, ya que el efectivo solo representa aproximadamente el 8% del dinero en circulación según Francisco D’Agostino.

Por tanto cuando alguien se refiere a dinero digital debería estar hablando, simplemente, de dinero. El dinero del día a día es digital. La gran mayoría de los asalariados del mundo cobra y paga en dinero digital. El dinero digital es dinero.

Virtual, hay algunas

Ahora bien, a veces se habla de moneda virtual. El dinero virtual es aquel que no existe más que en su formato digital. Por ejemplo, en muchos videojuegos existe internamente una divisa con la que se pueden comprar objetos. Este dinero que se usa dentro del juego es virtual.

También puede existir dinero virtual que no sea protagonista de un videojuego, por ejemplo alguna divisa creada por empresas o aficionados que pretendía sustituir el dinero físico actual por una nueva moneda alejada del control de los bancos centrales. Un ejemplo podría ser E-gold, que acabo cerrando por porblemas legales.

Por definición, las monedas virtuales son todas digitales. Como no existen físicamente, no hay papel moneda de las mismas, tienen que ser 100% digitales. Por tanto todas las monedas virtuales son digitales, pero no todas las digitales son virtuales nos cuenta Francisco D’Agostino (un ejemplo es una cuenta bancaria en euros, es digital pero no virtual).

Criptomonedas, un subgrupo de las anteriores

El dinero digital y virtual llevan décadas entre nosotros, pero las criptomonedas son más recientes. Las criptomonedas, como Bitcoin, son un tipo de moneda virtual que no tienen un emisor concreto, que están protegidas por criptografía y que en principio su coherencia puede estar protegida por una comprobación de sus usuarios masiva y distribuida.

Por tanto, las criptomonedas son dinero virtual y digital. Pero al contrario que otras monedas virtuales, no tienen un control centralizado, sino que está distribuido y basado en criptografía para evitar la manipulación de alguno de sus miembros.

Se puede concluir con que todas criptomonedas son moneda virtual y dinero digital, pero no viceversa. Cuando se habla de dinero digital se puede estar hablando de cualquier divisa del mundo (el euro y el dólar también), y cuando se habla de moneda virtual puede que no se trate de una criptomoneda, sino una moneda con un emisor concreto según Francisco D’Agostino. 

Empleo industrial: Su tendencia de largo plazo

En colaboración con Martin Caruso (UNLP)

En el debate público en Argentina –y también en muchos otros países‒ se suele afirmar que, si no crece el empleo manufacturero, esto es, el empleo industrial, no habrá empleo para todos los trabajadores. Incluso a veces se afirma que la industria debería ser la fuente primaria de empleo para amplios sectores de la población. ¿Es esto cierto? ¿Qué dicen los datos?

La evidencia sobre la evolución de la composición del empleo argentino está lejos de confirmar esta visión. El gráfico 1, elaborado en base a datos del Centro de Crecimiento y Desarrollo de la Universidad de Groningen (Groningen Growth and Development Centre), muestra la composición por sectores del empleo argentino entre 1950 y 2011, el período más largo disponible. El gráfico muestra que el empleo manufacturero alcanzo un pico de 27% del empleo total en la década del ‘60 para luego caer de manera suave, pero sin pausa hasta el fin de la serie. A lo largo de todo el periodo, el sector manufacturero está lejos de haber sido la principal fuente de empleo. Esto se ve claramente en el gráfico, que muestra que el sector de servicios ha sido la principal fuente de empleo de los trabajadores argentinos.

Gráfico 1:

Sin embargo, aquellos que consideran que la evidencia para argentina es el resultado del fracaso del modelo de sustitución de importaciones en el país, también descubrirán que están equivocados con solo inspeccionar los datos de otros países. El gráfico 2 muestra que los países desarrollados han atravesado un proceso muy parecido al observado en Argentina. De hecho, el pico de empleo manufacturero argentino es similar al de Estados Unidos (25%), Francia (25%), Holanda (26%), Italia (28%) y el Reino Unido (32%). Nuevamente, vemos que la principal fuente de empleo en los países desarrollados es el sector servicios.

Gráfico 2:

La dominancia del sector servicios es una regularidad empírica notable. Los países en desarrollo tampoco escapan a estas tendencias, e incluso en muchos países pobres el sector servicios es la principal fuente de empleo. A continuación, el gráfico 3 muestra la evolución del empleo en Corea del Sur. El caso de este país es muy ilustrativo, pues en los 50 años que van desde 1960 hasta 2010 pasó de ser un país pobre y primario a ser un país rico. Aun siendo considerado por muchos como un caso paradigmático de industrialización exitosa, vemos que el empleo manufacturero alcanza un pico de 28%, no muy distinto al de Argentina o los países desarrollados, para luego también caer suavemente.

Gráfico 3:

Incluso aquellos países que fueron los mayores receptores de producción industrial no lograron romper este patrón. El empleo en países como Taiwán, China o Singapur se da predominantemente en los servicios. De hecho, con los avances en la automatización, es posible que el declive del empleo en el sector manufacturero se acelere incluso en estos países.

¿Cómo podemos explicar este fenómeno?

En principio, en una sociedad de subsistencia, tanto el empleo como la producción están concentrados en el sector primario. A medida que la tecnología y la riqueza avanzan, se generan excedentes que pueden ser volcados nuevamente al sector primario o hacia otro sector. A medida que la sociedad se va volviendo más rica, la demanda por bienes manufacturados aumenta y este sector capta los excedentes de mano de obra liberados por el sector primario (a menos que se especialice completamente e importe la totalidad de los bienes manufactureros). En la medida que la sociedad continúa desarrollándose, se desarrolla una demanda por servicios, los cuales crecen en difusión y sofisticación con la riqueza de la sociedad (Dabus et al., 2008). Ese crecimiento de la riqueza que lleva a la demanda difundida de servicios además es causado por un fuerte aumento en la productividad de los factores productivos, principalmente concentrada en los sectores primario y manufacturero. Así, el empleo en estos sectores disminuye y los servicios se vuelven la principal fuente de empleo. Esta narrativa es consistente con la tendencia a largo plazo experimentadas por el empleo en los países más desarrollados.

Mirando el futuro

Esta discusión nos alerta del peligro de intentar ir contra de esta marcada tendencia de largo plazo en Argentina. Si bien la competencia internacional de nuestro sector manufacturo es factible en muchos sectores si estos logran producir bienes diferenciados y de calidad, ello no es el caso en los sectores intensivos en trabajo no calificado. Por otro lado, la subvención de estas actividades con el único fin de mantener el empleo genera grandes distorsiones que redundan en una asignación sub-óptima de trabajadores, reducen la riqueza agregada e induce esfuerzos innecesarios en la búsqueda de rentas. Mirando hacia adelante, una mejora sustancial en nuestro capital humano, y una integración estratégica al mundo, son una mejor receta que un sistema de protección industrial artificial, en pos de lograr una mayor calidad de vida de los trabajadores. Para maximizar el empleo en el sector servicios, se necesita aumentar la riqueza y que esta se encuentre mejor distribuida de forma sostenible.

 

Referencia:

 

Dabus, C.; S. Galiani, D. Heymann y F. Thome (2008): On the emergence of public education in land rich economies. Journal of Development Economics.

 

 

***

Nota del editor: Sebastian Galiani es Secretario de Política Económica de la Nación Argentina.

 

 

 

América Latina: distintas estrategias respecto del gasto público

Una de las características sobresalientes de la política económica de Argentina en los últimos 15 años fue el crecimiento del gasto público que, dependiendo del período que se considere, fue de alrededor de quince puntos del producto. El aumento observado entre 1996-98 y 2014-15, supera al promedio regional y al de la mayoría de los países de América del Sur, México, Costa Rica y Nicaragua. Las excepciones son Bolivia, Ecuador y Venezuela, donde el aumento del gasto fue similar o mayor que en Argentina.

Los gobiernos de estos países, junto con el de Argentina y Nicaragua, han sido caracterizados, desde el punto de vista político, como populistas. Esa definición facilita la exposición, aunque no desconocemos los problemas de la flexibilidad polisémica de ese término.[1]

Es interesante observar que aún dentro del conjunto de países definidos como populistas, se registraron importantes diferencias. En tal sentido, vale destacar que en Nicaragua el gasto se mantuvo básicamente constante en términos del producto. Un factor fundamental para explicar ese comportamiento dispar es el contraste entre los grandes aumentos de los términos de intercambio de algunas economías –liderado por el 400% de mejora, respecto a 1996-98, registrado en Venezuela– y el deterioro sufrido por Nicaragua. Ese retroceso de los términos del intercambio fue parcialmente compensado por la ayuda venezolana, que consistió en el financiamiento subsidiado de las compras de petróleo.

La evolución de los términos del intercambio tiene un efecto directo sobre las cuentas fiscales en la medida en que existan ingresos que, a través de distintas fuentes, estén relacionados de forma directa con los precios de exportación. Al respecto, cabe destacar que mientras que este tipo de ingresos superaron durante varios años el 10% del producto en Bolivia, Ecuador y Venezuela, solo alcanzaron un nivel de alrededor de 2% en Argentina. La diferencia se debe a que la mejora de los precios de exportación fue menor que en aquellas naciones y al hecho de que en esos países –y a diferencia de lo que ocurre en Argentina– el principal bien de exportación es producido por una empresa estatal, lo que hace que el efecto de un aumento de precios sea más fácilmente capturado por el fisco. En Argentina, solo una fracción de la mejora de los precios internacionales fue alcanzada por los impuestos a la exportación, y en menor medida por el impuesto a las ganancias, y el aumento del gasto fue solventado básicamente por otras fuentes: nuevos impuestos o aquellos ya existentes y cuya recaudación se expandió de la mano de un mayor crecimiento.

Es interesante destacar aquí que otros países con grandes mejoras en los términos del intercambio, iguales o superiores a las de Bolivia y Ecuador, como ser Chile, Perú y Colombia, si bien tuvieron también un aumento del gasto, este nunca fue superior a cuatro puntos del producto. Se podría decir entonces que aunque el aumento de los precios de exportación supone una tentación para incrementar el gasto público, es posible resistirse, al menos parcialmente,  a ella y transformar parte de esta mejora en ahorro, tal como lo muestran los tres países recién señalados.

En años recientes, la reversión del proceso de crecimiento de los precios de exportación latinoamericanos, pilar sobre el que se había apoyado la estrategia de incremento del gasto público de los países populistas, puso en evidencia el problema estructural de esa política: es difícil imaginar que ese nivel de gasto sea sostenible en el mediano y largo plazo. En primer lugar, porque es muy improbable que la región vuelva a tener los precios de exportación de la década pasada; en segundo lugar, porque el relativamente bajo nivel de ingreso por habitante y el elevado nivel de informalidad comparado con países de similares niveles de gasto público hace difícil financiarlo con impuestos al sector privado “formalizado”. [2]  Vale agregar que la calidad de las prestaciones públicas –salud, educación y seguridad– en los países analizados está por debajo de la que ofrecen otras naciones con similar presión impositiva, lo que lleva a buena parte de ese sector privado formal a contratar esas prestaciones de manera privada, “duplicando” la carga que soportan por estos conceptos.

Por eso es interesante observar cómo esos gobiernos reaccionaron ante el cambio en el escenario internacional. En un primer momento, entre 2011-12 y 2014, Argentina y Ecuador aumentaron el gasto público en 3 puntos del producto y Bolivia y Venezuela en 7 puntos.

Se podría argumentar que esas políticas eran contracíclicas, pero ello solo sería válido si se esperara una recuperación de los precios internacionales. Si ese no fuera el caso, como ya se podía prever en ese entonces, lo prudente habría sido reducir de forma gradual el gasto, y mientras esa reducción se completaba, disminuir el ahorro acumulado –el único país que había ahorrado, mediante el aumento de las reservas internacionales, era Bolivia– o aprovechar la disminución del endeudamiento de los años previos y financiarse en los mercados internacionales. Pero lo cierto es que se aplicaron inicialmente políticas expansivas y conforme se fue evidenciando que éstas no eran sostenibles, comenzaron a notarse ciertos cambios. Ecuador, sin acceso al financiamiento internacional, disminuyó el gasto público en 6% del producto entre 2014 y 2016, una decisión facilitada desde el punto de vista político por el alto nivel del gasto fiscal en infraestructura, que se redujo desde un 14% del producto a alrededor de 9%. Argentina y Bolivia siguieron aumentando el nivel de gasto en 2015, pero mientras en Argentina se mantuvo esencialmente constante en 2016, Bolivia lo redujo ese año en 6% del producto. El cambio de política en Bolivia se explica porque el nivel de reservas internacionales que alcanzaba a 51% del producto en 2012 –el mayor nivel de América Latina– se había reducido a 40% en 2015 y llegaría a 32% del producto a fines de 2016. Es decir, el crecimiento fue financiado con una fuerte disminución de las reservas acumuladas en los años de bonanza, pero, como la pérdida de reservas tenía un límite, a partir de 2016 se bajó abruptamente el gasto y se buscó financiamiento en los mercados internacionales. Venezuela, habiendo fallado en adoptar políticas “racionales”, comenzó a “resolver” el excesivo nivel de gasto a través de la hiperinflación, un camino transitado en diversas oportunidades por países de la región. En 2016 el nivel de gasto habría sido inferior al 30% del producto.

Un breve comentario sobre Brasil. El gasto público de ese país por décadas había sido el más elevado de América Latina, hasta que hacia 2011 fue superado por los cuatro países antes mencionados. Una característica del gasto de Brasil es que permaneció sin grandes variaciones en relación con el producto en el decenio previo a 2014, y solo se incrementó en los dos últimos años como consecuencia de la caída acumulada de 7,5% del producto en 2015-16. Esto no significa minimizar los problemas fiscales de Brasil –el país con el mayor nivel de deuda de América Latina– sino diferenciarlos de las políticas públicas que en los últimos años llevaron a ese resultado en otros países de la región. Enfrentado a un nivel del gasto cercano a 40% del producto, la reacción del gobierno brasileño fue intentar un ajuste gradual mediante reformas estructurales, que incluyen el régimen de pensiones y congelar por 20 años el nivel del gasto en términos reales.[3] Sin embargo, cabe señalar que la capacidad de avanzar en este programa está seriamente limitada por la inestabilidad política.

En síntesis, un nivel de gasto público de 40% del producto es, como fue mencionado, insostenible para los países de la región en las actuales circunstancias. Por ello, con tiempos distintos algunos de ellos reaccionaron disminuyendo el nivel gasto en los últimos años –Ecuador y Bolivia– aunque todavía es difícil saber si, en un contexto en el que no cabe esperar una mejora relevante en precio del petróleo y el gas, el nivel actual del gasto en esos países es financiable en el mediano plazo. En Brasil y Argentina se ha optado por un camino distinto. Dado el bajo nivel del gasto en infraestructura, una disminución abrupta del gasto público requería recortes en áreas políticamente sensibles, y ello es mucho más complicado desde la óptica política que en los otros países que hemos analizado. Por ello, la decisión ha sido bajar el peso del gasto aumentando el denominador –el producto– y manteniendo constante en términos reales el numerador –el gasto real–. Tarea difícil, porque para que tenga un impacto significativo, debe sostenerse varios años. En nuestra opinión es la mejor alternativa dadas las restricciones económicas, sociales y políticas que, por distintos motivos,  enfrentan los gobiernos de ambos países, pero ello no significa que no haya costos y riesgos asociados. Vale destacar que en lo que respecta a esta estrategia de baja gradual del gasto en términos del producto, Argentina tiene una ventaja en relación con Brasil: el nivel de endeudamiento es mucho menor[4].

Tres comentarios finales con referencia al caso argentino. En primer lugar, el hecho de que al menos el 40% del gasto está indexado a la inflación pasada implica que en un contexto de inflación decreciente se requiere que el 60% restante se reduzca en términos reales. Esto de por sí resulta difícil, pero se complica aún más considerando los reclamos judiciales de las provincias por una supuesta inadecuada distribución de la coparticipación durante los últimos años. En segundo lugar, dado el nivel del déficit fiscal, la estrategia adoptada reduce de forma sensible la posibilidad de mejorar la competitividad mediante la baja de impuestos distorsivos, lo que implica una carga adicional sobre el tipo de cambio real. El gradualismo fiscal y una estrategia más de shock en lo monetario, mediante las metas de inflación, tiende a generar una apreciación real del peso. La consecuencia de la apreciación junto con la dificultad para eliminar impuestos distorsivos, es que un factor que podría tener importancia en el crecimiento del producto, como es el aumento de las exportaciones de bienes y servicios, parece  casi descartado. Asimismo, si la economía crece por otros factores la consecuencia sería un incremento de las importaciones y un consecuente aumento del déficit en cuenta corriente. Por último, debe señalarse que mantener una estrategia como la mencionada respecto de nivel de gasto durante un tiempo prolongado, en una situación de minoría en el Congreso, demanda de ciertos acuerdos sociales y especialmente políticos, área en la que no parece haber una estrategia acorde con ese requerimiento.

 

 

[1] Este análisis lo realizamos en el “Populismos latinoamericanos a comienzos del siglo XXI: una caracterización económica” (en prensa). Allí también se discute la elección del período 1996-98, un periodo de relativa normalidad en la región, como base del análisis.

[2] Por ejemplo, Irlanda, España y Holanda tienen un nivel de gasto público de 30%, 44% y 45% del producto respectivamente.

[3] Las cifras del gasto incorporan la mitad de los intereses nominales, del orden el 8% del producto, dado que considerando la relativamente elevada tasa de inflación –y el hecho de que buena parte de la deuda es en moneda local– esa sería una razonable aproximación a la tasa de interés real. Por eso el nivel de gasto de Brasil es en nuestros gráficos menor al 40% del producto, cuando la cifra usual es algo superior a ese valor.

[4] Por otra parte, en los dos países el déficit fiscal es similar aunque el déficit primario es menor en Brasil.

Medición Económica del Bienestar (y el control de los alquileres)

Como señalé en esta entrada previa, el supuesto de que los individuos son racionales permite la medición, al menos aproximada, de la ganancia o  pérdida que experimenta un (grupo de) individuo(s) ante una nueva situación. En esta entrada, desarrollaré esta importante cuestión.

Hacia una medida operativa del bienestar

El panel izquierdo de la Figura 1 muestra una típica demanda de mercado de un bien con pendiente negativa. Partamos desde un punto como d0. Este punto nos indica que los consumidores están dispuestos a comprar Q0 unidades al precio P0. Esto implica que si el precio fuera apenas superior a P0, los consumidores considerarían que este precio es demasiado alto para comprar Q0 unidades y comprarían una cantidad menor. Por el contrario, si el precio fuera apenas inferior a P0, los consumidores querrían comprar más unidades de este bien. Esto implica que P0 refleja la valuación que tienen los consumidores por la unidad Q0. Ahora bien, este razonamiento no es exclusivo del punto d0. Por ejemplo, si tomamos el punto d1, repitiendo la misma lógica, concluiríamos que los consumidores valúan la unidad Q1 en P1. Es más, podríamos repetir el ejercicio muchísimas veces y siempre llegaríamos a la conclusión de que la curva de demanda nos informa la valoración de los consumidores para cada cantidad del bien. Esto implica que si el consumo fuera de Q* unidades, por ejemplo, la valoración total que tienen los consumidores por ese consumo corresponde al área coloreada en amarillo.

Ahora bien, nada es gratis. Consideremos el panel derecho. Si el producto tiene un precio de P*, los consumidores comprarán Q* unidades. La valoración total de estas unidades está dada por la suma del área verde y marrón. El área marrón representa el gasto que los consumidores deben hacer para comprar esas unidades, mientras que el área verde representa el beneficio que los consumidores obtienen de la compra del mismo por encima de dicho gasto. Entonces, el área verde mide lo que los consumidores ganan por participar de este mercado y se la denomina “excedente del consumidor”.

Figura 1

Podemos hacer el razonamiento análogo para el caso de un productor. Supongamos un entorno competitivo, y tomemos la curva de oferta que se muestra en la Figura 2. La misma refleja el costo marginal para los productores de ofrecer cada cantidad del bien. Por ende, el área debajo de la curva hasta una cantidad dada refleja los costos de producir esa cantidad. Nuevamente, si los productores venden Q* unidades al precio P*, incurrirán en un costo representado por el área anaranjada, mientras que sus ingresos superarán a los costos en el área color verde. Esta última magnitud la denominamos “excedente del productor”. También puede interpretarse como el beneficio de las empresas, aunque ambas medidas difieren si existiesen costos fijos.

Figura 2

Si bien la medición de estos excedentes, asociados a un determinado equilibrio no son informativos per se, podemos evaluar su cambio en función de variaciones que afectan el equilibrio de mercado. A continuación, explicaré esto utilizando un ejemplo canónico de la literatura económica.

El control de los alquileres

El control de los alquileres es un ejemplo clásico sobre la interferencia en el funcionamiento de los mercados y tiene numerosos antecedentes históricos. Supongamos que partimos de una situación como la que muestra la Figura 3. Esta describe una curva demanda inicial, D1, y dos curvas de oferta, una de corto plazo (Ocp) y otra de mediano plazo (Olp). La diferencia entre las curvas de corto y mediano plazo se debe a que a corto plazo es más difícil que a mediano plazo variar las cantidades ofrecidas en respuesta a cambios en el precio. En el caso de la figura, suponemos que la oferta a corto plazo está fija (y por ello corresponde una línea vertical). A mediano plazo, la oferta tiene pendiente positiva, indicando que los desarrolladores inmobiliarios reaccionarán a aumentos de precios produciendo más viviendas. En la figura vemos que el mercado está en equilibrio; en el cual se alquilan Q0 viviendas a un precio de alquiler de P0.

Figura 3

Supongamos ahora que la curva de demanda aumenta (no es central para nuestro argumento de equilibrio parcial entender por qué ocurre ello, aunque podría serlo en un análisis de equilibrio general), desplazándose desde D1 hasta D2. Como vemos en la figura, el ajuste de corto plazo recae íntegramente sobre el precio: dado que el número de viviendas está fijo, el equilibrio de corto plazo se alcanza vía un aumento en el precio de los alquileres desde P0 hasta P1. Los desarrolladores inmobiliarios verán que, a mayores precios, es rentable construir viviendas para alquiler y emprenderán ese tipo de proyectos. El nuevo equilibrio se alcanza en el nivel de viviendas Q* y al precio de alquiler P*.

Ahora, supongamos que algún legislador bien intencionado se preocupa por el aumento inicial en el valor de los alquileres. Piensa que, después de todo, ello beneficia a los propietarios a costa de los inquilinos, donde los primeros probablemente tengan mayores ingresos que los segundos. Para remediar esta situación, propone fijar por ley un precio de alquiler máximo de P0, evitando el aumento de los mismos.

En primera instancia, uno podría argumentar que hacer cumplir esta ley es extremadamente difícil o extremadamente costoso, dado que requiere controlar un mercado altamente atomizado de propietarios e inquilinos. No obstante, vamos a suponer que la ley puede hacerse cumplir y estudiaremos sus efectos. La Figura 4 muestra sus efectos de corto plazo. El panel izquierdo describe qué es lo que ocurre cuando el precio no sube (se ejerce la norma) y el derecho si no se interfiere con el funcionamiento del mercado. El color amarillo muestra el excedente del consumidor, mientras que el marrón muestra el excedente del consumidor.

Figura 4

Vemos claramente que la disyuntiva distributiva que explicábamos anteriormente es cierta en el corto plazo: Si no se regula el precio de alquiler, el excedente del consumidor (inquilinos) es menor, y el del productor (propietarios) mayor. Si se lo hace, estos últimos le transfieren parte de su bienestar a los primeros. En este caso, dado que la curva de oferta es inelástica, esta transferencia no implica perdidas agregadas de bienestar. Ello no siempre es así.

Este ejemplo ilustra claramente el valor analítico que tiene poder medir el bienestar de los distintos grupos de agentes económicos. Podemos comparar las ganancias y pérdidas que enfrenta cada (grupo de) agente(s) ante distintas intervenciones o cambios de determinantes exógenos.

Veamos ahora qué es lo que pasa en el mediano plazo (Figura 5). Nuevamente, el panel izquierdo muestra la situación bajo el control de alquileres mientras que el panel derecho muestra el caso donde estos no se regulan. Cuando se controlan los alquileres, la oferta de viviendas no crece. Esto se debe a que los propietarios no perciben ningún beneficio adicional del aumento de la demanda, y por tanto no tienen incentivos para desarrollar nuevas viviendas para alquiler. La intervención sobre el precio de alquiler anula la señal de mercado que los precios transmiten para asignar los recursos escasos.

Figura 5

Si no se regula el precio de alquiler, en el mediano plazo, vemos que se genera un nuevo excedente que se reparte entre los consumidores y los productores. Este excedente adicional se mide por el área marcada como Ganancia de Bienestar en el panel derecho de la Figura 5 y se debe a que, al nuevo precio de alquiler de equilibrio, hay más viviendas alquiladas, las cuales generan tanto un excedente a los consumidores como a los productores. Este bienestar adicional crece con el tamaño de la distorsión que se remueve y podría llegar a ser muy elevado. En conclusión, la intervención del mercado impide la generación de un mayor bienestar agregado.

El valor de la asignación vía el mecanismo de mercado

Concluyo con una digresión importante. Nuestro supuesto legislador podría argumentar que aun en el mediano plazo, los inquilinos están mejor con el control precios que sin el mismo. Mirando la Figura 5, podría notar que el área (P*-P0)Q0 supera al triángulo naranja, esto es, el excedente del consumidor en este caso es mayor con control de alquileres que sin él.

Sin embargo, esa conclusión tiene por detrás un supuesto muy fuerte que es que, bajo el control de alquileres, quienes efectivamente logran alquilar una vivienda son aquellos que más lo valoran. Ello no es está garantizado una vez que se suprime el mecanismo de asignación de mercado.

Miremos primero el panel izquierdo de la Figura 6. Cuando se controla el precio de alquiler, se genera un exceso de demanda de viviendas de tamaño Q0-Q1. En ese contexto, cabe preguntarse, ¿cómo se racionarán las Q0 viviendas en alquiler entre los Q1 potenciales inquilinos? En realidad, cualquier persona que esté dispuesta a pagar el precio P0 puede ser inquilina. Suponiendo que cada línea vertical corresponde a un subgrupo de inquilinos, bien podría ser que el excedente del consumidor termine siendo más parecido al del panel derecho que el izquierdo.

Figura 6

¿Qué tiene de especial la asignación representada en el panel izquierdo de la Figura 6? En este caso, las Q0 unidades de viviendas son alquiladas por los consumidores que más las valoran, lo cual maximiza el excedente del consumidor para el precio de alquiler fijado. De hecho, cuando los productos (o cualquier otra cosa que se transe en un mercado) se asignan a los consumidores que más lo valoran, los economistas decimos que esa asignación es eficiente. La Figura 6 muestra la pérdida de bienestar asociada a una asignación ineficiente: el excedente del consumidor disminuye en relación a aquel que resulta de una asignación eficiente.

Ahora bien, también debemos preguntarnos si una asignación como la del panel derecho de la Figura 6 puede mantenerse en el tiempo. Muy probablemente, la respuesta sea no. Aparecerá un mercado negro de alquileres donde los inquilinos beneficiados por la asignación inicial, subalquilarán a otros ciudadanos que no tuvieron la misma suerte y que valúan más que ellos alquilar la vivienda en cuestión. La evidencia histórica confirma esta aseveración. Es por ello que en esta otra entrada (ver acá) argumenté que una buena política social distribuye ingresos, pero no distorsiona precios.

 

***

Nota del editor: Sebastian Galiani es Secretario de Política Económica de la Nación Argentina.

Richard Thaler: Premio Nobel de Economía 2017

El economista americano Richard Thaler es el ganador de la edición 2017 del Premio Nobel de Economía. El premio le fue otorgado por sus contribuciones a la economía del comportamiento, una rama de la economía de la cual Thaler es considerado uno de los fundadores. Este premio Nobel es un motivo de celebración para aquellos que trabajamos en economía del comportamiento. Thaler se suma a otros galardonados en esta rama de la economía: Robert Shiller (ganador del premio Nobel en 2013), Daniel Kahneman y Vernon Smith (ganadores en 2002).

Personalmente, no me gusta el título de economía del comportamiento (en inglés, behavioral economics). Este título tiene tanto sentido como el título del futbol de la pelota. Todo el futbol se juega con la pelota, y toda la economía se trata de estudiar el comportamiento. Un mejor título para esta rama que Thaler y compañía fundaron hace unas décadas sería ciencia de la irracionalidad.

La base de la economía neoclásica es que los hogares y el gobierno toman decisiones de forma omnisciente e hiper-racional, como si se trataran de super-computadoras. Obviamente ningún economista se toma este modelo de forma literal (bueno, casi ninguno). Estos modelos están diseñados para navegar la economía de la misma forma en que los mapas impresos están diseñados para navegar las rutas. Si yo te diera un mapa con escala 1:1, sería totalmente inútil: si tuvieras que extender el mapa, ocuparía la misma superficie que el mundo real, y por lo tanto encontrar el destino en el mapa sería tan difícil como encontrar el destino en el mundo real. Los mapas ignoran detalles a propósito, para ser útiles. Los modelos económicos hacen lo mismo: ignoran aspectos realistas de las personas, como su irracionalidad, para poder ayudar a navegar la realidad económica.

La contribución de Thaler consiste en dos partes. Su primera contribución fue demostrar que las personas no son irracionales de forma errática, sino de una forma sistemática y predecible. Esto quiere decir que, tal como un mapa del homo economicus racional es útil, el mapa del homo economicus irracional también puede ser útil. Thaler fue un pionero tanto en sus contribuciones teóricas como empíricas. Con una larga lista de coautores, Thaler descubrió un numero de regularidades en la irracionalidad de los seres humanos, como el “efecto dotación,” la “furia del consumidor,” las “preferencias sociales,” la “contabilidad mental,” el “efecto umbral de rentabilidad” y los modelos “hacedor-planeador”, entre otros.

La segunda contribución de Thaler fue demostrar que, al poder anticipar la irracionalidad humana, uno puede diseñar políticas que contrarresten esa irracionalidad. Esta contribución se popularizo en el libro que escribió junto a Cass Sunstein, titulado Nudge. Un “nudge” se puede traducir del inglés como un pequeño empujón. Este libro describe cómo pequeños empujones en el diseño de políticas pueden ayudar a gobiernos, empresas, empleados, consumidores y políticos a tomar mejores decisiones, casi sin darse cuenta. Nudge propone una suerte de “paternalismo libertario.” Bajo este tipo de políticas, uno siempre es libre de tomar las decisiones que quiera, incluso si esas decisiones lo perjudican a uno mismo. Estos “pequeños empujones” simplemente ayudan a aquellos que están tomando decisiones equivocadas, sin saberlo, a equivocarse en la dirección correcta.

El impacto de este nuevo paradigma ha sido gigantesco. Muchos gobiernos alrededor del mundo tienen “unidades de Nudge” trabajando activamente en aplicar estos pequeños empujones a la forma en la que recaudan impuestos, distribuyen servicios sociales, luchan contra el tabaquismo y la obesidad, entre otros. Y el impacto también ha alcanzado al sector privado, donde las empresas usan pequeños empujones tanto en el trato de sus clientes como en la relación con sus empleados.

Además de leer Nudge, les recomiendo que lean “Misbehaving: The Making of Behavioral Economics,” donde Thaler describe su larga carrera como académico. Entre otras cosas, se van a enterar que Thaler fue una suerte de Martin Palermo de la economía. Los técnicos le decían a Palermo que en la cancha sólo servía para cortar el pasto. Los economistas académicos probablemente pensaban lo mismo de Thaler como economista. Hasta su mentor de tesis de doctorado, Sherwin Rosen, confesó públicamente que “no esperaba mucho de él.” Este premio Nobel es un premio no sólo al valor de sus ideas, sino también a la perseverancia de Thaler, que tuvo que nadar contra la corriente. Este premio Nobel es para Thaler lo que aquel gol contra Perú fue para Martin Palermo.

Lástima que ni Thaler ni Palermo pueden jugar hoy contra Ecuador…

Modelos macroeconómicos. ¿De dónde venimos y hacia dónde vamos?

Desde mediados de los 1980s hasta el comienzo de la crisis financiera de 2008-2009, la teoría macroeconómica se mantuvo en una suerte de calma, de círculo virtuoso. Los economistas académicos estaban más o menos de acuerdo con respecto a ciertas estructuras fundamentales que los modelos debían satisfacer, y la investigación consistía en estudiar distintas desviaciones con respecto a esa estructura común. Usualmente, el estudio de estas desviaciones estaba motivado por alguna incapacidad del modelo básico para explicar cómo funciona la economía.

Dentro de esta evolución, una rama de la macroeconomía aplicada se esforzó en dotar de fundamentos microeconómicos a la idea tradicional de rigideces de precios y salarios nominales. Uno de los fines de esta agenda de investigación es el de capturar ciertas intuiciones keynesianas en modelos que no estén sujetos a (o más resguardados de) la crítica de Lucas.[1] Versiones de estos modelos (neo-keynesianos) se usan de manera habitual en los bancos centrales del mundo.[2]

¿Modelos para predecir o para evaluar cambios en la política económica? La crítica de Lucas.

La diferencia es fundamental. Si queremos predecir en un contexto de incertidumbre, pero sin grandes cambios estructurales en la economía, no es necesario usar modelos con fundamentos microeconómicos o internamente consistentes. Regresiones de series de tiempo de una o más variables, o estimaciones de sistemas de ecuaciones, son suficientes.  Estos son los que llamaré modelos en forma reducida y que son muy útiles para hacer predicciones.[3]

La situación es distinta si el objetivo es estudiar el impacto de cambios en la política económica. Cuando estimamos un modelo en forma reducida, los coeficientes estimados dependen del proceso por el cual los agentes económicos toman decisiones. Estas, a su vez, dependen de las reglas de política económica que rigen al momento de estimar las regresiones. Si cambiamos la regla de política económica, los agentes cambiarán sus decisiones y, por lo tanto, cambiarán los parámetros estimados del modelo en forma reducida. De este razonamiento surge que analizar cambios de política usando regresiones estimadas con las reglas anteriores al cambio darán resultados erróneos porque estas no tienen en cuenta que los agentes económicos responden a incentivos.[4]

Basta un ejemplo simple para comprender la crítica. Supongamos que nuestro ingreso es de 100 pesos y hay un impuesto del 20 por ciento sobre los ingresos. La recaudación es, entonces, de 20 pesos. Con esta estructura impositiva, concluimos que de cada 100 pesos de ingresos el estado recauda 20. Supongamos ahora que el gobierno aumenta el impuesto a 90 por ciento. Entonces, razona el analista poco ducho en la crítica de Lucas, la recaudación aumentará a 90 pesos por cada 100 pesos de ingresos.  Evidentemente, el razonamiento es erróneo porque los trabajadores no van a trabajar la misma cantidad de horas que antes del cambio impositivo. Esta lógica está, de una manera u otra, en todas las regresiones en forma reducida que relacionan variables económicas con instrumentos de política económica.

La crítica de Lucas junto con la revolución de las “expectativas racionales” de los 60s y 70s, impulsaron un cambio de paradigma en la manera de pensar la macroeconomía.[5] Se buscó trabajar con modelos internamente consistentes, con fundamentos microeconómicos y con sistemas de formación de expectativas tales que los actores económicos no pudiesen ser engañados sistemáticamente por otros agentes o por las autoridades monetaria y fiscal.[6]

La gran recesión y la “crisis” de la macroeconomía

Desde la irrupción de la crisis financiera de 2008-2009 la teoría macroeconómica está siendo cuestionada por muchos analistas. Las críticas van desde la incapacidad de los modelos para predecir la crisis hasta críticas sobre los supuestos fundamentales sobre los que se basan, por ejemplo, el mecanismo de formación de expectativas. Es usual escuchar la queja de que la teoría se mantuvo alejada de cuestiones relevantes de política económica y que los modelos no son más que una mera diversión donde los académicos compiten por ver quién tiene la idea más inteligente o forma elegante de resolver cierto problema. Economistas con contribuciones importantes a la economía, como Brad Delong, Paul Krugman o Paul Romer, se quejan de la “matematicidad” de los modelos económicos.[7] Y en su forma extrema, proponen eliminar de lleno la macroeconomía moderna y volver a modelos del estilo IS-LM o de los multiplicadores keynesianos.[8]

Críticas más amigables y constructivas se pueden encontrar en una serie de posts de Olivier Blanchard[9], Larry Christiano, y en el discurso del vicepresidente del Banco Central Europeo, Vítor Constâncio del 25 de septiembre.

¿Hacia dónde vamos?

Entender cómo funciona la economía para luego analizar cambios de política económica es difícil. Los agregados económicos se construyen sumando las decisiones de millones de hogares y empresas, las decisiones del sector público (cuyos actores tienen sus propios incentivos) y de agentes externos. Las decisiones, a su vez, se toman sujeto a una gran cantidad de restricciones: restricciones tecnológicas, restricciones presupuestarias, restricciones financieras, diferencias de información entre los distintos actores económicos y restricciones en la capacidad de procesar información o de hacer deducciones lógicas, entre otras.[10] ¿Implica lo anterior que debemos barajar y dar de nuevo volviendo, como proponen Krugman y otros, a modelos simples y estáticos como el IS-LM de Hicks escrito hace más de 80 años? No lo creo. Esos modelos fueron útiles en su momento, pero hemos aprendido mucho desde entonces. Preguntas complejas requieren de herramientas complejas; de más matemática, no de menos.

Los economistas no estuvieron 30 años dándose palmadas en la espalda congratulándose de lo bien que entienden el mundo. Siguieron estudiando formas de incorporar fricciones, heterogeneidades, problemas de información y diferentes mecanismos de formación de expectativas en los modelos. Muchas de esas novedades no llegaron a incorporarse a los modelos que usan los bancos centrales para tomar decisiones precisamente porque, hasta la irrupción de la crisis, no se consideraban imprescindibles. O porque todavía no habían pasado el principal test de relevancia: el tiempo.

La crisis financiera quizás ayudó a enfocar y acelerar ciertas investigaciones que ya se estaban produciendo de manera natural en las universidades. También ayudó a generar nuevas preguntas de investigación. Esta es precisamente la forma en que usualmente avanza la ciencia: hay algún hecho u observación que es difícil de explicar con la estructura aceptada por la mayoría y se construye sobre esa base.[11]

La comunicación entre academia, bancos centrales y economistas aplicados no se detuvo. En todo caso, aumentó durante los últimos años. Un ejemplo de interacción fructífera entre academia y trabajo aplicado es el siguiente. En el modelo canónico neo-keynesiano, la política monetaria se describe con una regla de Taylor por la cual la tasa de interés nominal aumenta cuando aumenta la inflación y disminuye cuando el producto se encuentra por debajo de su valor potencial. En un contexto donde la tasa de interés nominal es cero (desde fines de 2008 hasta fines de 2015 en Estados Unidos), es imposible seguir bajando la tasa de interés para “estimular” a la economía para que llegue a su nivel potencial. Una serie de trabajos de investigación se dedicaron a analizar los efectos de preanuncios de la política monetaria en el mediano y largo plazo (forward guidance) de tal manera de afectar las decisiones de los agentes hoy.[12] El impacto de preanuncios de política monetaria sobre la demanda agregada actual se da a través de la ecuación de Euler del consumo, que resume la decisión de los hogares de consumir hoy versus consumir en el futuro. Sin embargo, se observó que el efecto de los preanuncios monetarios predicho por los modelos tiende a ser demasiado fuerte en relación a los valores estimados.[13] Como respuesta a esta deficiencia empírica del modelo básico, algunos trabajos estudiaron desviaciones de expectativas racionales para reducir el impacto de los preanuncios monetarios sobre la demanda agregada de hoy.[14]

Este es solo un ejemplo, entre muchos, de la cooperación fructífera entre trabajo académico y aplicado. Hay muchos más y no es el objetivo de este post hacer un resumen de la literatura. Basta mencionar que no creo que la discusión fundamental sea la de neoclásicos versus keynesianos. El hecho de que históricamente los modelos macroeconómicos usaron la abstracción del agente representativo, de mercados financieros que funcionan más o menos bien, de horizontes de planeamiento infinito y del supuesto de expectativas racionales, parece más el resultado del avance lento pero constante de la ciencia, con sus idas y vueltas, que de prejuicios ideológicos alejados de toda evidencia empírica sobre cómo funciona el mundo.

Olivier Blanchard propone una separación entre los modelos teóricos que se producen en universidades y los modelos que se usan para tomar decisiones en los bancos centrales. Blanchard argumenta que, para tomar decisiones, no es necesario el nivel de consistencia interna que tienen los modelos que terminan publicados en las revistas de investigación de primer nivel, y que modelos con supuestos ad-hoc pueden ser muy útiles. Puede que lo sean, pero creo que el objetivo final de la ciencia es el de encontrar un modelo que sea internamente consistente y que pueda ser usado para la toma de decisiones. En el camino a esa meta, parece razonable usar una familia de modelos con distintos grados de formalidad (con más o menos fundamentos microeconómicos) para analizar cambios en la política económica y tomar decisiones informadas luego de ver todas las posibilidades.[15]

 

 

[1] Robert E. Lucas Jr. Econometric policy evaluation: a critique. Carnegie-Rochester Series on Public Policy, Vol 1, 1976, pp-19-46.

[2] Las referencias obligadas son Smets and Wouters (2003), “An estimated dynamic stochastic general equilibrium model of the euro area”, Journal of the European Economic Association, 1:5 (September), 1123-1175, y Christiano, Eichenbaum and Evans (2005), “Nominal rigidities and the dynamic effects of a shock to monetary policy,” Journal of Political Economy, vol 113, No. 1, 1-45. Una presentación reciente que explica métodos de resolución y estimación de modelos macroeconómicos neo-keynesianos se encuentra en Herbst and Schorfheide, “Bayesian Estimation of DSGE models,” Princeton University Press. 2016. Sin embargo, ver la crítica a estos modelos de John Cochrane.

[3] Que no necesariamente coincide con lo que un econometrista llama “la forma reducida de un modelo”.

[4] Para una visión más benigna de los métodos econométricos en forma reducida, ver Christopher Sims (1982) “Policy analysis with econometric models,” Brooking Papers on Economic Activity, 1, pp 109-132; y Thomas Sargent (1984) “Autoregressions, expectations, and Advice,” The American Economic Review, Vol 74, Issue 2, pp 408-415.

[5] Thomas Kuhn (1962) “La estructura de las revoluciones científicas,” University of Chicago Press.

[6] Esta es una manera muy informal de definir la teoría de expectativas racionales. Una discusión de la teoría de expectativas racionales, aprendizaje y modelos de racionalidad acotada requeriría de varios posts.

[7] Romer incluso afirma que muchos economistas usan fórmulas matemáticas complicadas adrede para ocultar ciertos prejuicios ideológicos en sus trabajos de investigación y que tienen una agenda política que va más allá de su honestidad académica.

[8] Pero ver la respuesta de John Cochrane a la crítica de Paul Krugman.

[9] Blanchard escribió tres artículos que se pueden encontrar aquí: primero, segundo y tercero.

[10] Ver también la evaluación de la macroeconomía moderna de Ricardo Reis.

[11] No creo que estemos en una situación de cambio de paradigma al estilo Kuhn.

[12] Ver la discusión de Ben Bernanke del 19 de noviembre de 2013; Gauti B. Eggerston and Michael Woodford (2003) “The zero bound on interest rates and optimal monetary policy,” Brooking Papers on Economic Activity, No 1; y J. Campbell, C. Evans, J. Fisher, and A. Justiniano (2012) “Macroeconomic effects of FOMC forward guidance,” Brooking papers on Economic Activity, vol 43 (spring) pp. 1-54.

[13] Del Negro, M. M. Giannoni, and C. Patterson (2015) “The Forward Guidance Puzzle”. Federal Reserve Bank of New York.  Alisdair McKay & Emi Nakamura & Jón Steinsson, 2016. “The Power of Forward Guidance Revisited,” American Economic Review, vol 106(10), pages 3133-3158

[14]Ver E. Farhi and I. Werning (2017) “Monetary Policy, Bounded Rationality, and Incomplete Markets” y Xavier Gabaix (2017) “A Behavioral New Keynesian Model.  La dificultad de alejarse de expectativas racionales es que fácilmente se entra en lo que se conoce como la “jungla de la irracionalidad”. El problema consiste en cómo modelar desviaciones de expectativas racionales sin ser completamente arbitrarios. Si uno puede manipular las expectativas de los agentes del modelo de manera arbitraria, uno puede explicar todo. Y un modelo que explica todo y no pone restricciones sobre sus predicciones es inútil; es el mapa perfecto de Borges.

[15] Quizás dando más peso a los modelos que predicen los peores resultados, como propone la teoría de control robusto de Lars Hansen y Thomas Sargent (2008) “Robustness.” Princeton University Press.

El colapso de Venezuela no tiene precedentes

El 16 de julio se celebró un plebiscito en Venezuela, organizado apresuradamente por la Asamblea Nacional, en la cual la oposición tiene mayoría. Su objetivo era rechazar el llamado del presidente Nicolás Maduro a formar una Asamblea Nacional Constituyente. En este evento, más de 720.000 venezolanos votaron en el exterior. En la elección presidencial de 2013, solamente lo hicieron 62.311. Cuatro días antes del referendo, 2.117 postulantes rindieron el examen para obtener su licencia médica en Chile. De estos, casi 800 eran venezolanos. Y el sábado 22 de julio, se reabrió la frontera con Colombia. En un solo día, 35.000 venezolanos cruzaron el estrecho puente entre los dos países para adquirir alimentos y medicamentos.

Es evidente que los venezolanos quieren escapar, y no es difícil entender por qué. En todo el mundo los medios de comunicación han estado informando acerca de Venezuela, documentando situaciones verdaderamente terribles, con imágenes de hambre, desesperacióne ira. La cubierta de la revista The Economist del 29 de julio lo resume así: “Venezuela en caos“.

Pero, ¿se trata simplemente de otra aguda recesión cualquiera o de algo más grave?

El indicador que más se usa para comparar recesiones es el PIB. De acuerdo al Fondo Monetario Internacional, en 2017 el PIB de Venezuela se encuentra el 35% por debajo de los niveles de 2013, o en un 40% en términos per cápita. Esta contracción es significativamente más aguda que la de la Gran Depresión de 1929-1933 en Estados Unidos, cuando se calcula que su PIB per cápita cayó el 28%. Es levemente más alta que el declive de Rusia (1990-1994), Cuba (1989-1993) y Albania (1989-1993), pero menor que la sufrida en ese mismo período en otros antiguos estados soviéticos, como Georgia, Tayikistán, Azerbaiyán, Armenia y Ucrania, o en países devastados por guerras como Liberia (1993), Libia (2011), Ruanda (1994), Irán (1981) y, más recientemente, el Sudán del Sur.

Dicho de otro modo, la catástrofe económica de Venezuela eclipsa cualquier otra de la historia de Estados Unidos, Europa Occidental, o el resto de América Latina. No obstante, las cifras mencionadas subestiman en extremo la magnitud del colapso, según lo revela una investigación que hemos venido realizando con Miguel Ángel Santos, Ricardo Villasmil, Douglas Barrios, Frank Muci y José Ramón Morales en el Center for International Developmentde la Universidad de Harvard.

Claramente, una disminución del 40% en el PIB per cápita es un hecho muy poco frecuente. Pero en Venezuela hay varios factores que hacen que la situación sea aún peor. Para empezar, si bien la contracción del PIB venezolano (en precios constantes) entre 2013 y 2017 incluye una reducción del 17% en la producción de petróleo, excluye la caída del 55% en el precio del crudo durante ese mismo periodo. Entre 2012 y 2016, las exportaciones de petróleo se desplomaron US$2.200 per cápita, de los cuales US$1.500 obedecieron al declive del precio del crudo.

Estas cifras son exorbitantes dado que el ingreso per cápita en Venezuela en 2017 es menos de US$4.000. Es decir, si bien el PIB per cápita cayó el 40%, el declive del ingreso nacional, incluyendo el efecto precio, es del 51%

Típicamente, los países mitigan estas caídas de precios de exportación ahorrando dinero en tiempos de vacas gordas, para luego utilizar esos ahorros o pedirlos prestados en tiempos de vacas flacas, de modo que el declive de las importaciones no sea tan grande como el del las exportaciones. Pero Venezuela no pudo hacer esto debido a que había aprovechado el auge del petróleo para sextuplicar su deuda externa. El despilfarro en la época de las vacas gordas dejó pocos activos que se pudieran liquidar en el periodo de las vacas flacas, y los mercados no estuvieron dispuestos a otorgar créditos a un prestatario con tal exceso de deuda.

Tenían razón: en la actualidad Venezuela es el país más endeudado del mundo. No hay otra nación con una deuda pública externa tan alta como proporción de su PIB o de sus exportaciones, o que enfrente un servicio de la deuda más alto como proporción de sus exportaciones.

Sin embargo, de modo similar a Rumania bajo Nicolae Ceauşescu en la década de1980, el gobierno decidió recortar las importaciones para poder permanecer al día en el servicio de su deuda externa, lo que repetidamente sorprendió al mercado, el que esperaba una reestructuración. Como consecuencia, las importaciones de bienes y servicios per cápita cayeron en un 75% en términos reales (ajustados según la inflación) entre 2012 y 2016, con un declive aún mayor en 2017.

Este colapso es comparable solamente con los ocurridos en Mongolia (1988-1992) y en Nigeria (1982-1986), y mayor que todos los otros colapsos de las importaciones ocurridos en cuatro años en el mundo desde 1960. De hecho, las cifras venezolanas no muestran mitigación alguna: el declive de las importaciones fue casi igual al de las exportaciones.

Más aún, debido a que esta disminución de las importaciones que impuso el gobierno creó una escasez de materias primas y de insumos intermedios, el colapso de la agricultura y de la manufactura fue todavía peor que el del PIB total, con lo que los bienes de consumo de producción local cayeron en casi US$1.000 per cápita en los últimos 4 años.

Otras estadísticas confirman este funesto panorama. Entre 2012 y 2016, los ingresos fiscales no petroleros se desplomaron un 70% en términos reales. Y, durante el mismo periodo, la aceleración de la inflación hizo que los pasivos monetarios del sistema bancario cayeran un 79% medidos a precios constantes. Medido en dólares al tipo de cambio del mercado negro, el declive fue del 92%, de US$41 mil millones a solo US$3.300 millones.

Dado esto, inevitablemente el nivel de vida también ha colapsado. El sueldo mínimo –el que en Venezuela también es el ingreso del trabajador medio debido al alto número de personas que lo recibe– bajó el 75% (en precios constantes) entre mayo de 2012 y mayo de 2017. Medida en dólares del mercado negro, la reducción fue del 88%, de US$295 a solo US$36 al mes.

Medido en términos de la caloría más barata disponible, el sueldo mínimo cayó de 52.854 calorías diarias a solo 7.005 durante el mismo periodo, una disminución del 86,7% e insuficiente para alimentar a una familia de cinco personas, suponiendo que todo el ingreso se destine a comprar la caloría más barata. Con su sueldo mínimo, los venezolanos pueden adquirir menos de un quinto de los alimentos que los colombianos, tradicionalmente más pobres, pueden comprar con el suyo.

La pobreza aumentó del 48% en 2014 al 82% en 2016, según un estudio realizado por las tres universidades venezolanas de mayor prestigio. En este mismo estudio se descubrió que el 74% de los venezolanos había bajado un promedio de 8,6 kilos de peso de manera involuntaria. El Observatorio Venezolano de la Salud informa que en 2016 la mortalidad de los pacientes internados se multiplicó por diez, y que la muerte de recién nacidos en hospitales se multiplicó por cien. No obstante, el gobierno de Nicolás Maduro repetidamente ha rechazado ofertas de asistencia humanitaria.

El abierto ataque del gobierno de Maduro contra la libertad y la democracia está atrayendo merecidamente una mayor atención internacional. La Organización de Estados Americanos y la Unión Europea han emitido informes muy duros, y Estados Unidos hace poco anunció nuevas sanciones.

Pero los problemas de Venezuela no son solo de índole política. Abordar la extraordinaria catástrofe económica que ha causado el gobierno también va a requerir el apoyo concertado de la comunidad internacional.