Category Archives: Noticias

Cuál es la diferencia entre criptomoneda, moneda virtual y dinero digital según Franciso D’Agostino

Francisco D’Agostino La fiebre del Bitcoin está creando algunas confusiones en la terminología que se usa para referirse a estas monedas. A veces se llama a este tipo de divisa criptomonedas, otras veces moneda virtual y en ocasiones dinero digital. Sin embargo los tres términos no son intercambiables.

Esto puede generar confusiones bastante graves como cuando un medio aseguró que el Banco de Inglaterra estaba preparando una criptomoneda, cuando en realidad es una moneda virtual

Digital es (prácticamente) todo dice Francisco D’Agostino

El dinero digital es, en general, cualquier medio de intercambio monetario que se haga por un medio electrónico. Cuando se hace una transferencia de dinero desde una cuenta de un banco a otra, se está usando dinero digital. Cuando se paga con tarjeta en un comercio, también.

Es decir, cuando se realiza un pago o envío de dinero sin intercambiar físicamente monedas o billetes, se está usando dinero digital. Prácticamente todo el dinero del mundo es digital, ya que el efectivo solo representa aproximadamente el 8% del dinero en circulación según Francisco D’Agostino.

Por tanto cuando alguien se refiere a dinero digital debería estar hablando, simplemente, de dinero. El dinero del día a día es digital. La gran mayoría de los asalariados del mundo cobra y paga en dinero digital. El dinero digital es dinero.

Virtual, hay algunas

Ahora bien, a veces se habla de moneda virtual. El dinero virtual es aquel que no existe más que en su formato digital. Por ejemplo, en muchos videojuegos existe internamente una divisa con la que se pueden comprar objetos. Este dinero que se usa dentro del juego es virtual.

También puede existir dinero virtual que no sea protagonista de un videojuego, por ejemplo alguna divisa creada por empresas o aficionados que pretendía sustituir el dinero físico actual por una nueva moneda alejada del control de los bancos centrales. Un ejemplo podría ser E-gold, que acabo cerrando por porblemas legales.

Por definición, las monedas virtuales son todas digitales. Como no existen físicamente, no hay papel moneda de las mismas, tienen que ser 100% digitales. Por tanto todas las monedas virtuales son digitales, pero no todas las digitales son virtuales nos cuenta Francisco D’Agostino (un ejemplo es una cuenta bancaria en euros, es digital pero no virtual).

Criptomonedas, un subgrupo de las anteriores

El dinero digital y virtual llevan décadas entre nosotros, pero las criptomonedas son más recientes. Las criptomonedas, como Bitcoin, son un tipo de moneda virtual que no tienen un emisor concreto, que están protegidas por criptografía y que en principio su coherencia puede estar protegida por una comprobación de sus usuarios masiva y distribuida.

Por tanto, las criptomonedas son dinero virtual y digital. Pero al contrario que otras monedas virtuales, no tienen un control centralizado, sino que está distribuido y basado en criptografía para evitar la manipulación de alguno de sus miembros.

Se puede concluir con que todas criptomonedas son moneda virtual y dinero digital, pero no viceversa. Cuando se habla de dinero digital se puede estar hablando de cualquier divisa del mundo (el euro y el dólar también), y cuando se habla de moneda virtual puede que no se trate de una criptomoneda, sino una moneda con un emisor concreto según Francisco D’Agostino. 

Empleo industrial: Su tendencia de largo plazo

En colaboración con Martin Caruso (UNLP)

En el debate público en Argentina –y también en muchos otros países‒ se suele afirmar que, si no crece el empleo manufacturero, esto es, el empleo industrial, no habrá empleo para todos los trabajadores. Incluso a veces se afirma que la industria debería ser la fuente primaria de empleo para amplios sectores de la población. ¿Es esto cierto? ¿Qué dicen los datos?

La evidencia sobre la evolución de la composición del empleo argentino está lejos de confirmar esta visión. El gráfico 1, elaborado en base a datos del Centro de Crecimiento y Desarrollo de la Universidad de Groningen (Groningen Growth and Development Centre), muestra la composición por sectores del empleo argentino entre 1950 y 2011, el período más largo disponible. El gráfico muestra que el empleo manufacturero alcanzo un pico de 27% del empleo total en la década del ‘60 para luego caer de manera suave, pero sin pausa hasta el fin de la serie. A lo largo de todo el periodo, el sector manufacturero está lejos de haber sido la principal fuente de empleo. Esto se ve claramente en el gráfico, que muestra que el sector de servicios ha sido la principal fuente de empleo de los trabajadores argentinos.

Gráfico 1:

Sin embargo, aquellos que consideran que la evidencia para argentina es el resultado del fracaso del modelo de sustitución de importaciones en el país, también descubrirán que están equivocados con solo inspeccionar los datos de otros países. El gráfico 2 muestra que los países desarrollados han atravesado un proceso muy parecido al observado en Argentina. De hecho, el pico de empleo manufacturero argentino es similar al de Estados Unidos (25%), Francia (25%), Holanda (26%), Italia (28%) y el Reino Unido (32%). Nuevamente, vemos que la principal fuente de empleo en los países desarrollados es el sector servicios.

Gráfico 2:

La dominancia del sector servicios es una regularidad empírica notable. Los países en desarrollo tampoco escapan a estas tendencias, e incluso en muchos países pobres el sector servicios es la principal fuente de empleo. A continuación, el gráfico 3 muestra la evolución del empleo en Corea del Sur. El caso de este país es muy ilustrativo, pues en los 50 años que van desde 1960 hasta 2010 pasó de ser un país pobre y primario a ser un país rico. Aun siendo considerado por muchos como un caso paradigmático de industrialización exitosa, vemos que el empleo manufacturero alcanza un pico de 28%, no muy distinto al de Argentina o los países desarrollados, para luego también caer suavemente.

Gráfico 3:

Incluso aquellos países que fueron los mayores receptores de producción industrial no lograron romper este patrón. El empleo en países como Taiwán, China o Singapur se da predominantemente en los servicios. De hecho, con los avances en la automatización, es posible que el declive del empleo en el sector manufacturero se acelere incluso en estos países.

¿Cómo podemos explicar este fenómeno?

En principio, en una sociedad de subsistencia, tanto el empleo como la producción están concentrados en el sector primario. A medida que la tecnología y la riqueza avanzan, se generan excedentes que pueden ser volcados nuevamente al sector primario o hacia otro sector. A medida que la sociedad se va volviendo más rica, la demanda por bienes manufacturados aumenta y este sector capta los excedentes de mano de obra liberados por el sector primario (a menos que se especialice completamente e importe la totalidad de los bienes manufactureros). En la medida que la sociedad continúa desarrollándose, se desarrolla una demanda por servicios, los cuales crecen en difusión y sofisticación con la riqueza de la sociedad (Dabus et al., 2008). Ese crecimiento de la riqueza que lleva a la demanda difundida de servicios además es causado por un fuerte aumento en la productividad de los factores productivos, principalmente concentrada en los sectores primario y manufacturero. Así, el empleo en estos sectores disminuye y los servicios se vuelven la principal fuente de empleo. Esta narrativa es consistente con la tendencia a largo plazo experimentadas por el empleo en los países más desarrollados.

Mirando el futuro

Esta discusión nos alerta del peligro de intentar ir contra de esta marcada tendencia de largo plazo en Argentina. Si bien la competencia internacional de nuestro sector manufacturo es factible en muchos sectores si estos logran producir bienes diferenciados y de calidad, ello no es el caso en los sectores intensivos en trabajo no calificado. Por otro lado, la subvención de estas actividades con el único fin de mantener el empleo genera grandes distorsiones que redundan en una asignación sub-óptima de trabajadores, reducen la riqueza agregada e induce esfuerzos innecesarios en la búsqueda de rentas. Mirando hacia adelante, una mejora sustancial en nuestro capital humano, y una integración estratégica al mundo, son una mejor receta que un sistema de protección industrial artificial, en pos de lograr una mayor calidad de vida de los trabajadores. Para maximizar el empleo en el sector servicios, se necesita aumentar la riqueza y que esta se encuentre mejor distribuida de forma sostenible.

 

Referencia:

 

Dabus, C.; S. Galiani, D. Heymann y F. Thome (2008): On the emergence of public education in land rich economies. Journal of Development Economics.

 

 

***

Nota del editor: Sebastian Galiani es Secretario de Política Económica de la Nación Argentina.

 

 

 

América Latina: distintas estrategias respecto del gasto público

Una de las características sobresalientes de la política económica de Argentina en los últimos 15 años fue el crecimiento del gasto público que, dependiendo del período que se considere, fue de alrededor de quince puntos del producto. El aumento observado entre 1996-98 y 2014-15, supera al promedio regional y al de la mayoría de los países de América del Sur, México, Costa Rica y Nicaragua. Las excepciones son Bolivia, Ecuador y Venezuela, donde el aumento del gasto fue similar o mayor que en Argentina.

Los gobiernos de estos países, junto con el de Argentina y Nicaragua, han sido caracterizados, desde el punto de vista político, como populistas. Esa definición facilita la exposición, aunque no desconocemos los problemas de la flexibilidad polisémica de ese término.[1]

Es interesante observar que aún dentro del conjunto de países definidos como populistas, se registraron importantes diferencias. En tal sentido, vale destacar que en Nicaragua el gasto se mantuvo básicamente constante en términos del producto. Un factor fundamental para explicar ese comportamiento dispar es el contraste entre los grandes aumentos de los términos de intercambio de algunas economías –liderado por el 400% de mejora, respecto a 1996-98, registrado en Venezuela– y el deterioro sufrido por Nicaragua. Ese retroceso de los términos del intercambio fue parcialmente compensado por la ayuda venezolana, que consistió en el financiamiento subsidiado de las compras de petróleo.

La evolución de los términos del intercambio tiene un efecto directo sobre las cuentas fiscales en la medida en que existan ingresos que, a través de distintas fuentes, estén relacionados de forma directa con los precios de exportación. Al respecto, cabe destacar que mientras que este tipo de ingresos superaron durante varios años el 10% del producto en Bolivia, Ecuador y Venezuela, solo alcanzaron un nivel de alrededor de 2% en Argentina. La diferencia se debe a que la mejora de los precios de exportación fue menor que en aquellas naciones y al hecho de que en esos países –y a diferencia de lo que ocurre en Argentina– el principal bien de exportación es producido por una empresa estatal, lo que hace que el efecto de un aumento de precios sea más fácilmente capturado por el fisco. En Argentina, solo una fracción de la mejora de los precios internacionales fue alcanzada por los impuestos a la exportación, y en menor medida por el impuesto a las ganancias, y el aumento del gasto fue solventado básicamente por otras fuentes: nuevos impuestos o aquellos ya existentes y cuya recaudación se expandió de la mano de un mayor crecimiento.

Es interesante destacar aquí que otros países con grandes mejoras en los términos del intercambio, iguales o superiores a las de Bolivia y Ecuador, como ser Chile, Perú y Colombia, si bien tuvieron también un aumento del gasto, este nunca fue superior a cuatro puntos del producto. Se podría decir entonces que aunque el aumento de los precios de exportación supone una tentación para incrementar el gasto público, es posible resistirse, al menos parcialmente,  a ella y transformar parte de esta mejora en ahorro, tal como lo muestran los tres países recién señalados.

En años recientes, la reversión del proceso de crecimiento de los precios de exportación latinoamericanos, pilar sobre el que se había apoyado la estrategia de incremento del gasto público de los países populistas, puso en evidencia el problema estructural de esa política: es difícil imaginar que ese nivel de gasto sea sostenible en el mediano y largo plazo. En primer lugar, porque es muy improbable que la región vuelva a tener los precios de exportación de la década pasada; en segundo lugar, porque el relativamente bajo nivel de ingreso por habitante y el elevado nivel de informalidad comparado con países de similares niveles de gasto público hace difícil financiarlo con impuestos al sector privado “formalizado”. [2]  Vale agregar que la calidad de las prestaciones públicas –salud, educación y seguridad– en los países analizados está por debajo de la que ofrecen otras naciones con similar presión impositiva, lo que lleva a buena parte de ese sector privado formal a contratar esas prestaciones de manera privada, “duplicando” la carga que soportan por estos conceptos.

Por eso es interesante observar cómo esos gobiernos reaccionaron ante el cambio en el escenario internacional. En un primer momento, entre 2011-12 y 2014, Argentina y Ecuador aumentaron el gasto público en 3 puntos del producto y Bolivia y Venezuela en 7 puntos.

Se podría argumentar que esas políticas eran contracíclicas, pero ello solo sería válido si se esperara una recuperación de los precios internacionales. Si ese no fuera el caso, como ya se podía prever en ese entonces, lo prudente habría sido reducir de forma gradual el gasto, y mientras esa reducción se completaba, disminuir el ahorro acumulado –el único país que había ahorrado, mediante el aumento de las reservas internacionales, era Bolivia– o aprovechar la disminución del endeudamiento de los años previos y financiarse en los mercados internacionales. Pero lo cierto es que se aplicaron inicialmente políticas expansivas y conforme se fue evidenciando que éstas no eran sostenibles, comenzaron a notarse ciertos cambios. Ecuador, sin acceso al financiamiento internacional, disminuyó el gasto público en 6% del producto entre 2014 y 2016, una decisión facilitada desde el punto de vista político por el alto nivel del gasto fiscal en infraestructura, que se redujo desde un 14% del producto a alrededor de 9%. Argentina y Bolivia siguieron aumentando el nivel de gasto en 2015, pero mientras en Argentina se mantuvo esencialmente constante en 2016, Bolivia lo redujo ese año en 6% del producto. El cambio de política en Bolivia se explica porque el nivel de reservas internacionales que alcanzaba a 51% del producto en 2012 –el mayor nivel de América Latina– se había reducido a 40% en 2015 y llegaría a 32% del producto a fines de 2016. Es decir, el crecimiento fue financiado con una fuerte disminución de las reservas acumuladas en los años de bonanza, pero, como la pérdida de reservas tenía un límite, a partir de 2016 se bajó abruptamente el gasto y se buscó financiamiento en los mercados internacionales. Venezuela, habiendo fallado en adoptar políticas “racionales”, comenzó a “resolver” el excesivo nivel de gasto a través de la hiperinflación, un camino transitado en diversas oportunidades por países de la región. En 2016 el nivel de gasto habría sido inferior al 30% del producto.

Un breve comentario sobre Brasil. El gasto público de ese país por décadas había sido el más elevado de América Latina, hasta que hacia 2011 fue superado por los cuatro países antes mencionados. Una característica del gasto de Brasil es que permaneció sin grandes variaciones en relación con el producto en el decenio previo a 2014, y solo se incrementó en los dos últimos años como consecuencia de la caída acumulada de 7,5% del producto en 2015-16. Esto no significa minimizar los problemas fiscales de Brasil –el país con el mayor nivel de deuda de América Latina– sino diferenciarlos de las políticas públicas que en los últimos años llevaron a ese resultado en otros países de la región. Enfrentado a un nivel del gasto cercano a 40% del producto, la reacción del gobierno brasileño fue intentar un ajuste gradual mediante reformas estructurales, que incluyen el régimen de pensiones y congelar por 20 años el nivel del gasto en términos reales.[3] Sin embargo, cabe señalar que la capacidad de avanzar en este programa está seriamente limitada por la inestabilidad política.

En síntesis, un nivel de gasto público de 40% del producto es, como fue mencionado, insostenible para los países de la región en las actuales circunstancias. Por ello, con tiempos distintos algunos de ellos reaccionaron disminuyendo el nivel gasto en los últimos años –Ecuador y Bolivia– aunque todavía es difícil saber si, en un contexto en el que no cabe esperar una mejora relevante en precio del petróleo y el gas, el nivel actual del gasto en esos países es financiable en el mediano plazo. En Brasil y Argentina se ha optado por un camino distinto. Dado el bajo nivel del gasto en infraestructura, una disminución abrupta del gasto público requería recortes en áreas políticamente sensibles, y ello es mucho más complicado desde la óptica política que en los otros países que hemos analizado. Por ello, la decisión ha sido bajar el peso del gasto aumentando el denominador –el producto– y manteniendo constante en términos reales el numerador –el gasto real–. Tarea difícil, porque para que tenga un impacto significativo, debe sostenerse varios años. En nuestra opinión es la mejor alternativa dadas las restricciones económicas, sociales y políticas que, por distintos motivos,  enfrentan los gobiernos de ambos países, pero ello no significa que no haya costos y riesgos asociados. Vale destacar que en lo que respecta a esta estrategia de baja gradual del gasto en términos del producto, Argentina tiene una ventaja en relación con Brasil: el nivel de endeudamiento es mucho menor[4].

Tres comentarios finales con referencia al caso argentino. En primer lugar, el hecho de que al menos el 40% del gasto está indexado a la inflación pasada implica que en un contexto de inflación decreciente se requiere que el 60% restante se reduzca en términos reales. Esto de por sí resulta difícil, pero se complica aún más considerando los reclamos judiciales de las provincias por una supuesta inadecuada distribución de la coparticipación durante los últimos años. En segundo lugar, dado el nivel del déficit fiscal, la estrategia adoptada reduce de forma sensible la posibilidad de mejorar la competitividad mediante la baja de impuestos distorsivos, lo que implica una carga adicional sobre el tipo de cambio real. El gradualismo fiscal y una estrategia más de shock en lo monetario, mediante las metas de inflación, tiende a generar una apreciación real del peso. La consecuencia de la apreciación junto con la dificultad para eliminar impuestos distorsivos, es que un factor que podría tener importancia en el crecimiento del producto, como es el aumento de las exportaciones de bienes y servicios, parece  casi descartado. Asimismo, si la economía crece por otros factores la consecuencia sería un incremento de las importaciones y un consecuente aumento del déficit en cuenta corriente. Por último, debe señalarse que mantener una estrategia como la mencionada respecto de nivel de gasto durante un tiempo prolongado, en una situación de minoría en el Congreso, demanda de ciertos acuerdos sociales y especialmente políticos, área en la que no parece haber una estrategia acorde con ese requerimiento.

 

 

[1] Este análisis lo realizamos en el “Populismos latinoamericanos a comienzos del siglo XXI: una caracterización económica” (en prensa). Allí también se discute la elección del período 1996-98, un periodo de relativa normalidad en la región, como base del análisis.

[2] Por ejemplo, Irlanda, España y Holanda tienen un nivel de gasto público de 30%, 44% y 45% del producto respectivamente.

[3] Las cifras del gasto incorporan la mitad de los intereses nominales, del orden el 8% del producto, dado que considerando la relativamente elevada tasa de inflación –y el hecho de que buena parte de la deuda es en moneda local– esa sería una razonable aproximación a la tasa de interés real. Por eso el nivel de gasto de Brasil es en nuestros gráficos menor al 40% del producto, cuando la cifra usual es algo superior a ese valor.

[4] Por otra parte, en los dos países el déficit fiscal es similar aunque el déficit primario es menor en Brasil.

Medición Económica del Bienestar (y el control de los alquileres)

Como señalé en esta entrada previa, el supuesto de que los individuos son racionales permite la medición, al menos aproximada, de la ganancia o  pérdida que experimenta un (grupo de) individuo(s) ante una nueva situación. En esta entrada, desarrollaré esta importante cuestión.

Hacia una medida operativa del bienestar

El panel izquierdo de la Figura 1 muestra una típica demanda de mercado de un bien con pendiente negativa. Partamos desde un punto como d0. Este punto nos indica que los consumidores están dispuestos a comprar Q0 unidades al precio P0. Esto implica que si el precio fuera apenas superior a P0, los consumidores considerarían que este precio es demasiado alto para comprar Q0 unidades y comprarían una cantidad menor. Por el contrario, si el precio fuera apenas inferior a P0, los consumidores querrían comprar más unidades de este bien. Esto implica que P0 refleja la valuación que tienen los consumidores por la unidad Q0. Ahora bien, este razonamiento no es exclusivo del punto d0. Por ejemplo, si tomamos el punto d1, repitiendo la misma lógica, concluiríamos que los consumidores valúan la unidad Q1 en P1. Es más, podríamos repetir el ejercicio muchísimas veces y siempre llegaríamos a la conclusión de que la curva de demanda nos informa la valoración de los consumidores para cada cantidad del bien. Esto implica que si el consumo fuera de Q* unidades, por ejemplo, la valoración total que tienen los consumidores por ese consumo corresponde al área coloreada en amarillo.

Ahora bien, nada es gratis. Consideremos el panel derecho. Si el producto tiene un precio de P*, los consumidores comprarán Q* unidades. La valoración total de estas unidades está dada por la suma del área verde y marrón. El área marrón representa el gasto que los consumidores deben hacer para comprar esas unidades, mientras que el área verde representa el beneficio que los consumidores obtienen de la compra del mismo por encima de dicho gasto. Entonces, el área verde mide lo que los consumidores ganan por participar de este mercado y se la denomina “excedente del consumidor”.

Figura 1

Podemos hacer el razonamiento análogo para el caso de un productor. Supongamos un entorno competitivo, y tomemos la curva de oferta que se muestra en la Figura 2. La misma refleja el costo marginal para los productores de ofrecer cada cantidad del bien. Por ende, el área debajo de la curva hasta una cantidad dada refleja los costos de producir esa cantidad. Nuevamente, si los productores venden Q* unidades al precio P*, incurrirán en un costo representado por el área anaranjada, mientras que sus ingresos superarán a los costos en el área color verde. Esta última magnitud la denominamos “excedente del productor”. También puede interpretarse como el beneficio de las empresas, aunque ambas medidas difieren si existiesen costos fijos.

Figura 2

Si bien la medición de estos excedentes, asociados a un determinado equilibrio no son informativos per se, podemos evaluar su cambio en función de variaciones que afectan el equilibrio de mercado. A continuación, explicaré esto utilizando un ejemplo canónico de la literatura económica.

El control de los alquileres

El control de los alquileres es un ejemplo clásico sobre la interferencia en el funcionamiento de los mercados y tiene numerosos antecedentes históricos. Supongamos que partimos de una situación como la que muestra la Figura 3. Esta describe una curva demanda inicial, D1, y dos curvas de oferta, una de corto plazo (Ocp) y otra de mediano plazo (Olp). La diferencia entre las curvas de corto y mediano plazo se debe a que a corto plazo es más difícil que a mediano plazo variar las cantidades ofrecidas en respuesta a cambios en el precio. En el caso de la figura, suponemos que la oferta a corto plazo está fija (y por ello corresponde una línea vertical). A mediano plazo, la oferta tiene pendiente positiva, indicando que los desarrolladores inmobiliarios reaccionarán a aumentos de precios produciendo más viviendas. En la figura vemos que el mercado está en equilibrio; en el cual se alquilan Q0 viviendas a un precio de alquiler de P0.

Figura 3

Supongamos ahora que la curva de demanda aumenta (no es central para nuestro argumento de equilibrio parcial entender por qué ocurre ello, aunque podría serlo en un análisis de equilibrio general), desplazándose desde D1 hasta D2. Como vemos en la figura, el ajuste de corto plazo recae íntegramente sobre el precio: dado que el número de viviendas está fijo, el equilibrio de corto plazo se alcanza vía un aumento en el precio de los alquileres desde P0 hasta P1. Los desarrolladores inmobiliarios verán que, a mayores precios, es rentable construir viviendas para alquiler y emprenderán ese tipo de proyectos. El nuevo equilibrio se alcanza en el nivel de viviendas Q* y al precio de alquiler P*.

Ahora, supongamos que algún legislador bien intencionado se preocupa por el aumento inicial en el valor de los alquileres. Piensa que, después de todo, ello beneficia a los propietarios a costa de los inquilinos, donde los primeros probablemente tengan mayores ingresos que los segundos. Para remediar esta situación, propone fijar por ley un precio de alquiler máximo de P0, evitando el aumento de los mismos.

En primera instancia, uno podría argumentar que hacer cumplir esta ley es extremadamente difícil o extremadamente costoso, dado que requiere controlar un mercado altamente atomizado de propietarios e inquilinos. No obstante, vamos a suponer que la ley puede hacerse cumplir y estudiaremos sus efectos. La Figura 4 muestra sus efectos de corto plazo. El panel izquierdo describe qué es lo que ocurre cuando el precio no sube (se ejerce la norma) y el derecho si no se interfiere con el funcionamiento del mercado. El color amarillo muestra el excedente del consumidor, mientras que el marrón muestra el excedente del consumidor.

Figura 4

Vemos claramente que la disyuntiva distributiva que explicábamos anteriormente es cierta en el corto plazo: Si no se regula el precio de alquiler, el excedente del consumidor (inquilinos) es menor, y el del productor (propietarios) mayor. Si se lo hace, estos últimos le transfieren parte de su bienestar a los primeros. En este caso, dado que la curva de oferta es inelástica, esta transferencia no implica perdidas agregadas de bienestar. Ello no siempre es así.

Este ejemplo ilustra claramente el valor analítico que tiene poder medir el bienestar de los distintos grupos de agentes económicos. Podemos comparar las ganancias y pérdidas que enfrenta cada (grupo de) agente(s) ante distintas intervenciones o cambios de determinantes exógenos.

Veamos ahora qué es lo que pasa en el mediano plazo (Figura 5). Nuevamente, el panel izquierdo muestra la situación bajo el control de alquileres mientras que el panel derecho muestra el caso donde estos no se regulan. Cuando se controlan los alquileres, la oferta de viviendas no crece. Esto se debe a que los propietarios no perciben ningún beneficio adicional del aumento de la demanda, y por tanto no tienen incentivos para desarrollar nuevas viviendas para alquiler. La intervención sobre el precio de alquiler anula la señal de mercado que los precios transmiten para asignar los recursos escasos.

Figura 5

Si no se regula el precio de alquiler, en el mediano plazo, vemos que se genera un nuevo excedente que se reparte entre los consumidores y los productores. Este excedente adicional se mide por el área marcada como Ganancia de Bienestar en el panel derecho de la Figura 5 y se debe a que, al nuevo precio de alquiler de equilibrio, hay más viviendas alquiladas, las cuales generan tanto un excedente a los consumidores como a los productores. Este bienestar adicional crece con el tamaño de la distorsión que se remueve y podría llegar a ser muy elevado. En conclusión, la intervención del mercado impide la generación de un mayor bienestar agregado.

El valor de la asignación vía el mecanismo de mercado

Concluyo con una digresión importante. Nuestro supuesto legislador podría argumentar que aun en el mediano plazo, los inquilinos están mejor con el control precios que sin el mismo. Mirando la Figura 5, podría notar que el área (P*-P0)Q0 supera al triángulo naranja, esto es, el excedente del consumidor en este caso es mayor con control de alquileres que sin él.

Sin embargo, esa conclusión tiene por detrás un supuesto muy fuerte que es que, bajo el control de alquileres, quienes efectivamente logran alquilar una vivienda son aquellos que más lo valoran. Ello no es está garantizado una vez que se suprime el mecanismo de asignación de mercado.

Miremos primero el panel izquierdo de la Figura 6. Cuando se controla el precio de alquiler, se genera un exceso de demanda de viviendas de tamaño Q0-Q1. En ese contexto, cabe preguntarse, ¿cómo se racionarán las Q0 viviendas en alquiler entre los Q1 potenciales inquilinos? En realidad, cualquier persona que esté dispuesta a pagar el precio P0 puede ser inquilina. Suponiendo que cada línea vertical corresponde a un subgrupo de inquilinos, bien podría ser que el excedente del consumidor termine siendo más parecido al del panel derecho que el izquierdo.

Figura 6

¿Qué tiene de especial la asignación representada en el panel izquierdo de la Figura 6? En este caso, las Q0 unidades de viviendas son alquiladas por los consumidores que más las valoran, lo cual maximiza el excedente del consumidor para el precio de alquiler fijado. De hecho, cuando los productos (o cualquier otra cosa que se transe en un mercado) se asignan a los consumidores que más lo valoran, los economistas decimos que esa asignación es eficiente. La Figura 6 muestra la pérdida de bienestar asociada a una asignación ineficiente: el excedente del consumidor disminuye en relación a aquel que resulta de una asignación eficiente.

Ahora bien, también debemos preguntarnos si una asignación como la del panel derecho de la Figura 6 puede mantenerse en el tiempo. Muy probablemente, la respuesta sea no. Aparecerá un mercado negro de alquileres donde los inquilinos beneficiados por la asignación inicial, subalquilarán a otros ciudadanos que no tuvieron la misma suerte y que valúan más que ellos alquilar la vivienda en cuestión. La evidencia histórica confirma esta aseveración. Es por ello que en esta otra entrada (ver acá) argumenté que una buena política social distribuye ingresos, pero no distorsiona precios.

 

***

Nota del editor: Sebastian Galiani es Secretario de Política Económica de la Nación Argentina.

Richard Thaler: Premio Nobel de Economía 2017

El economista americano Richard Thaler es el ganador de la edición 2017 del Premio Nobel de Economía. El premio le fue otorgado por sus contribuciones a la economía del comportamiento, una rama de la economía de la cual Thaler es considerado uno de los fundadores. Este premio Nobel es un motivo de celebración para aquellos que trabajamos en economía del comportamiento. Thaler se suma a otros galardonados en esta rama de la economía: Robert Shiller (ganador del premio Nobel en 2013), Daniel Kahneman y Vernon Smith (ganadores en 2002).

Personalmente, no me gusta el título de economía del comportamiento (en inglés, behavioral economics). Este título tiene tanto sentido como el título del futbol de la pelota. Todo el futbol se juega con la pelota, y toda la economía se trata de estudiar el comportamiento. Un mejor título para esta rama que Thaler y compañía fundaron hace unas décadas sería ciencia de la irracionalidad.

La base de la economía neoclásica es que los hogares y el gobierno toman decisiones de forma omnisciente e hiper-racional, como si se trataran de super-computadoras. Obviamente ningún economista se toma este modelo de forma literal (bueno, casi ninguno). Estos modelos están diseñados para navegar la economía de la misma forma en que los mapas impresos están diseñados para navegar las rutas. Si yo te diera un mapa con escala 1:1, sería totalmente inútil: si tuvieras que extender el mapa, ocuparía la misma superficie que el mundo real, y por lo tanto encontrar el destino en el mapa sería tan difícil como encontrar el destino en el mundo real. Los mapas ignoran detalles a propósito, para ser útiles. Los modelos económicos hacen lo mismo: ignoran aspectos realistas de las personas, como su irracionalidad, para poder ayudar a navegar la realidad económica.

La contribución de Thaler consiste en dos partes. Su primera contribución fue demostrar que las personas no son irracionales de forma errática, sino de una forma sistemática y predecible. Esto quiere decir que, tal como un mapa del homo economicus racional es útil, el mapa del homo economicus irracional también puede ser útil. Thaler fue un pionero tanto en sus contribuciones teóricas como empíricas. Con una larga lista de coautores, Thaler descubrió un numero de regularidades en la irracionalidad de los seres humanos, como el “efecto dotación,” la “furia del consumidor,” las “preferencias sociales,” la “contabilidad mental,” el “efecto umbral de rentabilidad” y los modelos “hacedor-planeador”, entre otros.

La segunda contribución de Thaler fue demostrar que, al poder anticipar la irracionalidad humana, uno puede diseñar políticas que contrarresten esa irracionalidad. Esta contribución se popularizo en el libro que escribió junto a Cass Sunstein, titulado Nudge. Un “nudge” se puede traducir del inglés como un pequeño empujón. Este libro describe cómo pequeños empujones en el diseño de políticas pueden ayudar a gobiernos, empresas, empleados, consumidores y políticos a tomar mejores decisiones, casi sin darse cuenta. Nudge propone una suerte de “paternalismo libertario.” Bajo este tipo de políticas, uno siempre es libre de tomar las decisiones que quiera, incluso si esas decisiones lo perjudican a uno mismo. Estos “pequeños empujones” simplemente ayudan a aquellos que están tomando decisiones equivocadas, sin saberlo, a equivocarse en la dirección correcta.

El impacto de este nuevo paradigma ha sido gigantesco. Muchos gobiernos alrededor del mundo tienen “unidades de Nudge” trabajando activamente en aplicar estos pequeños empujones a la forma en la que recaudan impuestos, distribuyen servicios sociales, luchan contra el tabaquismo y la obesidad, entre otros. Y el impacto también ha alcanzado al sector privado, donde las empresas usan pequeños empujones tanto en el trato de sus clientes como en la relación con sus empleados.

Además de leer Nudge, les recomiendo que lean “Misbehaving: The Making of Behavioral Economics,” donde Thaler describe su larga carrera como académico. Entre otras cosas, se van a enterar que Thaler fue una suerte de Martin Palermo de la economía. Los técnicos le decían a Palermo que en la cancha sólo servía para cortar el pasto. Los economistas académicos probablemente pensaban lo mismo de Thaler como economista. Hasta su mentor de tesis de doctorado, Sherwin Rosen, confesó públicamente que “no esperaba mucho de él.” Este premio Nobel es un premio no sólo al valor de sus ideas, sino también a la perseverancia de Thaler, que tuvo que nadar contra la corriente. Este premio Nobel es para Thaler lo que aquel gol contra Perú fue para Martin Palermo.

Lástima que ni Thaler ni Palermo pueden jugar hoy contra Ecuador…

Modelos macroeconómicos. ¿De dónde venimos y hacia dónde vamos?

Desde mediados de los 1980s hasta el comienzo de la crisis financiera de 2008-2009, la teoría macroeconómica se mantuvo en una suerte de calma, de círculo virtuoso. Los economistas académicos estaban más o menos de acuerdo con respecto a ciertas estructuras fundamentales que los modelos debían satisfacer, y la investigación consistía en estudiar distintas desviaciones con respecto a esa estructura común. Usualmente, el estudio de estas desviaciones estaba motivado por alguna incapacidad del modelo básico para explicar cómo funciona la economía.

Dentro de esta evolución, una rama de la macroeconomía aplicada se esforzó en dotar de fundamentos microeconómicos a la idea tradicional de rigideces de precios y salarios nominales. Uno de los fines de esta agenda de investigación es el de capturar ciertas intuiciones keynesianas en modelos que no estén sujetos a (o más resguardados de) la crítica de Lucas.[1] Versiones de estos modelos (neo-keynesianos) se usan de manera habitual en los bancos centrales del mundo.[2]

¿Modelos para predecir o para evaluar cambios en la política económica? La crítica de Lucas.

La diferencia es fundamental. Si queremos predecir en un contexto de incertidumbre, pero sin grandes cambios estructurales en la economía, no es necesario usar modelos con fundamentos microeconómicos o internamente consistentes. Regresiones de series de tiempo de una o más variables, o estimaciones de sistemas de ecuaciones, son suficientes.  Estos son los que llamaré modelos en forma reducida y que son muy útiles para hacer predicciones.[3]

La situación es distinta si el objetivo es estudiar el impacto de cambios en la política económica. Cuando estimamos un modelo en forma reducida, los coeficientes estimados dependen del proceso por el cual los agentes económicos toman decisiones. Estas, a su vez, dependen de las reglas de política económica que rigen al momento de estimar las regresiones. Si cambiamos la regla de política económica, los agentes cambiarán sus decisiones y, por lo tanto, cambiarán los parámetros estimados del modelo en forma reducida. De este razonamiento surge que analizar cambios de política usando regresiones estimadas con las reglas anteriores al cambio darán resultados erróneos porque estas no tienen en cuenta que los agentes económicos responden a incentivos.[4]

Basta un ejemplo simple para comprender la crítica. Supongamos que nuestro ingreso es de 100 pesos y hay un impuesto del 20 por ciento sobre los ingresos. La recaudación es, entonces, de 20 pesos. Con esta estructura impositiva, concluimos que de cada 100 pesos de ingresos el estado recauda 20. Supongamos ahora que el gobierno aumenta el impuesto a 90 por ciento. Entonces, razona el analista poco ducho en la crítica de Lucas, la recaudación aumentará a 90 pesos por cada 100 pesos de ingresos.  Evidentemente, el razonamiento es erróneo porque los trabajadores no van a trabajar la misma cantidad de horas que antes del cambio impositivo. Esta lógica está, de una manera u otra, en todas las regresiones en forma reducida que relacionan variables económicas con instrumentos de política económica.

La crítica de Lucas junto con la revolución de las “expectativas racionales” de los 60s y 70s, impulsaron un cambio de paradigma en la manera de pensar la macroeconomía.[5] Se buscó trabajar con modelos internamente consistentes, con fundamentos microeconómicos y con sistemas de formación de expectativas tales que los actores económicos no pudiesen ser engañados sistemáticamente por otros agentes o por las autoridades monetaria y fiscal.[6]

La gran recesión y la “crisis” de la macroeconomía

Desde la irrupción de la crisis financiera de 2008-2009 la teoría macroeconómica está siendo cuestionada por muchos analistas. Las críticas van desde la incapacidad de los modelos para predecir la crisis hasta críticas sobre los supuestos fundamentales sobre los que se basan, por ejemplo, el mecanismo de formación de expectativas. Es usual escuchar la queja de que la teoría se mantuvo alejada de cuestiones relevantes de política económica y que los modelos no son más que una mera diversión donde los académicos compiten por ver quién tiene la idea más inteligente o forma elegante de resolver cierto problema. Economistas con contribuciones importantes a la economía, como Brad Delong, Paul Krugman o Paul Romer, se quejan de la “matematicidad” de los modelos económicos.[7] Y en su forma extrema, proponen eliminar de lleno la macroeconomía moderna y volver a modelos del estilo IS-LM o de los multiplicadores keynesianos.[8]

Críticas más amigables y constructivas se pueden encontrar en una serie de posts de Olivier Blanchard[9], Larry Christiano, y en el discurso del vicepresidente del Banco Central Europeo, Vítor Constâncio del 25 de septiembre.

¿Hacia dónde vamos?

Entender cómo funciona la economía para luego analizar cambios de política económica es difícil. Los agregados económicos se construyen sumando las decisiones de millones de hogares y empresas, las decisiones del sector público (cuyos actores tienen sus propios incentivos) y de agentes externos. Las decisiones, a su vez, se toman sujeto a una gran cantidad de restricciones: restricciones tecnológicas, restricciones presupuestarias, restricciones financieras, diferencias de información entre los distintos actores económicos y restricciones en la capacidad de procesar información o de hacer deducciones lógicas, entre otras.[10] ¿Implica lo anterior que debemos barajar y dar de nuevo volviendo, como proponen Krugman y otros, a modelos simples y estáticos como el IS-LM de Hicks escrito hace más de 80 años? No lo creo. Esos modelos fueron útiles en su momento, pero hemos aprendido mucho desde entonces. Preguntas complejas requieren de herramientas complejas; de más matemática, no de menos.

Los economistas no estuvieron 30 años dándose palmadas en la espalda congratulándose de lo bien que entienden el mundo. Siguieron estudiando formas de incorporar fricciones, heterogeneidades, problemas de información y diferentes mecanismos de formación de expectativas en los modelos. Muchas de esas novedades no llegaron a incorporarse a los modelos que usan los bancos centrales para tomar decisiones precisamente porque, hasta la irrupción de la crisis, no se consideraban imprescindibles. O porque todavía no habían pasado el principal test de relevancia: el tiempo.

La crisis financiera quizás ayudó a enfocar y acelerar ciertas investigaciones que ya se estaban produciendo de manera natural en las universidades. También ayudó a generar nuevas preguntas de investigación. Esta es precisamente la forma en que usualmente avanza la ciencia: hay algún hecho u observación que es difícil de explicar con la estructura aceptada por la mayoría y se construye sobre esa base.[11]

La comunicación entre academia, bancos centrales y economistas aplicados no se detuvo. En todo caso, aumentó durante los últimos años. Un ejemplo de interacción fructífera entre academia y trabajo aplicado es el siguiente. En el modelo canónico neo-keynesiano, la política monetaria se describe con una regla de Taylor por la cual la tasa de interés nominal aumenta cuando aumenta la inflación y disminuye cuando el producto se encuentra por debajo de su valor potencial. En un contexto donde la tasa de interés nominal es cero (desde fines de 2008 hasta fines de 2015 en Estados Unidos), es imposible seguir bajando la tasa de interés para “estimular” a la economía para que llegue a su nivel potencial. Una serie de trabajos de investigación se dedicaron a analizar los efectos de preanuncios de la política monetaria en el mediano y largo plazo (forward guidance) de tal manera de afectar las decisiones de los agentes hoy.[12] El impacto de preanuncios de política monetaria sobre la demanda agregada actual se da a través de la ecuación de Euler del consumo, que resume la decisión de los hogares de consumir hoy versus consumir en el futuro. Sin embargo, se observó que el efecto de los preanuncios monetarios predicho por los modelos tiende a ser demasiado fuerte en relación a los valores estimados.[13] Como respuesta a esta deficiencia empírica del modelo básico, algunos trabajos estudiaron desviaciones de expectativas racionales para reducir el impacto de los preanuncios monetarios sobre la demanda agregada de hoy.[14]

Este es solo un ejemplo, entre muchos, de la cooperación fructífera entre trabajo académico y aplicado. Hay muchos más y no es el objetivo de este post hacer un resumen de la literatura. Basta mencionar que no creo que la discusión fundamental sea la de neoclásicos versus keynesianos. El hecho de que históricamente los modelos macroeconómicos usaron la abstracción del agente representativo, de mercados financieros que funcionan más o menos bien, de horizontes de planeamiento infinito y del supuesto de expectativas racionales, parece más el resultado del avance lento pero constante de la ciencia, con sus idas y vueltas, que de prejuicios ideológicos alejados de toda evidencia empírica sobre cómo funciona el mundo.

Olivier Blanchard propone una separación entre los modelos teóricos que se producen en universidades y los modelos que se usan para tomar decisiones en los bancos centrales. Blanchard argumenta que, para tomar decisiones, no es necesario el nivel de consistencia interna que tienen los modelos que terminan publicados en las revistas de investigación de primer nivel, y que modelos con supuestos ad-hoc pueden ser muy útiles. Puede que lo sean, pero creo que el objetivo final de la ciencia es el de encontrar un modelo que sea internamente consistente y que pueda ser usado para la toma de decisiones. En el camino a esa meta, parece razonable usar una familia de modelos con distintos grados de formalidad (con más o menos fundamentos microeconómicos) para analizar cambios en la política económica y tomar decisiones informadas luego de ver todas las posibilidades.[15]

 

 

[1] Robert E. Lucas Jr. Econometric policy evaluation: a critique. Carnegie-Rochester Series on Public Policy, Vol 1, 1976, pp-19-46.

[2] Las referencias obligadas son Smets and Wouters (2003), “An estimated dynamic stochastic general equilibrium model of the euro area”, Journal of the European Economic Association, 1:5 (September), 1123-1175, y Christiano, Eichenbaum and Evans (2005), “Nominal rigidities and the dynamic effects of a shock to monetary policy,” Journal of Political Economy, vol 113, No. 1, 1-45. Una presentación reciente que explica métodos de resolución y estimación de modelos macroeconómicos neo-keynesianos se encuentra en Herbst and Schorfheide, “Bayesian Estimation of DSGE models,” Princeton University Press. 2016. Sin embargo, ver la crítica a estos modelos de John Cochrane.

[3] Que no necesariamente coincide con lo que un econometrista llama “la forma reducida de un modelo”.

[4] Para una visión más benigna de los métodos econométricos en forma reducida, ver Christopher Sims (1982) “Policy analysis with econometric models,” Brooking Papers on Economic Activity, 1, pp 109-132; y Thomas Sargent (1984) “Autoregressions, expectations, and Advice,” The American Economic Review, Vol 74, Issue 2, pp 408-415.

[5] Thomas Kuhn (1962) “La estructura de las revoluciones científicas,” University of Chicago Press.

[6] Esta es una manera muy informal de definir la teoría de expectativas racionales. Una discusión de la teoría de expectativas racionales, aprendizaje y modelos de racionalidad acotada requeriría de varios posts.

[7] Romer incluso afirma que muchos economistas usan fórmulas matemáticas complicadas adrede para ocultar ciertos prejuicios ideológicos en sus trabajos de investigación y que tienen una agenda política que va más allá de su honestidad académica.

[8] Pero ver la respuesta de John Cochrane a la crítica de Paul Krugman.

[9] Blanchard escribió tres artículos que se pueden encontrar aquí: primero, segundo y tercero.

[10] Ver también la evaluación de la macroeconomía moderna de Ricardo Reis.

[11] No creo que estemos en una situación de cambio de paradigma al estilo Kuhn.

[12] Ver la discusión de Ben Bernanke del 19 de noviembre de 2013; Gauti B. Eggerston and Michael Woodford (2003) “The zero bound on interest rates and optimal monetary policy,” Brooking Papers on Economic Activity, No 1; y J. Campbell, C. Evans, J. Fisher, and A. Justiniano (2012) “Macroeconomic effects of FOMC forward guidance,” Brooking papers on Economic Activity, vol 43 (spring) pp. 1-54.

[13] Del Negro, M. M. Giannoni, and C. Patterson (2015) “The Forward Guidance Puzzle”. Federal Reserve Bank of New York.  Alisdair McKay & Emi Nakamura & Jón Steinsson, 2016. “The Power of Forward Guidance Revisited,” American Economic Review, vol 106(10), pages 3133-3158

[14]Ver E. Farhi and I. Werning (2017) “Monetary Policy, Bounded Rationality, and Incomplete Markets” y Xavier Gabaix (2017) “A Behavioral New Keynesian Model.  La dificultad de alejarse de expectativas racionales es que fácilmente se entra en lo que se conoce como la “jungla de la irracionalidad”. El problema consiste en cómo modelar desviaciones de expectativas racionales sin ser completamente arbitrarios. Si uno puede manipular las expectativas de los agentes del modelo de manera arbitraria, uno puede explicar todo. Y un modelo que explica todo y no pone restricciones sobre sus predicciones es inútil; es el mapa perfecto de Borges.

[15] Quizás dando más peso a los modelos que predicen los peores resultados, como propone la teoría de control robusto de Lars Hansen y Thomas Sargent (2008) “Robustness.” Princeton University Press.

El colapso de Venezuela no tiene precedentes

El 16 de julio se celebró un plebiscito en Venezuela, organizado apresuradamente por la Asamblea Nacional, en la cual la oposición tiene mayoría. Su objetivo era rechazar el llamado del presidente Nicolás Maduro a formar una Asamblea Nacional Constituyente. En este evento, más de 720.000 venezolanos votaron en el exterior. En la elección presidencial de 2013, solamente lo hicieron 62.311. Cuatro días antes del referendo, 2.117 postulantes rindieron el examen para obtener su licencia médica en Chile. De estos, casi 800 eran venezolanos. Y el sábado 22 de julio, se reabrió la frontera con Colombia. En un solo día, 35.000 venezolanos cruzaron el estrecho puente entre los dos países para adquirir alimentos y medicamentos.

Es evidente que los venezolanos quieren escapar, y no es difícil entender por qué. En todo el mundo los medios de comunicación han estado informando acerca de Venezuela, documentando situaciones verdaderamente terribles, con imágenes de hambre, desesperacióne ira. La cubierta de la revista The Economist del 29 de julio lo resume así: “Venezuela en caos“.

Pero, ¿se trata simplemente de otra aguda recesión cualquiera o de algo más grave?

El indicador que más se usa para comparar recesiones es el PIB. De acuerdo al Fondo Monetario Internacional, en 2017 el PIB de Venezuela se encuentra el 35% por debajo de los niveles de 2013, o en un 40% en términos per cápita. Esta contracción es significativamente más aguda que la de la Gran Depresión de 1929-1933 en Estados Unidos, cuando se calcula que su PIB per cápita cayó el 28%. Es levemente más alta que el declive de Rusia (1990-1994), Cuba (1989-1993) y Albania (1989-1993), pero menor que la sufrida en ese mismo período en otros antiguos estados soviéticos, como Georgia, Tayikistán, Azerbaiyán, Armenia y Ucrania, o en países devastados por guerras como Liberia (1993), Libia (2011), Ruanda (1994), Irán (1981) y, más recientemente, el Sudán del Sur.

Dicho de otro modo, la catástrofe económica de Venezuela eclipsa cualquier otra de la historia de Estados Unidos, Europa Occidental, o el resto de América Latina. No obstante, las cifras mencionadas subestiman en extremo la magnitud del colapso, según lo revela una investigación que hemos venido realizando con Miguel Ángel Santos, Ricardo Villasmil, Douglas Barrios, Frank Muci y José Ramón Morales en el Center for International Developmentde la Universidad de Harvard.

Claramente, una disminución del 40% en el PIB per cápita es un hecho muy poco frecuente. Pero en Venezuela hay varios factores que hacen que la situación sea aún peor. Para empezar, si bien la contracción del PIB venezolano (en precios constantes) entre 2013 y 2017 incluye una reducción del 17% en la producción de petróleo, excluye la caída del 55% en el precio del crudo durante ese mismo periodo. Entre 2012 y 2016, las exportaciones de petróleo se desplomaron US$2.200 per cápita, de los cuales US$1.500 obedecieron al declive del precio del crudo.

Estas cifras son exorbitantes dado que el ingreso per cápita en Venezuela en 2017 es menos de US$4.000. Es decir, si bien el PIB per cápita cayó el 40%, el declive del ingreso nacional, incluyendo el efecto precio, es del 51%

Típicamente, los países mitigan estas caídas de precios de exportación ahorrando dinero en tiempos de vacas gordas, para luego utilizar esos ahorros o pedirlos prestados en tiempos de vacas flacas, de modo que el declive de las importaciones no sea tan grande como el del las exportaciones. Pero Venezuela no pudo hacer esto debido a que había aprovechado el auge del petróleo para sextuplicar su deuda externa. El despilfarro en la época de las vacas gordas dejó pocos activos que se pudieran liquidar en el periodo de las vacas flacas, y los mercados no estuvieron dispuestos a otorgar créditos a un prestatario con tal exceso de deuda.

Tenían razón: en la actualidad Venezuela es el país más endeudado del mundo. No hay otra nación con una deuda pública externa tan alta como proporción de su PIB o de sus exportaciones, o que enfrente un servicio de la deuda más alto como proporción de sus exportaciones.

Sin embargo, de modo similar a Rumania bajo Nicolae Ceauşescu en la década de1980, el gobierno decidió recortar las importaciones para poder permanecer al día en el servicio de su deuda externa, lo que repetidamente sorprendió al mercado, el que esperaba una reestructuración. Como consecuencia, las importaciones de bienes y servicios per cápita cayeron en un 75% en términos reales (ajustados según la inflación) entre 2012 y 2016, con un declive aún mayor en 2017.

Este colapso es comparable solamente con los ocurridos en Mongolia (1988-1992) y en Nigeria (1982-1986), y mayor que todos los otros colapsos de las importaciones ocurridos en cuatro años en el mundo desde 1960. De hecho, las cifras venezolanas no muestran mitigación alguna: el declive de las importaciones fue casi igual al de las exportaciones.

Más aún, debido a que esta disminución de las importaciones que impuso el gobierno creó una escasez de materias primas y de insumos intermedios, el colapso de la agricultura y de la manufactura fue todavía peor que el del PIB total, con lo que los bienes de consumo de producción local cayeron en casi US$1.000 per cápita en los últimos 4 años.

Otras estadísticas confirman este funesto panorama. Entre 2012 y 2016, los ingresos fiscales no petroleros se desplomaron un 70% en términos reales. Y, durante el mismo periodo, la aceleración de la inflación hizo que los pasivos monetarios del sistema bancario cayeran un 79% medidos a precios constantes. Medido en dólares al tipo de cambio del mercado negro, el declive fue del 92%, de US$41 mil millones a solo US$3.300 millones.

Dado esto, inevitablemente el nivel de vida también ha colapsado. El sueldo mínimo –el que en Venezuela también es el ingreso del trabajador medio debido al alto número de personas que lo recibe– bajó el 75% (en precios constantes) entre mayo de 2012 y mayo de 2017. Medida en dólares del mercado negro, la reducción fue del 88%, de US$295 a solo US$36 al mes.

Medido en términos de la caloría más barata disponible, el sueldo mínimo cayó de 52.854 calorías diarias a solo 7.005 durante el mismo periodo, una disminución del 86,7% e insuficiente para alimentar a una familia de cinco personas, suponiendo que todo el ingreso se destine a comprar la caloría más barata. Con su sueldo mínimo, los venezolanos pueden adquirir menos de un quinto de los alimentos que los colombianos, tradicionalmente más pobres, pueden comprar con el suyo.

La pobreza aumentó del 48% en 2014 al 82% en 2016, según un estudio realizado por las tres universidades venezolanas de mayor prestigio. En este mismo estudio se descubrió que el 74% de los venezolanos había bajado un promedio de 8,6 kilos de peso de manera involuntaria. El Observatorio Venezolano de la Salud informa que en 2016 la mortalidad de los pacientes internados se multiplicó por diez, y que la muerte de recién nacidos en hospitales se multiplicó por cien. No obstante, el gobierno de Nicolás Maduro repetidamente ha rechazado ofertas de asistencia humanitaria.

El abierto ataque del gobierno de Maduro contra la libertad y la democracia está atrayendo merecidamente una mayor atención internacional. La Organización de Estados Americanos y la Unión Europea han emitido informes muy duros, y Estados Unidos hace poco anunció nuevas sanciones.

Pero los problemas de Venezuela no son solo de índole política. Abordar la extraordinaria catástrofe económica que ha causado el gobierno también va a requerir el apoyo concertado de la comunidad internacional.

La automatización y el futuro del empleo

Por Daron Acemoglu.

Nos encontramos en medio de grandes cambios transformadores en el mercado laboral en muchas economías desarrolladas. En el centro de esta transformación hay una ola de tecnologías basadas en el chip informático, que tienen como objetivo automatizar una serie de tareas antes realizadas por la fuerza de trabajo humana. Los avances en inteligencia artificial y robótica son la próxima fase potencialmente poderosa de esta ola. A pesar de los numerosos debates sobre la automatización y lo que significa para el futuro de los mercados laborales, estamos lejos de un marco integral donde estudiar cómo la automatización afecta el funcionamiento de los mercados laborales modernos, y de contar con un cuerpo de trabajo empírico que proporcione estimaciones confiables sobre su impacto en el empleo, los salarios y la productividad.

Este ensayo proporciona un panorama de un marco conceptual para comprender las implicancias de la automatización, y una breve discusión de algunos trabajos recientes sobre el impacto de la robotización en el mercado laboral de EE. UU. Comienzo con una breve recapitulación de la forma canónica en que los economistas y los macroeconomistas piensan sobre los efectos de las tecnologías, incluidas aquellas basadas en computadoras, sobre la desigualdad. Luego explico por qué este marco no solo es restrictivo, sino que va en contra de varios puntos clave de los mercados laborales de EE. UU., incluso aún más después de la aparición de las tecnologías de automatización. Tras delinear un marco alternativo y sus implicaciones en los salarios y el empleo, paso a una breve discusión acerca de la reciente evidencia de los efectos de un tipo destacado de tecnología de automatización, la robótica, sobre los salarios y el empleo.

TECNOLOGÍAS FACILITADORAS

El marco canónico utilizado por los macroeconomistas y los especialistas en el mercado laboral para pensar acerca de los efectos de la tecnología en los salarios y el empleo se puede resumir como la visión tecnológica facilitadora. Bajo esta visión, las nuevas tecnologías se conceptualizan como un factor que aumenta las capacidades de algunos trabajadores y les permite realizar nuevas funciones, aumentando así su productividad. Podría decirse que la primera computadora, el mecanismo de Antikythera, es un ejemplo de una tecnología facilitadora de la antigua Grecia alrededor del año 200 AC.

Este mecanismo permitió a los primeros astrónomos expertos calcular las posiciones de las estrellas y los planetas, un logro sorprendente que no hubiera sido posible sin esta tecnología. Los ejemplos modernos incluyen las máquinas de diseño asistido por computadora (CAD, por sus siglas en inglés), que aumentan la productividad de los trabajadores calificados, las tareas de diseño y la PC, que se han convertido en una ayuda indispensable para todo tipo de trabajadores administrativos y gerenciales.

Como estos ejemplos ilustran, incluso en la visión de tecnología facilitadora, las nuevas tecnologías ayudarán a ciertos tipos de trabajadores más que a otros y, por lo tanto, podrían generar un impacto en la desigualdad. De hecho, esta es la clave del marco canónico para el análisis del mercado laboral y la igualdad presentado por primera vez por el economista holandés Jan Tinbergen, que luego se desarrolla y se aplica de manera fructífera a los datos en muchos entornos.  Se obtiene una implicación importante de este marco al postular que la productividad y la demanda de trabajadores altamente calificados aumenta más rápidamente con el tiempo respecto de los trabajadores de baja calificación, aumentando la prima salarial del primer grupo. Sin embargo, esta tendencia puede ser contrarrestada por un aumento en la oferta de trabajadores altamente calificados, lo cual es la base de la famosa carrera de Tinbergen entre la tecnología y el suministro de educación. De acuerdo con esta perspectiva, las primas por  calificación y la desigualdad salarial aumentan cuando la tecnología evoluciona más rápidamente que la oferta de calificaciones, y se contrae cuando la oferta toma la delantera respecto a la tecnología.

Aunque este marco ha sido extremadamente útil para interpretar las tendencias generales en el mercado laboral de los Estados Unidos y otras economías avanzadas, enfrenta al menos tres desafíos fundamentales. El primero es que, a pesar de su éxito inicial en la descripción de los cambios en la prima universitaria (ingresos promedio de los trabajadores con estudios universitarios en relación a los de graduados de secundaria), este marco ha sido mucho menos exitoso recientemente.

En segundo lugar, y aún más críticamente, la visión de la tecnología facilitadora implica que cualquier mejora en la tecnología debería conducir a salarios más altos para todos los tipos de trabajadores. Pero la caída en los salarios de los trabajadores de educación baja ha sido la norma, no la excepción en los últimos 30 años en el mercado laboral de EE. UU. En particular, los salarios reales de los trabajadores con nivel educativo inferior al secundario, secundario completo o algún estudio universitario han caído bruscamente desde principios de los años setenta. La incapacidad de este marco canónico para explicar el fenómeno omnipresente de la disminución de los salarios reales de ciertos grupos de trabajadores es uno de sus defectos más discordantes.

En tercer lugar, una mirada más detallada a la distribución de los salarios muestra que existen dinámicas más ricas que las que pueden explicarse mediante un marco en el que la desigualdad se crea mediante el cambio de recompensas hacia un tipo de habilidad único y bien definido. En particular, los salarios muy bajos, el mediano y los muy altos se mueven de manera muy diferente en distintos períodos de tiempo. En particular, en contraste con la visión simple del cambio tecnológico sesgado hacia el trabajo calificado, no vemos una apertura de la brecha entre los salarios medianos y bajos. Por el contrario, después de un período de fuertes caídas en la parte inferior de la distribución salarial, hay un período prolongado desde mediados de los años ochenta hasta mediados de los noventa, donde los salarios en la base aumentan más rápidamente que los salarios en el medio de la distribución.

En contraste con una visión basada en que las tecnologías facilitadoras ayudan a los trabajadores más calificados, vemos un rápido crecimiento del empleo en la parte inferior de la distribución de salarios tanto en la década de 1990 como en la de 2000. El cuadro que surge a partir de esto, por lo tanto, es uno en el cual la economía está generando considerablemente más empleo en ocupaciones peor remuneradas que en ocupaciones en el medio de la distribución salarial.

Finalmente, también podemos verificar que esto no es solo un fenómeno de los EE. UU. Las ocupaciones de pago medio se han contraído en todos los países europeos entre 1993 y 2006, lo que sugiere fuertemente que los patrones de empleo que presenciamos en los Estados Unidos se deben a tendencias tecnológicas en común más que a factores idiosincrásicos de los EE.UU.

TECNOLOGÍAS SUSTITUTIVAS Y AUTOMATIZACIÓN

La alternativa al enfoque de las tecnologías facilitadoras es conceptualizar las nuevas tecnologías como reemplazos explícitos del trabajo en algunas tareas. Por supuesto, en la práctica, algunas tecnologías serán facilitadoras, al igual que el mecanismo de Antikythera o tecnologías de diseño asistido por ordenador, mientras que otras serán sustitutivas. La perspectiva en este ensayo es que muchas de las nuevas tecnologías que transforman el mercado laboral no son del tipo facilitador, sino que claramente reemplazan y desplazan al trabajo, y esto tiene consecuencias de gran alcance.

El clásico ejemplo histórico de tecnología sustitutiva es el Jacquard Loom, un telar mecánico inventado en 1801, que simplificó significativamente los intrincados procesos de la fabricación textil. Hoy en día, varias tecnologías de automatización basadas en computadoras, como los  cajeros automáticos, inventarios computarizados y máquinas de clasificación de correo son ejemplos de tecnologías de reemplazo. La mayoría de las principales tecnologías de reemplazo que ya comenzaron a extenderse en la economía son los robots industriales, que se encargan de varias tareas antes realizadas por trabajadores industriales semicalificados, y la inteligencia artificial, que promete reemplazar a los trabajadores en muchas ocupaciones especializadas que van desde asistentes legales hasta contadores e incluso algunos puestos de mando medio.

Conceptualmente, podemos dar sentido a la sustitución tecnológica abandonando la forma reducida de la relación entre la tecnología y los factores de producción utilizados anteriormente, y pensando en cambio en términos de tareas que deben realizarse para la producción.

Además de la riqueza descriptiva de este marco basado en tareas, tiene la ventaja de proporcionar un marco conceptual en el que los desafíos que enfrenta la visión de las tecnologías facilitadoras se pueden resolver fácilmente. En particular, en este marco:

  • En contraste con el marco estándar basado en tecnologías facilitadoras, la tecnología sustitutiva puede reducir los salarios. Esto se contrapone a las predicciones del modelo canónico que discutimos en la sección anterior. La clave es la diferencia entre las tecnologías facilitadoras y las sustitutivas. Como ya se señaló, las tecnologías facilitadoras, al aumentar un tipo de trabajo u otro, siempre aumentan la demanda de ambos factores de producción. Este no es el caso de las tecnologías de reemplazo. Incluso con un solo tipo de trabajo compitiendo contra la tecnología o el capital, una serie de tareas que cambian de trabajo a capital puede reducir los salarios. Este efecto se fortalece aún más si hay múltiples tipos de trabajo, y las nuevas tecnologías eliminan directamente algunas de las tareas realizadas por un tipo específico de trabajo (por ejemplo, trabajadores u operadores manufactureros semi-calificados).
  • Por las mismas razones que las articuladas en el punto anterior, las tecnologías de reemplazo desplazan a los trabajadores y pueden causar desempleo.
  • Si las nuevas tecnologías reemplazan las tareas ubicadas en el medio de la distribución salarial, causarán una polarización del empleo. Intuitivamente, estas nuevas tecnologías eliminarán las ocupaciones de pago medio y, por lo tanto, la distribución salarial general tendrá un sector medio más reducido, en cierto sentido “hueco”, causando polarización salarial. Curiosamente, debido a que los trabajadores desplazados del sector medio de la distribución salarial por la tecnología competirán con otros, los cambios en la estructura del empleo pueden deslindarse de los patrones de crecimiento salarial. Como resultado, podemos esperar encontrar un crecimiento más rápido del empleo en ocupaciones de menor remuneración, ya que los desplazados por la tecnología también buscan empleo en estas ocupaciones, lo que se confirma por los cambios en la estructura laboral que se muestran en la siguiente figura, pero esto no necesariamente implica un crecimiento salarial más rápido en estas ocupaciones en expansión.

También vale la pena señalar que la relevancia de las tecnologías de reemplazo también se debe al hecho de que muchas de las principales olas tecnológicas recientes, que han incluido avances en automatización, robótica e inteligencia artificial, se ajustan mucho más a la conceptualización de las nuevas tecnologías. De hecho, la expansión de los robots industriales es un caso de estudio perfecto para las tecnologías sustitutivas, el cual abordaremos a continuación.

ROBOTS, EMPLEOS Y SALARIOS

Entonces, ¿qué sabemos sobre los efectos de la automatización o, más específicamente, de los robots en los empleos y los salarios? ¿Tienden a aumentar los salarios para todos los tipos de trabajadores como implicaría el enfoque de las tecnologías facilitadoras? ¿O desplazan a muchos tipos de trabajadores, reduciendo su empleo y sus salarios como sostiene la visión de las tecnologías sustitutivas?

A pesar de la reciente ubicuidad de este tipo de tecnologías, sabemos sorprendentemente poco sobre estas cuestiones. La mayoría de lo que sabemos proviene de estudios que investigan qué tan factible es automatizar los trabajos existentes dados los avances tecnológicos actuales y presuntos. Por ejemplo, Frey y Osborne (2013) clasifican 702 ocupaciones según cuán susceptibles  son a la automatización en función del conjunto actual de tareas que realizan. Llegan a la conclusión de que en las próximas dos décadas, el 47 por ciento de los trabajadores estadounidenses estarán amenazados por la automatización. Un informe reciente de McKinsey aplica esta metodología de una manera algo diferente, pero llega a conclusiones similares: el 45 por ciento de los trabajadores estadounidenses están en riesgo de perder sus empleos debido a la automatización. El estudio de viabilidad del Banco Mundial supera estas estimaciones y considera que el 57 por ciento de los puestos de trabajo en los países de la OCDE podría automatizarse y disolverse en el transcurso de las próximas dos décadas.

Pero hay varias razones para no confiar plenamente en las conclusiones de estos estudios. Primero, es notoriamente difícil estimar qué empleos se pueden automatizar por completo. Por ejemplo, otro trabajo que utiliza la misma metodología, Arntz, Gregory, y Zierahn (2016), llega a una conclusión muy diferente, ya que mantiene que dentro de una ocupación, muchos trabajadores se especializan en tareas que no se pueden automatizar fácilmente. Su conclusión es que una vez que se tiene en cuenta este tipo de especialización, solo alrededor del 9 por ciento de los empleos en la OCDE están en riesgo. En segundo lugar, aún más fundamental, estos enfoques de viabilidad no tienen en cuenta las respuestas económicas de equilibrio. La viabilidad de la automatización de una tarea no implica que a las empresas les resultará rentable automatizarla. Y, lo que es más importante, los impactos completos (y discutiblemente interesantes) en el mercado laboral de las nuevas tecnologías dependen no solo de dónde la automatización y la robótica podrían tener un impacto directo, sino también de cómo se ajustará el resto de la economía. Durante varios episodios de grandes cambios tecnológicos (incluida la automatización rápida), otros sectores y ocupaciones, a veces nuevos, se han expandido, manteniendo el empleo y los salarios elevados.

Un trabajo reciente de Acemoglu y Restrepo (2017),  titulado ‘Los robots y el empleo: La evidencia de los mercados de trabajo de los Estados Unidos’, va más allá de estos estudios de factibilidad para estimar el impacto de equilibrio de los robots industriales sobre el empleo y los salarios. Los robots industriales están definidos por la Federación Internacional de Robótica (IFR) como “una máquina controlada, reprogramable y multipropósito”. Es decir, los robots industriales son máquinas que no necesitan un operador humano y que pueden programarse para realizar varias tareas manuales, como soldar, pintar, ensamblar, manejar materiales o empaquetar. Desde 1993, los robots industriales se han extendido en los puestos de trabajo, con un stock global que llega a más de 1,5 millones en la actualidad. La mayoría de los expertos calculan que los robots serán mucho más ubicuos en la próxima década.

Acemoglu y Restrepo (2017) se centran en los efectos de la robotización en el mercado laboral local. Su estrategia empírica se basa en una medición del cambio a partir de la exposición a los robots, construida con datos del IFR sobre el aumento en el uso de robots entre 19 industrias (aproximadamente a dos dígitos del clasificador industrial) y sus tasas de empleo en los censos antes del inicio de avances robóticos recientes (en la práctica, 1990). Esta medición del cambio por la exposición a los robots captura la variación en la distribución del empleo industrial por áreas alrededor de 1990. El razonamiento de esta medición proviene de un modelo simple de automatización y efectos de los robots industriales, que intuitivamente se basa en el hecho de que la incorporación de robots a nivel industrial  en los Estados Unidos estará relacionada con otras tendencias industriales o con las condiciones económicas en las zonas de conmutación especializadas de una industria, la relación entre la exposición a los robots y los resultados del mercado laboral podrían estar confundidas. Para solucionar este problema, Acemoglu y Restrepo (2017) utilizan los niveles industriales de propagación de los robots entre 1990 y 2007 en otras economías avanzadas, con el fin de representar las mejoras en las fronteras tecnológicas a nivel mundial de los robots, como un instrumento de tendencias de la industria en los Estados Unidos. Aunque no es una panacea por todas las fuentes de sesgos de variables omitidas, esta estrategia tiene la ventaja de centrarse en la variación que resulta únicamente de las industrias en las que el uso de robots ha sido concurrente en todas o en la mayoría de las economías avanzadas. Además, debido a que los datos a nivel industrial de IFR comienzan a partir del 2004 en los Estados Unidos, pero en 1993 en varios países europeos, esta estrategia también nos permite estudiar el impacto de los robots industriales desde 1990 hasta 2007.

El uso de esta estrategia conduce a estimaciones bastante precisas, grandes y negativas acerca del impacto de los robots sobre el empleo y los salarios, muy en línea con la visión mundial de las tecnologías de reemplazo. En particular, en las zonas que experimentaron el mayor aumento en la exposición a los robots, se calculan disminuciones de empleo y salarios entre 1990 y 2007. Hay muchas inquietudes respecto a la interpretación de estos resultados, especialmente debido a otros cambios que afectan a los mercados laborales locales en los Estados Unidos que se podrían confundir con los efectos de la robotización. Sin embargo, estas estimaciones parecen ser muy robustas después de controlar por la composición de la industria, características demográficas  y factores competitivos que afectan a los trabajadores en las zonas de conmutación, en particular, la exposición a las importaciones procedentes de China y la disminución de empleos rutinarios por el uso de softwares de procesamiento de datos. Quizás, lo que es más importante, la mayoría de las zonas de conmutación afectadas no parecen tener una tendencia diferencial antes de la aparición del creciente uso de los robots alrededor de 1990.

Cuantitativamente, estas estimaciones implican que un nuevo robot por cada mil trabajadores reduce la tasa empleo-población de Estados Unidos en 0.18-0.34 puntos porcentuales y los salarios promedio en 0.25-0.5 por ciento. Los efectos en el empleo son equivalentes a que, por cada nuevo robot hay una reducción del empleo agregado de aproximadamente tres trabajadores, lo que no resulta inverosímil.

Al parecer, los efectos de la robotización se concentran en las industrias más fuertemente automatizadas; en el trabajo manual rutinario, manual no rutinario y ocupaciones del tipo operarias (blue-collar); y en trabajadores con educación inferior a la universitaria. Los efectos en hombres y mujeres son similares, aunque algo mayores en los hombres.

CONCLUSIÓN

Para entender los cambios transformadores que nuestra economía y el mercado laboral están atravesando, debemos alejarnos de la manera canónica en que los economistas piensan la tecnología, como una corriente que arrastra todos los navíos. Muchas tecnologías, que este ensayo ha denominado “tecnologías sustitutivas”, desplazan a los trabajadores al reemplazar las tareas realizadas anteriormente mediante mano de obra humana por maquinarias. Pueden reducir, a corto y mediano plazo, los salarios y el empleo. Esto hace que sea crucial desarrollar un enfoque más amplio para estudiar el ajuste de la economía frente a las nuevas tecnologías, ya que el libre ajuste económico creará dificultades considerables para muchos trabajadores.

Tras proporcionar una breve descripción de esta estructura conceptual y de cómo difiere del enfoque canónico en la economía, este ensayo resumió el trabajo reciente sobre el efecto de un ejemplo de este tipo de sustitución de tecnología, los robots, sobre el empleo y los salarios. La evidencia indica grandes pérdidas de salarios y empleo como resultado de la introducción de robots industriales en el sector manufacturero.

 

 

Artículo publicado originalmente en idioma inglés en Technology Academics Policy en TNIT News. Agradecemos al equipo editorial y su autor, el profesor Daron Acemoglu, por autorizar su reproducción.  

 

Entrevista a Jean Tirole: “Hay que proteger al trabajador, no al empleo”

Un día, el economista francés Jean Tirole salió a la calle y la gente empezó a pararle en todas las esquinas. “Por favor, necesitamos un libro de economía que podamos entender”, le imploraban como si fuera un Mesías. Tirole había recibido en esos días el Premio Nobel de Economía (2014). Entonces decidió escribir un libro para el gran público. Le salió uno de 577 páginas que ha sido un éxito en Francia. Se titula La economía del bien común. Ahora se ha lanzado en España con la editorial Taurus. El libro se presentó en la Fundación Rafael del Pino de Madrid, donde tuvo lugar esta entrevista.

¿Y qué es la economía del bien común? “La economía no está ni al servicio de la propiedad privada y los intereses individuales, ni de los que querrían utilizar al Estado para imponer sus valores”, dice Tirole al comienzo del libro. “La economía está al servicio del bien común para lograr un mundo mejor“. Punto.
Tirole, nacido en Troyes en 1953, se graduó como ingeniero en la Escuela Politécnica de París, y luego obtuvo un doctorado en matemáticas en la Universidad París-Dauphine. Pero su gran empujón lo recibió cuando se fue a EEUU a estudiar al Massachusetts Institute of Technology (MIT), donde salió en 1981 con un doctorado en Ciencias Económicas. El libro explica al gran público parte de los trabajos que le hicieron ganar el Nobel. ¿Por qué la economía es tan difícil de entender? ¿Cuáles son los límites del mercado? ¿Por qué algunas medidas sociales tienen un reverso tenebroso? ¿Cuáles son los desafíos de las nuevas tecnologías? ¿Cuándo se debe parar los pies al Estado?

P: ¿Alguien le dio consejos para escribir para todos los públicos?
R: Es la primera vez que escribo para grandes audiencias. Yo había escrito para políticos, o expertos como economistas o empresas. El problema es que hablamos con jerga académica, y el inconveniente era producir algo que la gente pudiera entender, porque siempre damos las cosas por supuestas.
P: ¿No es esa postura parte de su idea de bien común?
R: Sí. Es importante extender nuestro conocimiento.
P: Usted dice en el libro que uno de los problemas de la crisis de 2008 fue que los economistas no informaron bien a la gente.
R: Por ejemplo, en España había una burbuja financiera y había expertos que lo sabían. El Banco de España lo avisó. Pero no fueron capaces de hacerlo entender a las grandes audiencias.
P: Usted empieza el libro hablando de los sesgos cognitivos, es decir, cómo nuestros razonamientos económicos están influidos por prejuicios ocultos.
R: Si no entendemos los sesgos cognitivos, será difícil comprender por qué la gente hace ciertas cosas: por qué postergamos nuestros deberes (procrastinar), o lo relativo al consumo de alcohol, los ahorros…
P: ¿Fue el Brexit un sesgo cognitivo?
R: No. Fue un caso claro de información imperfecta. Les hicieron creer a los británicos que lo harían mejor con el Brexit que sin el BrexitTenían una idea equivocada sobre lo que se ahorrarían si no aportaban nada al presupuesto de la UE. Y que el proteccionismo les beneficiaría.
P: Y que los inmigrantes les robaban el trabajo…
R: Mire: los inmigrantes no roban el trabajo. La gente no lo entiende porque cree que hay una cantidad limitada de empleo. A corto plazo, puede ser que haya una cantidad limitada de empleo, al igual que a corto plazo hay una cantidad limitada de libros. Pero, los países que tienen inmigrantes, no poseen un alto nivel de paro. EEUU, Escandinavia, Gran Bretaña y Alemania tienen muchos inmigrantes y bajas tasas de desempleo.
P: Resuélvame un enigma: ¿cómo es posible que muchos trabajadores norteamericanos crean que Trump les devolverá el empleo, cuando en ese país casi no hay desempleo,
R: Porque hay parte de EEUU que se ha vuelto muy rica y con elevados ingresos, pero los pobres sólo han tenido un incremento salarial del 6% en muchos años. La globalización ha hecho más rica a EEUU en general, pero ha sido desigual. Si alguien pierde su puesto de trabajo en el Medio Oeste, no va a encontrar un empleo parecido en un entorno parecido, sino que se tiene que trasladar a otro sitio, y cambiar de empleo. Eso ha creado descontento. Trump ha explotado ese descontento, ofreciendo las soluciones equivocadas.
P: La película Gran Torino, de Clint Eastwood, retrata a un trabajador retirado de Ford que se siente amenazado por los inmigrantes. ¿No le parece un retrato de EEUU?
R: Cierto. Cada país tiene sus propias películas sobre ese fenómeno. En Francia es La Loi du Marché [La ley del mercado]. Ganó un premio en Cannes. Es un desempleado que encuentra trabajo en un supermercado, pero en realidad ese empleo no se ajusta a sus capacidades, y se pelea con el jefe. Películas como esas reflejan lo que la gente ha sufrido con la evolución de la economía. Es una realidad. Yo soy partidario de la globalización, porque ha sido buena en general, pero no hemos prestado suficiente atención a los perdedores de esa globalización. Y los populistas lo están explotando de una manera equivocada.
P: En España hay nuevos partidos que lo están explotando.
R: España ha sufrido mucho la crisis económica. La gente hace bien en quejarse, pero no tanto en escoger las medidas adecuadas.
P: ¿Y qué le parece la crisis de Venezuela?
R: Venezuela es exactamente la forma más equivocada de hacer las cosas. Debería ser un país muy rico pues tienen las mayores reservas de petróleo del mundo, y es un país relativamente pequeño con 30 millones de habitantes.
P: Noruega tiene petróleo, es pequeña, pero es muy rica. Venezuela, no: ¿por qué?
R: Porque si usted escoge las políticas equivocadas puede empobrecer el país. Eso sucede con Corea del Norte y Sur. Sucedió con Alemania del Este y del Oeste. No es una diferencia de ingresos del 10% entre uno y otro. Es una diferencia bestial. En Francia hay gente que piensa que Venezuela es un modelo, y eso me extraña: no saben lo que realmente pasa allí. No ven lo que está detrás del telón.
P: En su libro habla sobre el impacto de la tecnología en el empleo. Si yo fuera un taxista, ¿me recomendaría Uber
R: Eso se va a quedar obsoleto muy pronto debido a la llegada de los coches autónomos. De aquí a 10 años, creo que no habrá taxis. Si eres taxista, hay dos formas de reaccionar ante Uber. O tratas de competir con Uber y ser más eficiente -y es lo que tratan de hacer los taxistas en París-, o bien bloqueas las calles sin cambiar tus costumbres -que es lo que están haciendo en Toulouse-. Me gusta el servicio de Uber porque es muy bueno. Claro que hay que nivelar algunas cosas con los taxis, como tener el mismo régimen de cotizaciones a la Seguridad Social. Pero es verdad que el servicio de taxis en Francia es muy malo, caro, de baja calidad y algunos te engañan.
P: ¿Qué pregunta debemos hacernos ante todo eso?
R: La pregunta crucial es cómo la economía digital va a cambiar tu trabajo y el mundo. Está cambiando todo. Tu empleo y el mío. Eso no es nuevo. Siempre ha habido una preocupación por el impacto de la tecnología en el empleo. Pero, antes, ese impacto era relativamente lento. Ahora es que lo hace muy rápidamente.
P: ¿Exponencialmente?
R: Sí: los trabajos están cambiando muy rápidamente. Por ejemplo, con la genética, los tests de sangre y las computadoras, vamos a tener diagnósticos médicos muy precisos. ¿Cómo va a ser el empleo del médico en 10 años? Completamente diferente. El trabajo de un profesor va a ser diferente. Quizá yo pierda mi trabajo como profesor en cinco o 10 años. Tenemos que prepararnos. Y aquí es donde surgen las soluciones buenas y malas. La mala es tratar de proteger los empleos. Como digo en mi libro, hay que proteger a los trabajadores, no a los empleos. Hay que proteger a la gente. Porque los empleos van a cambiar en el futuro. Hay que proteger a los trabajadores dándoles seguridad social, por supuesto, y además entrenamiento, educación… Creo que no invertimos lo suficiente en educación. Hay que tener una formación permanente, para que la gente aprenda nuevas habilidades. Y las tenemos que aprender todo el tiempo.
P: Si yo fuera un estudiante, ¿qué me recomendaría?
R: La educación también va a cambiar. Tendremos que enseñar a la gente cómo aprender más, y quizá no darles tanto conocimiento. En la Wikipedia ya puedes encontrar conocimiento. Incluso un médico con determinado software puede aprender genética y hacer tests. El conocimiento es algo menos importante, porque ya es accesible a todo el mundo inmediatamente a través de los ordenadores. Pensar es más importante. La manera en que pensamos, la manera en que adaptamos nuestro conocimiento para crear nuevas habilidades, es más importante. Tendremos que reentrenarnos todo el tiempo. No es fácil
P: ¿Me está diciendo que hay que aprender cómo aprender?
R: Hasta los profesores van a tener que adaptarse a esta tendencia. Cuando doy clase, trato de no darles a los estudiantes mucho conocimiento porque eso ya lo obtienen de los libros y de los artículos. Trato de decirles. “He aquí una situación: ¿qué piensas de eso? ¿Qué piensas de esa medida?”.
P: Como Sócrates. Ayudarles a pensar.
R: Les digo: “¿Cómo te enfrentas a este problema? ¿Qué se te ocurre?”. Eso es mucho más difícil que transmitir conocimiento. Enseñar conocimiento es muy fácil pues basta con que les leas tus papeles en clase. Pero, créame: no es nada fácil enseñar cómo pensar. Los profesores no están preparados para eso, pero es muy importante
P: ¿Y las consecuencias buenas de la tecnología?
R: A escala global, vamos a ser más ricos, con mejores servicios sanitarios, vamos a vivir más… Piense en los motores de búsqueda, los GPS de Waze, internet en general. Vamos a tener mejor tecnología que nos va a ayudar a combatir el envejecimiento y va a lograr el incremento de la riqueza en general. Pero habrá consecuencias con las que vamos a tener que lidiar: una de ellas es que se va a incrementar la desigualdad. Tanto dentro de los países, como entre países. Dentro de los países porque habrá una mayor demanda de las personas preparadas. Y entre los países, porque el talento se mueve de un país a otro. Eso es algo preocupante. Si se fija en las grandes nuevas firmas -Google, Apple, Microsoft-, todas ellas son inmensamente ricas, y con empleados ricos: el salario medio en Facebook es de dos millones de dólares al año. Y están todas en EEUU. Los que inventan cosas en otros países, hablan inglés y son globales. El peligro es que toda esa creatividad e innovación vaya a irse a unos pocos países.
P: ¿Ha recibido presiones de partidos o instituciones para alistarse?
R: Tengo claro que no voy a entrar en eso. En las elecciones de Francia suscribí una carta contra el populismo [se refiere contra Marine Le Pen]. Pero quiero permanecer aparte de la política, sea de derechas o izquierdas [Tirole no quiso hablar del programa de Macron]. Puedo dar consejos de forma privada, pero no apoyarles. Eso lo digo en el libro: no quiero ser alguien que apoye a algo. Sólo hablo de economía. Mi papel consiste en explicar. Es difícil porque si usted habla de economía, y si la derecha o la izquierda no están de acuerdo, eso significa que usted está a favor de ciertos políticos. Yo no participo en actos. Tengo mis valores como cualquier otro. Soy un economista y quiero permanecer en ese puesto.
P: ¿E independiente?
R: Independiente. Porque eso te da más poder.
P: Creo haber entendido en su libro que los desarrolladores hacen programas de códigos abiertos, porque son unos egoístas ya que, en el fondo, lo hacen para ser conocidos y ser contratados.
R: No me refiero a que sean egoístas de esa forma, sino que responden a incentivos. Muchos son verdaderamente generosos y quieren trabajar para el bien común. El otro incentivo es que sobresalen, porque al final esos programadores que ceden sus códigos son buenos programadores y al final son contratados en empresas como Google o Microsoft. Ese es el altruismo al que me refiero. Y por último, la imagen. Todos queremos ser vistos por los demás como buena gente, generosos, inteligentes… Todos reaccionamos a incentivos.

Jean Tirole

En 2014 le concedieron el nobel de economía

Estado civil: casado con Nathalie y padre de tres hijos

Edad: 63 años

Lugar de nacimiento: Troyes (francia)

Libro: ‘Pensar rápido, pensar despacio’, de Daniel Kahneman (editorial Debate).

Película: ‘La Loi du marché’ (La ley del mercado), de Stéphane Brizé

Proyecto de vida: divulgar economía

Ajuste Fiscal Post Crisis

La crisis financiera que comenzó en el verano de 2007, y se transformó en una aguda crisis económica mundial en el otoño de 2008, provocó una respuesta política masiva. Los gobiernos y los bancos centrales se embarcaron en estímulos monetarios y fiscales discrecionales. Tradicionalmente, el debate sobre política fiscal versus política monetaria se centró en la efectividad relativa de estos instrumentos. Sin embargo, otra cuestión importante, aunque menos debatida, es la capacidad que tienen los gobiernos de retrotraer el incremento del gasto público una vez finalizada la crisis. Esto es, una vez que las economías se recuperan, ¿se observan bajas importantes en el gasto real, o más bien este ajusta gradualmente su peso en la economía al nivel de pre-crisis como resultado de la recuperación económica?

En esta entrada voy a analizar, en forma descriptiva, la evolución del gasto real, su peso sobre el producto, la presión tributaria, el déficit fiscal y la deuda pública en relación al producto para un conjunto de países de la OECD durante la crisis de 2008 y los años posteriores.

Consideremos primero el caso de Estados Unidos. En cada caso estudiado presentamos las siguientes series: El panel izquierdo superior muestra el PBI real; el panel izquierdo inferior muestra el gasto público real; el panel derecho superior muestra el gasto en relación al producto, la presión tributaria (eje izquierdo) y el déficit fiscal en relación al producto (eje derecho). Finalmente, el panel derecho inferior muestra la deuda del gobierno en relación al producto bruto interno.

Figura 1: Estados Unidos

Para Estados Unidos, se ve claramente que la economía se desacelera en 2008 y se contrae en 2009, para retomar luego su trayectoria de crecimiento. Entre 2007 y 2009, el gasto real crece fuertemente, y desde 2010 baja muy suavemente. En el panel derecho superior, vemos que el gasto sobre el producto crece fuerte en los años de recesión y crisis, para volver a bajar, gradual, pero significativamente desde entonces. Esto es, el peso del gasto en la economía baja post-crisis principalmente como resultado del crecimiento y no de retrotraer fuertemente el gasto real total. Durante la crisis, también cae fuertemente la presión tributaria. La combinación de estos dos fenómenos da como resultado un incremento muy fuerte del déficit fiscal, y de la deuda del gobierno en relación al producto (panel derecho inferior). Vemos, también, que gradualmente se recupera la presión tributaria y el déficit fiscal vuelve a bajar, aunque en 2014 aún era mayor al nivel que tenía pre-crisis. La deuda, sin embargo, todavía no ha comenzado a bajar como resultado de la recuperación económica.

La Figura 2 muestra exactamente el mismo patrón de comportamiento para todas estas series en los Países Bajos. Lo mismo se observa en las Figuras 3 a 6 para el Reino Unido, Austria, Alemania y Dinamarca.

Figura 2: Países Bajos


 Figura 3: Reino Unido

Figura 4: Austria

Figura 5: Alemania

Figura 6: Dinamarca

El caso de Francia es un tanto diferente pues la suba del gasto real durante la crisis no es tan fuerte, aunque luego continúa creciendo hasta 2014 inclusive. La suba del gasto en relación al producto durante la crisis sí es significativa; observamos también que luego de la crisis el gasto se mantiene elevado y aún no muestra una tendencia decreciente. El déficit fiscal en relación al producto se recupera parcialmente gracias a una suba pronunciada de la presión tributaria a partir de 2010.

Figura 7: Francia

España, a su vez, también muestra una diferencia: Hasta 2014, su economía no se había recuperado de la crisis, y por lo tanto, el gasto sobre el producto, incluso en 2014, se mantenía en los niveles alcanzados en 2009.

Figura 8: España

 

En conclusión, entonces, vemos que, en términos generales, las economías respondieron a la crisis de 2008 aumentando el gasto público real significativamente, y siempre incrementaron el gasto en relación al producto, y el déficit fiscal. Luego, gradualmente, mantuvieron o bajaron solo muy levemente el nivel de gasto real, pero cuando crecieron, bajaron significativamente el gasto sobre el producto y el déficit fiscal. El gasto público parece entonces bastante persistente, y esto debe ser tenido en cuenta cuando se evalúa la conveniencia de utilizar el nivel de gasto público como política de estabilización.

***

Nota del editor: Sebastian Galiani es Secretario de Política Económica de la Nación Argentina.