Monthly Archives: Enero 2018

Modelos macroeconómicos. ¿De dónde venimos y hacia dónde vamos?

Desde mediados de los 1980s hasta el comienzo de la crisis financiera de 2008-2009, la teoría macroeconómica se mantuvo en una suerte de calma, de círculo virtuoso. Los economistas académicos estaban más o menos de acuerdo con respecto a ciertas estructuras fundamentales que los modelos debían satisfacer, y la investigación consistía en estudiar distintas desviaciones con respecto a esa estructura común. Usualmente, el estudio de estas desviaciones estaba motivado por alguna incapacidad del modelo básico para explicar cómo funciona la economía.

Dentro de esta evolución, una rama de la macroeconomía aplicada se esforzó en dotar de fundamentos microeconómicos a la idea tradicional de rigideces de precios y salarios nominales. Uno de los fines de esta agenda de investigación es el de capturar ciertas intuiciones keynesianas en modelos que no estén sujetos a (o más resguardados de) la crítica de Lucas.[1] Versiones de estos modelos (neo-keynesianos) se usan de manera habitual en los bancos centrales del mundo.[2]

¿Modelos para predecir o para evaluar cambios en la política económica? La crítica de Lucas.

La diferencia es fundamental. Si queremos predecir en un contexto de incertidumbre, pero sin grandes cambios estructurales en la economía, no es necesario usar modelos con fundamentos microeconómicos o internamente consistentes. Regresiones de series de tiempo de una o más variables, o estimaciones de sistemas de ecuaciones, son suficientes.  Estos son los que llamaré modelos en forma reducida y que son muy útiles para hacer predicciones.[3]

La situación es distinta si el objetivo es estudiar el impacto de cambios en la política económica. Cuando estimamos un modelo en forma reducida, los coeficientes estimados dependen del proceso por el cual los agentes económicos toman decisiones. Estas, a su vez, dependen de las reglas de política económica que rigen al momento de estimar las regresiones. Si cambiamos la regla de política económica, los agentes cambiarán sus decisiones y, por lo tanto, cambiarán los parámetros estimados del modelo en forma reducida. De este razonamiento surge que analizar cambios de política usando regresiones estimadas con las reglas anteriores al cambio darán resultados erróneos porque estas no tienen en cuenta que los agentes económicos responden a incentivos.[4]

Basta un ejemplo simple para comprender la crítica. Supongamos que nuestro ingreso es de 100 pesos y hay un impuesto del 20 por ciento sobre los ingresos. La recaudación es, entonces, de 20 pesos. Con esta estructura impositiva, concluimos que de cada 100 pesos de ingresos el estado recauda 20. Supongamos ahora que el gobierno aumenta el impuesto a 90 por ciento. Entonces, razona el analista poco ducho en la crítica de Lucas, la recaudación aumentará a 90 pesos por cada 100 pesos de ingresos.  Evidentemente, el razonamiento es erróneo porque los trabajadores no van a trabajar la misma cantidad de horas que antes del cambio impositivo. Esta lógica está, de una manera u otra, en todas las regresiones en forma reducida que relacionan variables económicas con instrumentos de política económica.

La crítica de Lucas junto con la revolución de las “expectativas racionales” de los 60s y 70s, impulsaron un cambio de paradigma en la manera de pensar la macroeconomía.[5] Se buscó trabajar con modelos internamente consistentes, con fundamentos microeconómicos y con sistemas de formación de expectativas tales que los actores económicos no pudiesen ser engañados sistemáticamente por otros agentes o por las autoridades monetaria y fiscal.[6]

La gran recesión y la “crisis” de la macroeconomía

Desde la irrupción de la crisis financiera de 2008-2009 la teoría macroeconómica está siendo cuestionada por muchos analistas. Las críticas van desde la incapacidad de los modelos para predecir la crisis hasta críticas sobre los supuestos fundamentales sobre los que se basan, por ejemplo, el mecanismo de formación de expectativas. Es usual escuchar la queja de que la teoría se mantuvo alejada de cuestiones relevantes de política económica y que los modelos no son más que una mera diversión donde los académicos compiten por ver quién tiene la idea más inteligente o forma elegante de resolver cierto problema. Economistas con contribuciones importantes a la economía, como Brad Delong, Paul Krugman o Paul Romer, se quejan de la “matematicidad” de los modelos económicos.[7] Y en su forma extrema, proponen eliminar de lleno la macroeconomía moderna y volver a modelos del estilo IS-LM o de los multiplicadores keynesianos.[8]

Críticas más amigables y constructivas se pueden encontrar en una serie de posts de Olivier Blanchard[9], Larry Christiano, y en el discurso del vicepresidente del Banco Central Europeo, Vítor Constâncio del 25 de septiembre.

¿Hacia dónde vamos?

Entender cómo funciona la economía para luego analizar cambios de política económica es difícil. Los agregados económicos se construyen sumando las decisiones de millones de hogares y empresas, las decisiones del sector público (cuyos actores tienen sus propios incentivos) y de agentes externos. Las decisiones, a su vez, se toman sujeto a una gran cantidad de restricciones: restricciones tecnológicas, restricciones presupuestarias, restricciones financieras, diferencias de información entre los distintos actores económicos y restricciones en la capacidad de procesar información o de hacer deducciones lógicas, entre otras.[10] ¿Implica lo anterior que debemos barajar y dar de nuevo volviendo, como proponen Krugman y otros, a modelos simples y estáticos como el IS-LM de Hicks escrito hace más de 80 años? No lo creo. Esos modelos fueron útiles en su momento, pero hemos aprendido mucho desde entonces. Preguntas complejas requieren de herramientas complejas; de más matemática, no de menos.

Los economistas no estuvieron 30 años dándose palmadas en la espalda congratulándose de lo bien que entienden el mundo. Siguieron estudiando formas de incorporar fricciones, heterogeneidades, problemas de información y diferentes mecanismos de formación de expectativas en los modelos. Muchas de esas novedades no llegaron a incorporarse a los modelos que usan los bancos centrales para tomar decisiones precisamente porque, hasta la irrupción de la crisis, no se consideraban imprescindibles. O porque todavía no habían pasado el principal test de relevancia: el tiempo.

La crisis financiera quizás ayudó a enfocar y acelerar ciertas investigaciones que ya se estaban produciendo de manera natural en las universidades. También ayudó a generar nuevas preguntas de investigación. Esta es precisamente la forma en que usualmente avanza la ciencia: hay algún hecho u observación que es difícil de explicar con la estructura aceptada por la mayoría y se construye sobre esa base.[11]

La comunicación entre academia, bancos centrales y economistas aplicados no se detuvo. En todo caso, aumentó durante los últimos años. Un ejemplo de interacción fructífera entre academia y trabajo aplicado es el siguiente. En el modelo canónico neo-keynesiano, la política monetaria se describe con una regla de Taylor por la cual la tasa de interés nominal aumenta cuando aumenta la inflación y disminuye cuando el producto se encuentra por debajo de su valor potencial. En un contexto donde la tasa de interés nominal es cero (desde fines de 2008 hasta fines de 2015 en Estados Unidos), es imposible seguir bajando la tasa de interés para “estimular” a la economía para que llegue a su nivel potencial. Una serie de trabajos de investigación se dedicaron a analizar los efectos de preanuncios de la política monetaria en el mediano y largo plazo (forward guidance) de tal manera de afectar las decisiones de los agentes hoy.[12] El impacto de preanuncios de política monetaria sobre la demanda agregada actual se da a través de la ecuación de Euler del consumo, que resume la decisión de los hogares de consumir hoy versus consumir en el futuro. Sin embargo, se observó que el efecto de los preanuncios monetarios predicho por los modelos tiende a ser demasiado fuerte en relación a los valores estimados.[13] Como respuesta a esta deficiencia empírica del modelo básico, algunos trabajos estudiaron desviaciones de expectativas racionales para reducir el impacto de los preanuncios monetarios sobre la demanda agregada de hoy.[14]

Este es solo un ejemplo, entre muchos, de la cooperación fructífera entre trabajo académico y aplicado. Hay muchos más y no es el objetivo de este post hacer un resumen de la literatura. Basta mencionar que no creo que la discusión fundamental sea la de neoclásicos versus keynesianos. El hecho de que históricamente los modelos macroeconómicos usaron la abstracción del agente representativo, de mercados financieros que funcionan más o menos bien, de horizontes de planeamiento infinito y del supuesto de expectativas racionales, parece más el resultado del avance lento pero constante de la ciencia, con sus idas y vueltas, que de prejuicios ideológicos alejados de toda evidencia empírica sobre cómo funciona el mundo.

Olivier Blanchard propone una separación entre los modelos teóricos que se producen en universidades y los modelos que se usan para tomar decisiones en los bancos centrales. Blanchard argumenta que, para tomar decisiones, no es necesario el nivel de consistencia interna que tienen los modelos que terminan publicados en las revistas de investigación de primer nivel, y que modelos con supuestos ad-hoc pueden ser muy útiles. Puede que lo sean, pero creo que el objetivo final de la ciencia es el de encontrar un modelo que sea internamente consistente y que pueda ser usado para la toma de decisiones. En el camino a esa meta, parece razonable usar una familia de modelos con distintos grados de formalidad (con más o menos fundamentos microeconómicos) para analizar cambios en la política económica y tomar decisiones informadas luego de ver todas las posibilidades.[15]

 

 

[1] Robert E. Lucas Jr. Econometric policy evaluation: a critique. Carnegie-Rochester Series on Public Policy, Vol 1, 1976, pp-19-46.

[2] Las referencias obligadas son Smets and Wouters (2003), “An estimated dynamic stochastic general equilibrium model of the euro area”, Journal of the European Economic Association, 1:5 (September), 1123-1175, y Christiano, Eichenbaum and Evans (2005), “Nominal rigidities and the dynamic effects of a shock to monetary policy,” Journal of Political Economy, vol 113, No. 1, 1-45. Una presentación reciente que explica métodos de resolución y estimación de modelos macroeconómicos neo-keynesianos se encuentra en Herbst and Schorfheide, “Bayesian Estimation of DSGE models,” Princeton University Press. 2016. Sin embargo, ver la crítica a estos modelos de John Cochrane.

[3] Que no necesariamente coincide con lo que un econometrista llama “la forma reducida de un modelo”.

[4] Para una visión más benigna de los métodos econométricos en forma reducida, ver Christopher Sims (1982) “Policy analysis with econometric models,” Brooking Papers on Economic Activity, 1, pp 109-132; y Thomas Sargent (1984) “Autoregressions, expectations, and Advice,” The American Economic Review, Vol 74, Issue 2, pp 408-415.

[5] Thomas Kuhn (1962) “La estructura de las revoluciones científicas,” University of Chicago Press.

[6] Esta es una manera muy informal de definir la teoría de expectativas racionales. Una discusión de la teoría de expectativas racionales, aprendizaje y modelos de racionalidad acotada requeriría de varios posts.

[7] Romer incluso afirma que muchos economistas usan fórmulas matemáticas complicadas adrede para ocultar ciertos prejuicios ideológicos en sus trabajos de investigación y que tienen una agenda política que va más allá de su honestidad académica.

[8] Pero ver la respuesta de John Cochrane a la crítica de Paul Krugman.

[9] Blanchard escribió tres artículos que se pueden encontrar aquí: primero, segundo y tercero.

[10] Ver también la evaluación de la macroeconomía moderna de Ricardo Reis.

[11] No creo que estemos en una situación de cambio de paradigma al estilo Kuhn.

[12] Ver la discusión de Ben Bernanke del 19 de noviembre de 2013; Gauti B. Eggerston and Michael Woodford (2003) “The zero bound on interest rates and optimal monetary policy,” Brooking Papers on Economic Activity, No 1; y J. Campbell, C. Evans, J. Fisher, and A. Justiniano (2012) “Macroeconomic effects of FOMC forward guidance,” Brooking papers on Economic Activity, vol 43 (spring) pp. 1-54.

[13] Del Negro, M. M. Giannoni, and C. Patterson (2015) “The Forward Guidance Puzzle”. Federal Reserve Bank of New York.  Alisdair McKay & Emi Nakamura & Jón Steinsson, 2016. “The Power of Forward Guidance Revisited,” American Economic Review, vol 106(10), pages 3133-3158

[14]Ver E. Farhi and I. Werning (2017) “Monetary Policy, Bounded Rationality, and Incomplete Markets” y Xavier Gabaix (2017) “A Behavioral New Keynesian Model.  La dificultad de alejarse de expectativas racionales es que fácilmente se entra en lo que se conoce como la “jungla de la irracionalidad”. El problema consiste en cómo modelar desviaciones de expectativas racionales sin ser completamente arbitrarios. Si uno puede manipular las expectativas de los agentes del modelo de manera arbitraria, uno puede explicar todo. Y un modelo que explica todo y no pone restricciones sobre sus predicciones es inútil; es el mapa perfecto de Borges.

[15] Quizás dando más peso a los modelos que predicen los peores resultados, como propone la teoría de control robusto de Lars Hansen y Thomas Sargent (2008) “Robustness.” Princeton University Press.

El colapso de Venezuela no tiene precedentes

El 16 de julio se celebró un plebiscito en Venezuela, organizado apresuradamente por la Asamblea Nacional, en la cual la oposición tiene mayoría. Su objetivo era rechazar el llamado del presidente Nicolás Maduro a formar una Asamblea Nacional Constituyente. En este evento, más de 720.000 venezolanos votaron en el exterior. En la elección presidencial de 2013, solamente lo hicieron 62.311. Cuatro días antes del referendo, 2.117 postulantes rindieron el examen para obtener su licencia médica en Chile. De estos, casi 800 eran venezolanos. Y el sábado 22 de julio, se reabrió la frontera con Colombia. En un solo día, 35.000 venezolanos cruzaron el estrecho puente entre los dos países para adquirir alimentos y medicamentos.

Es evidente que los venezolanos quieren escapar, y no es difícil entender por qué. En todo el mundo los medios de comunicación han estado informando acerca de Venezuela, documentando situaciones verdaderamente terribles, con imágenes de hambre, desesperacióne ira. La cubierta de la revista The Economist del 29 de julio lo resume así: “Venezuela en caos“.

Pero, ¿se trata simplemente de otra aguda recesión cualquiera o de algo más grave?

El indicador que más se usa para comparar recesiones es el PIB. De acuerdo al Fondo Monetario Internacional, en 2017 el PIB de Venezuela se encuentra el 35% por debajo de los niveles de 2013, o en un 40% en términos per cápita. Esta contracción es significativamente más aguda que la de la Gran Depresión de 1929-1933 en Estados Unidos, cuando se calcula que su PIB per cápita cayó el 28%. Es levemente más alta que el declive de Rusia (1990-1994), Cuba (1989-1993) y Albania (1989-1993), pero menor que la sufrida en ese mismo período en otros antiguos estados soviéticos, como Georgia, Tayikistán, Azerbaiyán, Armenia y Ucrania, o en países devastados por guerras como Liberia (1993), Libia (2011), Ruanda (1994), Irán (1981) y, más recientemente, el Sudán del Sur.

Dicho de otro modo, la catástrofe económica de Venezuela eclipsa cualquier otra de la historia de Estados Unidos, Europa Occidental, o el resto de América Latina. No obstante, las cifras mencionadas subestiman en extremo la magnitud del colapso, según lo revela una investigación que hemos venido realizando con Miguel Ángel Santos, Ricardo Villasmil, Douglas Barrios, Frank Muci y José Ramón Morales en el Center for International Developmentde la Universidad de Harvard.

Claramente, una disminución del 40% en el PIB per cápita es un hecho muy poco frecuente. Pero en Venezuela hay varios factores que hacen que la situación sea aún peor. Para empezar, si bien la contracción del PIB venezolano (en precios constantes) entre 2013 y 2017 incluye una reducción del 17% en la producción de petróleo, excluye la caída del 55% en el precio del crudo durante ese mismo periodo. Entre 2012 y 2016, las exportaciones de petróleo se desplomaron US$2.200 per cápita, de los cuales US$1.500 obedecieron al declive del precio del crudo.

Estas cifras son exorbitantes dado que el ingreso per cápita en Venezuela en 2017 es menos de US$4.000. Es decir, si bien el PIB per cápita cayó el 40%, el declive del ingreso nacional, incluyendo el efecto precio, es del 51%

Típicamente, los países mitigan estas caídas de precios de exportación ahorrando dinero en tiempos de vacas gordas, para luego utilizar esos ahorros o pedirlos prestados en tiempos de vacas flacas, de modo que el declive de las importaciones no sea tan grande como el del las exportaciones. Pero Venezuela no pudo hacer esto debido a que había aprovechado el auge del petróleo para sextuplicar su deuda externa. El despilfarro en la época de las vacas gordas dejó pocos activos que se pudieran liquidar en el periodo de las vacas flacas, y los mercados no estuvieron dispuestos a otorgar créditos a un prestatario con tal exceso de deuda.

Tenían razón: en la actualidad Venezuela es el país más endeudado del mundo. No hay otra nación con una deuda pública externa tan alta como proporción de su PIB o de sus exportaciones, o que enfrente un servicio de la deuda más alto como proporción de sus exportaciones.

Sin embargo, de modo similar a Rumania bajo Nicolae Ceauşescu en la década de1980, el gobierno decidió recortar las importaciones para poder permanecer al día en el servicio de su deuda externa, lo que repetidamente sorprendió al mercado, el que esperaba una reestructuración. Como consecuencia, las importaciones de bienes y servicios per cápita cayeron en un 75% en términos reales (ajustados según la inflación) entre 2012 y 2016, con un declive aún mayor en 2017.

Este colapso es comparable solamente con los ocurridos en Mongolia (1988-1992) y en Nigeria (1982-1986), y mayor que todos los otros colapsos de las importaciones ocurridos en cuatro años en el mundo desde 1960. De hecho, las cifras venezolanas no muestran mitigación alguna: el declive de las importaciones fue casi igual al de las exportaciones.

Más aún, debido a que esta disminución de las importaciones que impuso el gobierno creó una escasez de materias primas y de insumos intermedios, el colapso de la agricultura y de la manufactura fue todavía peor que el del PIB total, con lo que los bienes de consumo de producción local cayeron en casi US$1.000 per cápita en los últimos 4 años.

Otras estadísticas confirman este funesto panorama. Entre 2012 y 2016, los ingresos fiscales no petroleros se desplomaron un 70% en términos reales. Y, durante el mismo periodo, la aceleración de la inflación hizo que los pasivos monetarios del sistema bancario cayeran un 79% medidos a precios constantes. Medido en dólares al tipo de cambio del mercado negro, el declive fue del 92%, de US$41 mil millones a solo US$3.300 millones.

Dado esto, inevitablemente el nivel de vida también ha colapsado. El sueldo mínimo –el que en Venezuela también es el ingreso del trabajador medio debido al alto número de personas que lo recibe– bajó el 75% (en precios constantes) entre mayo de 2012 y mayo de 2017. Medida en dólares del mercado negro, la reducción fue del 88%, de US$295 a solo US$36 al mes.

Medido en términos de la caloría más barata disponible, el sueldo mínimo cayó de 52.854 calorías diarias a solo 7.005 durante el mismo periodo, una disminución del 86,7% e insuficiente para alimentar a una familia de cinco personas, suponiendo que todo el ingreso se destine a comprar la caloría más barata. Con su sueldo mínimo, los venezolanos pueden adquirir menos de un quinto de los alimentos que los colombianos, tradicionalmente más pobres, pueden comprar con el suyo.

La pobreza aumentó del 48% en 2014 al 82% en 2016, según un estudio realizado por las tres universidades venezolanas de mayor prestigio. En este mismo estudio se descubrió que el 74% de los venezolanos había bajado un promedio de 8,6 kilos de peso de manera involuntaria. El Observatorio Venezolano de la Salud informa que en 2016 la mortalidad de los pacientes internados se multiplicó por diez, y que la muerte de recién nacidos en hospitales se multiplicó por cien. No obstante, el gobierno de Nicolás Maduro repetidamente ha rechazado ofertas de asistencia humanitaria.

El abierto ataque del gobierno de Maduro contra la libertad y la democracia está atrayendo merecidamente una mayor atención internacional. La Organización de Estados Americanos y la Unión Europea han emitido informes muy duros, y Estados Unidos hace poco anunció nuevas sanciones.

Pero los problemas de Venezuela no son solo de índole política. Abordar la extraordinaria catástrofe económica que ha causado el gobierno también va a requerir el apoyo concertado de la comunidad internacional.

La automatización y el futuro del empleo

Por Daron Acemoglu.

Nos encontramos en medio de grandes cambios transformadores en el mercado laboral en muchas economías desarrolladas. En el centro de esta transformación hay una ola de tecnologías basadas en el chip informático, que tienen como objetivo automatizar una serie de tareas antes realizadas por la fuerza de trabajo humana. Los avances en inteligencia artificial y robótica son la próxima fase potencialmente poderosa de esta ola. A pesar de los numerosos debates sobre la automatización y lo que significa para el futuro de los mercados laborales, estamos lejos de un marco integral donde estudiar cómo la automatización afecta el funcionamiento de los mercados laborales modernos, y de contar con un cuerpo de trabajo empírico que proporcione estimaciones confiables sobre su impacto en el empleo, los salarios y la productividad.

Este ensayo proporciona un panorama de un marco conceptual para comprender las implicancias de la automatización, y una breve discusión de algunos trabajos recientes sobre el impacto de la robotización en el mercado laboral de EE. UU. Comienzo con una breve recapitulación de la forma canónica en que los economistas y los macroeconomistas piensan sobre los efectos de las tecnologías, incluidas aquellas basadas en computadoras, sobre la desigualdad. Luego explico por qué este marco no solo es restrictivo, sino que va en contra de varios puntos clave de los mercados laborales de EE. UU., incluso aún más después de la aparición de las tecnologías de automatización. Tras delinear un marco alternativo y sus implicaciones en los salarios y el empleo, paso a una breve discusión acerca de la reciente evidencia de los efectos de un tipo destacado de tecnología de automatización, la robótica, sobre los salarios y el empleo.

TECNOLOGÍAS FACILITADORAS

El marco canónico utilizado por los macroeconomistas y los especialistas en el mercado laboral para pensar acerca de los efectos de la tecnología en los salarios y el empleo se puede resumir como la visión tecnológica facilitadora. Bajo esta visión, las nuevas tecnologías se conceptualizan como un factor que aumenta las capacidades de algunos trabajadores y les permite realizar nuevas funciones, aumentando así su productividad. Podría decirse que la primera computadora, el mecanismo de Antikythera, es un ejemplo de una tecnología facilitadora de la antigua Grecia alrededor del año 200 AC.

Este mecanismo permitió a los primeros astrónomos expertos calcular las posiciones de las estrellas y los planetas, un logro sorprendente que no hubiera sido posible sin esta tecnología. Los ejemplos modernos incluyen las máquinas de diseño asistido por computadora (CAD, por sus siglas en inglés), que aumentan la productividad de los trabajadores calificados, las tareas de diseño y la PC, que se han convertido en una ayuda indispensable para todo tipo de trabajadores administrativos y gerenciales.

Como estos ejemplos ilustran, incluso en la visión de tecnología facilitadora, las nuevas tecnologías ayudarán a ciertos tipos de trabajadores más que a otros y, por lo tanto, podrían generar un impacto en la desigualdad. De hecho, esta es la clave del marco canónico para el análisis del mercado laboral y la igualdad presentado por primera vez por el economista holandés Jan Tinbergen, que luego se desarrolla y se aplica de manera fructífera a los datos en muchos entornos.  Se obtiene una implicación importante de este marco al postular que la productividad y la demanda de trabajadores altamente calificados aumenta más rápidamente con el tiempo respecto de los trabajadores de baja calificación, aumentando la prima salarial del primer grupo. Sin embargo, esta tendencia puede ser contrarrestada por un aumento en la oferta de trabajadores altamente calificados, lo cual es la base de la famosa carrera de Tinbergen entre la tecnología y el suministro de educación. De acuerdo con esta perspectiva, las primas por  calificación y la desigualdad salarial aumentan cuando la tecnología evoluciona más rápidamente que la oferta de calificaciones, y se contrae cuando la oferta toma la delantera respecto a la tecnología.

Aunque este marco ha sido extremadamente útil para interpretar las tendencias generales en el mercado laboral de los Estados Unidos y otras economías avanzadas, enfrenta al menos tres desafíos fundamentales. El primero es que, a pesar de su éxito inicial en la descripción de los cambios en la prima universitaria (ingresos promedio de los trabajadores con estudios universitarios en relación a los de graduados de secundaria), este marco ha sido mucho menos exitoso recientemente.

En segundo lugar, y aún más críticamente, la visión de la tecnología facilitadora implica que cualquier mejora en la tecnología debería conducir a salarios más altos para todos los tipos de trabajadores. Pero la caída en los salarios de los trabajadores de educación baja ha sido la norma, no la excepción en los últimos 30 años en el mercado laboral de EE. UU. En particular, los salarios reales de los trabajadores con nivel educativo inferior al secundario, secundario completo o algún estudio universitario han caído bruscamente desde principios de los años setenta. La incapacidad de este marco canónico para explicar el fenómeno omnipresente de la disminución de los salarios reales de ciertos grupos de trabajadores es uno de sus defectos más discordantes.

En tercer lugar, una mirada más detallada a la distribución de los salarios muestra que existen dinámicas más ricas que las que pueden explicarse mediante un marco en el que la desigualdad se crea mediante el cambio de recompensas hacia un tipo de habilidad único y bien definido. En particular, los salarios muy bajos, el mediano y los muy altos se mueven de manera muy diferente en distintos períodos de tiempo. En particular, en contraste con la visión simple del cambio tecnológico sesgado hacia el trabajo calificado, no vemos una apertura de la brecha entre los salarios medianos y bajos. Por el contrario, después de un período de fuertes caídas en la parte inferior de la distribución salarial, hay un período prolongado desde mediados de los años ochenta hasta mediados de los noventa, donde los salarios en la base aumentan más rápidamente que los salarios en el medio de la distribución.

En contraste con una visión basada en que las tecnologías facilitadoras ayudan a los trabajadores más calificados, vemos un rápido crecimiento del empleo en la parte inferior de la distribución de salarios tanto en la década de 1990 como en la de 2000. El cuadro que surge a partir de esto, por lo tanto, es uno en el cual la economía está generando considerablemente más empleo en ocupaciones peor remuneradas que en ocupaciones en el medio de la distribución salarial.

Finalmente, también podemos verificar que esto no es solo un fenómeno de los EE. UU. Las ocupaciones de pago medio se han contraído en todos los países europeos entre 1993 y 2006, lo que sugiere fuertemente que los patrones de empleo que presenciamos en los Estados Unidos se deben a tendencias tecnológicas en común más que a factores idiosincrásicos de los EE.UU.

TECNOLOGÍAS SUSTITUTIVAS Y AUTOMATIZACIÓN

La alternativa al enfoque de las tecnologías facilitadoras es conceptualizar las nuevas tecnologías como reemplazos explícitos del trabajo en algunas tareas. Por supuesto, en la práctica, algunas tecnologías serán facilitadoras, al igual que el mecanismo de Antikythera o tecnologías de diseño asistido por ordenador, mientras que otras serán sustitutivas. La perspectiva en este ensayo es que muchas de las nuevas tecnologías que transforman el mercado laboral no son del tipo facilitador, sino que claramente reemplazan y desplazan al trabajo, y esto tiene consecuencias de gran alcance.

El clásico ejemplo histórico de tecnología sustitutiva es el Jacquard Loom, un telar mecánico inventado en 1801, que simplificó significativamente los intrincados procesos de la fabricación textil. Hoy en día, varias tecnologías de automatización basadas en computadoras, como los  cajeros automáticos, inventarios computarizados y máquinas de clasificación de correo son ejemplos de tecnologías de reemplazo. La mayoría de las principales tecnologías de reemplazo que ya comenzaron a extenderse en la economía son los robots industriales, que se encargan de varias tareas antes realizadas por trabajadores industriales semicalificados, y la inteligencia artificial, que promete reemplazar a los trabajadores en muchas ocupaciones especializadas que van desde asistentes legales hasta contadores e incluso algunos puestos de mando medio.

Conceptualmente, podemos dar sentido a la sustitución tecnológica abandonando la forma reducida de la relación entre la tecnología y los factores de producción utilizados anteriormente, y pensando en cambio en términos de tareas que deben realizarse para la producción.

Además de la riqueza descriptiva de este marco basado en tareas, tiene la ventaja de proporcionar un marco conceptual en el que los desafíos que enfrenta la visión de las tecnologías facilitadoras se pueden resolver fácilmente. En particular, en este marco:

  • En contraste con el marco estándar basado en tecnologías facilitadoras, la tecnología sustitutiva puede reducir los salarios. Esto se contrapone a las predicciones del modelo canónico que discutimos en la sección anterior. La clave es la diferencia entre las tecnologías facilitadoras y las sustitutivas. Como ya se señaló, las tecnologías facilitadoras, al aumentar un tipo de trabajo u otro, siempre aumentan la demanda de ambos factores de producción. Este no es el caso de las tecnologías de reemplazo. Incluso con un solo tipo de trabajo compitiendo contra la tecnología o el capital, una serie de tareas que cambian de trabajo a capital puede reducir los salarios. Este efecto se fortalece aún más si hay múltiples tipos de trabajo, y las nuevas tecnologías eliminan directamente algunas de las tareas realizadas por un tipo específico de trabajo (por ejemplo, trabajadores u operadores manufactureros semi-calificados).
  • Por las mismas razones que las articuladas en el punto anterior, las tecnologías de reemplazo desplazan a los trabajadores y pueden causar desempleo.
  • Si las nuevas tecnologías reemplazan las tareas ubicadas en el medio de la distribución salarial, causarán una polarización del empleo. Intuitivamente, estas nuevas tecnologías eliminarán las ocupaciones de pago medio y, por lo tanto, la distribución salarial general tendrá un sector medio más reducido, en cierto sentido “hueco”, causando polarización salarial. Curiosamente, debido a que los trabajadores desplazados del sector medio de la distribución salarial por la tecnología competirán con otros, los cambios en la estructura del empleo pueden deslindarse de los patrones de crecimiento salarial. Como resultado, podemos esperar encontrar un crecimiento más rápido del empleo en ocupaciones de menor remuneración, ya que los desplazados por la tecnología también buscan empleo en estas ocupaciones, lo que se confirma por los cambios en la estructura laboral que se muestran en la siguiente figura, pero esto no necesariamente implica un crecimiento salarial más rápido en estas ocupaciones en expansión.

También vale la pena señalar que la relevancia de las tecnologías de reemplazo también se debe al hecho de que muchas de las principales olas tecnológicas recientes, que han incluido avances en automatización, robótica e inteligencia artificial, se ajustan mucho más a la conceptualización de las nuevas tecnologías. De hecho, la expansión de los robots industriales es un caso de estudio perfecto para las tecnologías sustitutivas, el cual abordaremos a continuación.

ROBOTS, EMPLEOS Y SALARIOS

Entonces, ¿qué sabemos sobre los efectos de la automatización o, más específicamente, de los robots en los empleos y los salarios? ¿Tienden a aumentar los salarios para todos los tipos de trabajadores como implicaría el enfoque de las tecnologías facilitadoras? ¿O desplazan a muchos tipos de trabajadores, reduciendo su empleo y sus salarios como sostiene la visión de las tecnologías sustitutivas?

A pesar de la reciente ubicuidad de este tipo de tecnologías, sabemos sorprendentemente poco sobre estas cuestiones. La mayoría de lo que sabemos proviene de estudios que investigan qué tan factible es automatizar los trabajos existentes dados los avances tecnológicos actuales y presuntos. Por ejemplo, Frey y Osborne (2013) clasifican 702 ocupaciones según cuán susceptibles  son a la automatización en función del conjunto actual de tareas que realizan. Llegan a la conclusión de que en las próximas dos décadas, el 47 por ciento de los trabajadores estadounidenses estarán amenazados por la automatización. Un informe reciente de McKinsey aplica esta metodología de una manera algo diferente, pero llega a conclusiones similares: el 45 por ciento de los trabajadores estadounidenses están en riesgo de perder sus empleos debido a la automatización. El estudio de viabilidad del Banco Mundial supera estas estimaciones y considera que el 57 por ciento de los puestos de trabajo en los países de la OCDE podría automatizarse y disolverse en el transcurso de las próximas dos décadas.

Pero hay varias razones para no confiar plenamente en las conclusiones de estos estudios. Primero, es notoriamente difícil estimar qué empleos se pueden automatizar por completo. Por ejemplo, otro trabajo que utiliza la misma metodología, Arntz, Gregory, y Zierahn (2016), llega a una conclusión muy diferente, ya que mantiene que dentro de una ocupación, muchos trabajadores se especializan en tareas que no se pueden automatizar fácilmente. Su conclusión es que una vez que se tiene en cuenta este tipo de especialización, solo alrededor del 9 por ciento de los empleos en la OCDE están en riesgo. En segundo lugar, aún más fundamental, estos enfoques de viabilidad no tienen en cuenta las respuestas económicas de equilibrio. La viabilidad de la automatización de una tarea no implica que a las empresas les resultará rentable automatizarla. Y, lo que es más importante, los impactos completos (y discutiblemente interesantes) en el mercado laboral de las nuevas tecnologías dependen no solo de dónde la automatización y la robótica podrían tener un impacto directo, sino también de cómo se ajustará el resto de la economía. Durante varios episodios de grandes cambios tecnológicos (incluida la automatización rápida), otros sectores y ocupaciones, a veces nuevos, se han expandido, manteniendo el empleo y los salarios elevados.

Un trabajo reciente de Acemoglu y Restrepo (2017),  titulado ‘Los robots y el empleo: La evidencia de los mercados de trabajo de los Estados Unidos’, va más allá de estos estudios de factibilidad para estimar el impacto de equilibrio de los robots industriales sobre el empleo y los salarios. Los robots industriales están definidos por la Federación Internacional de Robótica (IFR) como “una máquina controlada, reprogramable y multipropósito”. Es decir, los robots industriales son máquinas que no necesitan un operador humano y que pueden programarse para realizar varias tareas manuales, como soldar, pintar, ensamblar, manejar materiales o empaquetar. Desde 1993, los robots industriales se han extendido en los puestos de trabajo, con un stock global que llega a más de 1,5 millones en la actualidad. La mayoría de los expertos calculan que los robots serán mucho más ubicuos en la próxima década.

Acemoglu y Restrepo (2017) se centran en los efectos de la robotización en el mercado laboral local. Su estrategia empírica se basa en una medición del cambio a partir de la exposición a los robots, construida con datos del IFR sobre el aumento en el uso de robots entre 19 industrias (aproximadamente a dos dígitos del clasificador industrial) y sus tasas de empleo en los censos antes del inicio de avances robóticos recientes (en la práctica, 1990). Esta medición del cambio por la exposición a los robots captura la variación en la distribución del empleo industrial por áreas alrededor de 1990. El razonamiento de esta medición proviene de un modelo simple de automatización y efectos de los robots industriales, que intuitivamente se basa en el hecho de que la incorporación de robots a nivel industrial  en los Estados Unidos estará relacionada con otras tendencias industriales o con las condiciones económicas en las zonas de conmutación especializadas de una industria, la relación entre la exposición a los robots y los resultados del mercado laboral podrían estar confundidas. Para solucionar este problema, Acemoglu y Restrepo (2017) utilizan los niveles industriales de propagación de los robots entre 1990 y 2007 en otras economías avanzadas, con el fin de representar las mejoras en las fronteras tecnológicas a nivel mundial de los robots, como un instrumento de tendencias de la industria en los Estados Unidos. Aunque no es una panacea por todas las fuentes de sesgos de variables omitidas, esta estrategia tiene la ventaja de centrarse en la variación que resulta únicamente de las industrias en las que el uso de robots ha sido concurrente en todas o en la mayoría de las economías avanzadas. Además, debido a que los datos a nivel industrial de IFR comienzan a partir del 2004 en los Estados Unidos, pero en 1993 en varios países europeos, esta estrategia también nos permite estudiar el impacto de los robots industriales desde 1990 hasta 2007.

El uso de esta estrategia conduce a estimaciones bastante precisas, grandes y negativas acerca del impacto de los robots sobre el empleo y los salarios, muy en línea con la visión mundial de las tecnologías de reemplazo. En particular, en las zonas que experimentaron el mayor aumento en la exposición a los robots, se calculan disminuciones de empleo y salarios entre 1990 y 2007. Hay muchas inquietudes respecto a la interpretación de estos resultados, especialmente debido a otros cambios que afectan a los mercados laborales locales en los Estados Unidos que se podrían confundir con los efectos de la robotización. Sin embargo, estas estimaciones parecen ser muy robustas después de controlar por la composición de la industria, características demográficas  y factores competitivos que afectan a los trabajadores en las zonas de conmutación, en particular, la exposición a las importaciones procedentes de China y la disminución de empleos rutinarios por el uso de softwares de procesamiento de datos. Quizás, lo que es más importante, la mayoría de las zonas de conmutación afectadas no parecen tener una tendencia diferencial antes de la aparición del creciente uso de los robots alrededor de 1990.

Cuantitativamente, estas estimaciones implican que un nuevo robot por cada mil trabajadores reduce la tasa empleo-población de Estados Unidos en 0.18-0.34 puntos porcentuales y los salarios promedio en 0.25-0.5 por ciento. Los efectos en el empleo son equivalentes a que, por cada nuevo robot hay una reducción del empleo agregado de aproximadamente tres trabajadores, lo que no resulta inverosímil.

Al parecer, los efectos de la robotización se concentran en las industrias más fuertemente automatizadas; en el trabajo manual rutinario, manual no rutinario y ocupaciones del tipo operarias (blue-collar); y en trabajadores con educación inferior a la universitaria. Los efectos en hombres y mujeres son similares, aunque algo mayores en los hombres.

CONCLUSIÓN

Para entender los cambios transformadores que nuestra economía y el mercado laboral están atravesando, debemos alejarnos de la manera canónica en que los economistas piensan la tecnología, como una corriente que arrastra todos los navíos. Muchas tecnologías, que este ensayo ha denominado “tecnologías sustitutivas”, desplazan a los trabajadores al reemplazar las tareas realizadas anteriormente mediante mano de obra humana por maquinarias. Pueden reducir, a corto y mediano plazo, los salarios y el empleo. Esto hace que sea crucial desarrollar un enfoque más amplio para estudiar el ajuste de la economía frente a las nuevas tecnologías, ya que el libre ajuste económico creará dificultades considerables para muchos trabajadores.

Tras proporcionar una breve descripción de esta estructura conceptual y de cómo difiere del enfoque canónico en la economía, este ensayo resumió el trabajo reciente sobre el efecto de un ejemplo de este tipo de sustitución de tecnología, los robots, sobre el empleo y los salarios. La evidencia indica grandes pérdidas de salarios y empleo como resultado de la introducción de robots industriales en el sector manufacturero.

 

 

Artículo publicado originalmente en idioma inglés en Technology Academics Policy en TNIT News. Agradecemos al equipo editorial y su autor, el profesor Daron Acemoglu, por autorizar su reproducción.