Ley, censura y redes sociales
«La inminente regulación europea de las redes sociales nos enredará aún más en ellas»
Como apuntaba el Nobel Ronald Coase en 1974, el mercado de ideas falla más que los mercados de los demás bienes y servicios. Hay por ello más razones para regular el mercado de ideas que el de productos. Lo cual no significa, añadiría Coase, que en ninguno de ambos mercados la regulación sea necesariamente preferible a la libre contratación. La elección social ha de comparar el funcionamiento real del mercado, con y sin distintos tipos de regulación, huyendo de los apriorismos en que suele incurrir mucho economista, tanto liberal como socialdemócrata. Ambos son proclives al idealismo metodológico: el primero, idealiza el mercado; el segundo, la regulación. Armados con sus abrelatas idealistas, ambos alcanzan sus conclusiones con insólita rapidez, pues ni siquiera imaginan posibilidades alternativas: su receta idealizada siempre es superior.
Este discurso «coasiano» viene a cuento de que muchos observadores creemos ver hoy un grave fallo del mercado de ideas en el funcionamiento de las redes sociales.
Las empresas que las organizan tienen incentivos para desarrollar sus algoritmos de tal modo que maximicen sus beneficios, sin preocuparse por los daños o «externalidades negativas» que causan en la conformación de la opinión pública. Por ello toleran que las hordas tuiteras linchen a quienes consideran transgresores, con efectos graves en cuanto a cancelación y autocensura. Amplifican, asimismo, los códigos de opinión y conducta de minorías activistas. Lo más grave, consagran el contenido de dichos códigos como normas sociales, llenándolas de moralismo emocional sin respetar los controles y contrapesos a que debe sujetarse toda ley democrática antes de ser promulgada. (Esta misma semana, una política valenciana en apuros argüía que «la decencia y la línea ética no la marcan los tribunales»).
Asimismo, los directivos y empleados de esas empresas parecen estar en situación de imponer sus preferencias morales e ideológicas, mayoritariamente de izquierdas, a la hora de diseñar los contenidos de las plataformas audiovisuales o los algoritmos de moderación de las redes sociales.
En teoría, ante tales fallos del mercado, una buena regulación podría acercarnos al interés colectivo. Pero, de hecho, cada país despliega a este respecto estrategias muy diversas. El gobierno chino controla de forma exhaustiva las plataformas de internet. En el extremo opuesto, Estados Unidos confía en la autorregulación de las empresas privadas y en los litigios entre usuarios y empresas; aunque también abundan allí las propuestas regulatorias, como la formulada por el profesor Jonathan Haidt (NYU) en un ensayo publicado hace poco en The Atlantic.
Por su parte, las instituciones de la Unión Europea acaban de pactar una Ley de Servicios Digitales. Algunos consideran que será un hito en esta área, aunque cabe preguntarse por cuánto tiempo. La Unión Europea no cuenta con ninguna red o plataforma relevante en internet, por lo que su pretensión de convertirse en su principal regulador a escala global se asienta sólo en su papel como supuesto representante de un número sustancial de usuarios. Pero no nos engañemos: esa representatividad es dudosa y la importancia relativa de éstos a largo plazo depende de la propia competitividad de la economía europea. No basta con seguir viviendo de rentas.
Por lo demás, la Ley contiene varios elementos discutibles.
Primero, el legislador, consciente del coste que supondría un control centralizado (prevé contratar 230 nuevos funcionarios, muy pocos para las tareas encomendadas), opta por una regulación descentralizada, basada en repartir obligaciones y privilegios entre los agentes privados. Las plataformas no sólo habrán de cumplir determinados requisitos. También quedarán obligadas a que los usuarios y los «alertadores de confianza» o trusted flaggers puedan denunciar el contenido ilegal o inadecuado.
Los riesgos de esta solución descentralizada pero imperativa, son notables. Estos mecanismos de compliance, tanto auditoras como «alertadores» privados, por tratarse de organizaciones en competencia, tenderán a ser eficaces, pero se trata de una eficacia que lógicamente servirá sus propios intereses privados (ya sean lucrativos o ideológicos), que no necesariamente coinciden con el interés público ni conducen a una moderación neutral de las redes. Además, la Ley amplía así de nuevo el compliance normativo, un sector que ya presenta numerosos indicios de parasitismo, lo cual viene a renovar la tradición europea de vender indulgencias.
Por otro lado, obligar a las plataformas a permitir que los usuarios denuncien los contenidos «ilícitos» consagra el tipo de acoso que ya prolifera en la actualidad. Se abre así la puerta a que esas minorías activistas bien organizadas y mejor subvencionadas aumenten aún más su poder para imponer su particular concepción de lo que la sociedad debe tratar como ilegal. En el fondo, somete la confección del código moral a un referéndum en el que, por ser permanente, sólo participan las minorías más dispuestas al activismo, una fórmula en la que llevan las de ganar las posiciones extremas.
Convendría contemplar otras posibilidades, relativas al diseño de los algoritmos, como, por ejemplo, favorecer que las redes limiten la difusión mediante likes o, sobre todo, shares y retuits, como defendía Haidt en el ensayo mencionado anteriormente. Estaría ello en línea con la limitación de reenvíos puesta en marcha por WhatsApp, y que, según la propia red, redujo la «viralidad» un 70%. Se critica a menudo que las plataformas no tienen interés en introducir este tipo de limitación porque reduce la viralidad y, por tanto, el tráfico. Sin embargo, la propia adopción voluntaria de ese freno por WhatsApp indica que la de maximizar la viralidad no es necesariamente la estrategia que maximiza el valor de las plataformas.
Otras dos modificaciones importantes son las relacionadas con la proliferación personalidades ficticias o bots y, sobre todo, la conveniencia de que los sistemas de enforcement descentralizado evalúen la reputación de los denunciantes, como ya hacen plataformas tipo Airbnb, que evalúan a ambos contratantes. De hecho, el que redes como Twitter, aparentemente, no lo hayan hecho sugiere que sus decisiones de cancelación podrían guardar más relación con las preferencias ideológicas de sus empleados y gestores que con la opinión neutral de sus usuarios.
En esta línea, un exponente obvio de autorregulación es el intento de Elon Musk de tomar el control de Twitter. Además de su preferencia por la libertad de expresión, es probable que la oferta de Musk haya sido impulsada por la posibilidad de que la actual dirección de Twitter haya estado sesgada hacia la izquierda política, en línea con las preferencias de sus gerentes y empleados, reduciendo así sustancialmente el valor de mercado de la empresa. La OPA de Musk respondería así fundamentalmente al deseo de restaurar el valor de la empresa.
Proporciona un último ejemplo de mecanismos correctivos espontáneos el que, tras el intento de «cancelar» al comediante Dave Chapelle, Netflix (de cuyos empleados, nada menos que un 98% apoya políticamente al Partido Demócrata) haya revisado sus «directrices culturales» para advertirles de que deben estar dispuestos a trabajar en obras que «contrarían sus valores personales». Espera con esa advertencia que «los empleados puedan hacer mejores decisiones sobre si Netflix es o no el mejor sitio para ellos».
Estas iniciativas y el hecho de que las redes sociales sean tan jóvenes aconseja prudencia a la hora de regularlas. En general, se les debería permitir que desarrollasen sus propios mecanismos de autorregulación antes de saltar a aplicar unas reglas que, lejos de evitar sus principales problemas, corren el riesgo de agravarlos. Como ha sucedido en general en materia de consumo, el oportunismo regulador de la Unión Europea no augura nada bueno.