¿Cómo nos dividen las redes sociales y sus algoritmos?
La semana pasada, el Senado de los Estados Unidos acogió a varios vicepresidentes de empresas de redes sociales como Facebook, Twitter o YouTube. El objetivo era alertar sobre los peligros potenciales del sesgo algorítmico y la amplificación. Esa reunión pronto se pareció más a un circo partidista de quejas grandilocuentes, pero el problema sigue sin resolverse y preocupa por sus implicaciones.
“Las plataformas de redes sociales utilizan algoritmos que dan forma a lo que miles de millones de personas leen, miran y piensan todos los días, pero sabemos muy poco sobre cómo funcionan estos sistemas y cómo afectan a nuestra sociedad”,
dijo el senador Chris Coons.
Pueden impulsar la polarización de ideas políticas, y podrían convertirse en el punto de encuentro y propagación de ideas radicales. El problema es cómo controlar todo esto sin caer en ataques hacia la libertad de expresión, el derecho de reunión o el de privacidad.
Los algoritmos han impulsado nuestra libertad de información, pero también tienen el riesgo de ponerla en peligro. Así se ha visto desde que se han empezado a detectar fake news, y por eso hay gobiernos que buscan evitarlo, controlando este tipo de tecnología.
El problema es si hay alguien se pueda erigir en defensor oficial de la verdad, pues parece sospechoso cualquier estado que intente crear un Ministerio en su defensa.
El Dr. Brandie Nonnecke, Director del Laboratorio de Políticas de CITRIS en UC Berkeley explicaba hace unos días que las empresas de redes sociales
“saben que necesitan ser más transparentes en lo que sucede en sus plataformas, pero creo firmemente que, para que esa transparencia sea genuina, debe haber colaboración entre las plataformas y la revisión por pares independientes, investigación empírica.”
Según él, hace falta la perspectiva de expertos sin intereses que puedan condicionar su enfoque, investigadores independientes que puedan analizar las plataformas y su comportamiento, pensando en el interés de los usuarios.
Lamentablemente esto es más fácil de imaginar que de realizar, precisamente por culpa de las limitaciones de acceso a información que pueden tener analistas ajenos, que no pueden saltarse las políticas de privacidad de los usuarios como la GDPR o la Ley de Privacidad del Consumidor de California.
Además, hay dificultades de tipo técnico que tampoco resultan fáciles de superar en cuanto a la interpretación de los algoritmos de inteligencia artificial. En palabras de Yavar Bathaee, de Harvard Journal of Law & Technology:
“La IA que se basa en algoritmos de aprendizaje automático, como las redes neuronales profundas, puede ser tan difícil de entender como el cerebro humano”.
Por tanto, no hay una forma sencilla de trazar el proceso de toma de decisiones de estas complejas redes de neuronas artificiales.
Cuando se trata de hacer recomendaciones personalizadas de productos en un ecommerce parecen muy útiles los algoritmos, pero también tienen peligros. Por ejemplo, los que recomiendan grupos de Facebook pueden facilitar la propagación de algún grupo extremista.
Si bien Facebook publica regularmente sus esfuerzos continuos para eliminar las publicaciones de grupos de odio y reprimir su coordinación utilizando su plataforma, incluso los propios informes internos de la compañía argumentan que no han hecho lo suficiente para detener la ola de extremismo en su red social.
Como señala la periodista y autora de Culture Warlords Talia Lavin, la plataforma de Facebook ha sido una bendición para los esfuerzos de reclutamiento de los grupos de odio.
Los algoritmos de recomendación de Facebook cuentan con menos limitaciones que los mecanismos que este tipo de organizaciones podían tener en el pasado a nivel analógico. Por eso la única forma de frenarlo es desactivar este tipo de grupos activamente, para evitar que ocurra, por ejemplo, una anarquía indecible durante una elección presidencial polémica.
“Ciertamente, en los últimos cinco años, hemos visto este aumento desenfrenado del extremismo que creo que realmente tiene mucho que ver con las redes sociales, y sé que los algoritmos son importantes”,
dijo Lavin.
Las teorías de la conspiración o cualquier retórica extremista campan a sus anchas en Twitter, Facebook y las demás redes sociales. Se expanden como un virus las ideas más variadas, sean contrastadas y constructivas, o falsas noticias e ideas destructivas.
Para ver ejemplos de esto, solo hay que mirar la respuesta fallida de Facebook a Stop the Steal, un movimiento online que surgió después de las elecciones y al que se le atribuye el mérito de alimentar la insurrección del 6 de enero en Capitol Hill.
Como descubrió una revisión interna, la empresa no reconoció adecuadamente la amenaza ni tomó las medidas adecuadas en respuesta. Las pautas de Facebook están orientadas en gran medida a detectar comportamientos no auténticos como spam, cuentas falsas, cosas de esa naturaleza, pero no están preparados para frenar organizaciones de odio.
“Cuando las empresas de redes sociales amplifican contenido extremo y engañoso en sus plataformas, las consecuencias pueden ser mortales, como vimos el 6 de enero. Es hora de que el Congreso intervenga y responsabilice a estas plataformas “.
Así señaló la congresista Anna G. Eshoo en un comunicado de prensa.
Por eso se han asociado para enmendar la Sección 230 de la Ley de Decencia en las Comunicaciones, la ley que inmuniza a las empresas de tecnología de la responsabilidad legal asociada con el contenido generado por el usuario, de modo que las empresas sean responsables si sus algoritmos amplifican la información errónea que conduce a la violencia fuera de línea.
El problema es si realmente se puede responsabilizar a plataformas como Facebook de ello, al tiempo que es difícil pensar que vayan a poder controlarlo. Al mismo tiempo, cabe plantearse si puede haber intereses por parte de las instituciones para poder encontrar pretextos de control de las tecnológicas, que a fin de cuentas amenazan su poder.
¿Dónde queda el usuario en todo esto? Tal vez con todas estas acciones se puedan reducir las organizaciones de odio, aunque como mucho se podrán frenar. Lo que es seguro es que si las medidas tomadas no se hacen con criterios objetivos y neutrales, el que podría salir perdiendo es el usuario y su libertad en línea.