¿IA y RRSS son maléficas, maquiavélicas y traicioneras? 

¡Feliz 2024!

Quería comenzar este año partiendo de una reflexión personal que leía estos días de vacaciones que me he dado escrita por Begoña García Llamas en su muro de LinkedIn y que, a la vez, es producto del informe Dangerous by design, elaborado por Council for Responsible Media en diciembre 2023).

Begoña titulaba su post  ESTRATEGIA PARA CREAR ADICCIÓN: No llegamos aquí por accidente y me pareció estupendo cogerlo como percha para comenzar con mis reflexiones de 2024, un año en el que – creo – la inteligencia artificial y las redes sociales estarán, junto a la empleabilidad y la salud mental, en boca de muchas personas. 

Begoña comentaba, muy acertadamente, desde mi punto de vista, que las redes sociales están siguiendo el mismo camino que las grandes tabacaleras y los fabricantes de opioides, es decir, traslada la idea de que los modelos de negocio de las grandes empresas de redes sociales consisten en maximizar los ingresos publicitarios a toda costa, una estrategia nada novedosa aunque el producto sí lo sea. 

Según la autora, la estrategia es la siguiente: 

1. Diseñar un producto adictivo.

2. Comercializarlo como seguro y saludable para todos (especialmente para los niños).

3. Aumentar las ganancias.

4. Usar las ganancias para financiar investigaciones sesgadas que demuestren lo saludable que es el producto.

5. Suprimir la investigación interna que demuestre lo contrario.

6. Cuando la verdad comience a emerger y el público comience a hablar sobre el daño causado, señalar con el dedo a otra parte. 

Mientras que los fabricantes de opioides culparon a los usuarios, las grandes empresas tecnológicas han dicho que la responsabilidad de proteger a los niños de sus productos adictivos recae en los padres. 

7. Y cuando todo lo demás falle, contratar a un ejército de grupos de presión e inundar el proceso de campaña [electoral] con dinero para anular cualquier acción.

Y, es que, es importante tener muy presente que las empresas tecnológicas han gastado decenas de millones de dólares en financiar investigaciones académicas relacionadas con problemas regulatorios y éticos de sus productos. La propia Google es un ejemplo de esto, pues ha financiado más de 300 trabajos de investigación sobre la regulación tecnológica. Y otro ejemplo más es que las grandes empresas tecnológicas están trabajando a puerta cerrada para influir en la retórica, el tono y los resultados finales de la investigación tecnológica en beneficio de sus propios objetivos financieros. 

Meta (empresa matriz de Facebook) y Alphabet (empresa matriz de Google) se gastaron sólo en 2023 la friolera de treinta y dos millones de dólares lobbies y se combinaron para emplear a 171 lobbists; o, lo que es lo mismo, aproximadamente un lobbist por cada tres personas miembro del Congreso estadounidense. 

En paralelo (y esto me ha hecho recordar un artículo de la Consultora de Derecho TIC y Protección de Datos en Secure&IT, Ana Fernández, de hace varias semanas y publicado en el periódico 20 minutos llamado Por qué es importante regular la inteligencia artificial: 5 claves para entender cómo te van a afectar las normas de Europa) sabemos que el uso de sistemas como ChatGPT o la automatización de procesos son claros ejemplos de la preocupación que Europa tiene sobre el uso de la IA. 

Empiezo a reflexionar este año ¿por qué nos da tanto reparo la inteligencia artificial pero no las redes sociales?; ¿por qué regulamos que se preste especial atención a la calidad de los datos, la seguridad, la transparencia, la privacidad, la no discriminación y la supervisión humana en el uso de inteligencia artificial pero no nos ponemos como objetivo garantizar que las redes sociales en Europa cumplan con los más altos estándares, en consonancia con los valores y derechos fundamentales de la Unión Europea?

No soy un ningún experto en la materia pero hay cosas que a mí me chirrían porque no se hablan demasiado en público, especialmente entre la clase política, que es quien al final regula legislativamente la realidad, como, por ejemplo, por qué no se han establecido niveles de riesgo en las redes sociales. Y no lo digo desde un plano tecnológico y de seguridad como en la IA, sino en un plano socio-cultural y de salud mental. O por qué no se fijan sanciones en las redes sociales a perfiles que incitan al odio. 

Si el pasado agosto, el Consejo de Ministras y Ministros aprobó el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), y convirtió a España en el primer país europeo con una entidad de supervisión de IA, anticipándose a la entrada en vigor del Reglamento Europeo de Inteligencia Artificial, ¿por qué el Gobierno no reflexiona también sobre el papel de las redes sociales y su uso? Obviamente, no podemos comparar una realidad con la otra, ¡no tienen nada que ver! pero para un mundo mayoritariamente analógico, todo lo que se encuentre dentro de un dispositivo electrónico es lo mismo, por lo que en mi opinión se debe buscar una transición educacional completa para que todos estos cambios tan drásticos y rápidos sean comprensibles para el común de los mortales.