Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
Entrevista

Carmela Ríos, periodista: “X es ahora una plataforma dedicada a un uso ideológico, geopolítico y, casi diría, militar”

La periodista Carmela Ríos

Antonio Florenciano

Murcia —

0

La periodista Carmela Ríos, referente en el análisis del impacto de las redes sociales y la desinformación, alerta sobre la evolución de X, la antigua Twitter, bajo la gestión de Elon Musk. Con una dilatada trayectoria profesional que abarca medios como El País, El Mundo, CNN o Antena 3, Ríos ha documentado cómo las plataformas digitales se han convertido en herramientas poderosas de manipulación y propaganda. Premio Ortega y Gasset de Periodismo Digital en 2012 por su cobertura del 15M en Twitter, su experiencia y conocimiento del entorno digital la sitúan como una de las voces más autorizadas para hablar sobre la crisis de credibilidad que afecta a las redes sociales y el periodismo.

Este lunes impartió el taller práctico 'Navegar el Caos: cómo dominar, gestionar y aprovechar la información en redes sociales' organizado por la Facultad de Comunicación y Documentación de la Universidad de Murcia (UMU) y la Universidad Politécnica de Cartagena (UPCT), en colaboración con el Proyecto Innovacom. Un evento imprescindible para quienes buscan entender mejor el entorno hostil e impredecible de las redes sociales.

Has dedicado muchos años a explorar la interacción entre periodismo y redes sociales. ¿Cómo ha cambiado la llegada de Elon Musk a X (antes Twitter) la dinámica de la información y el discurso público?

Twitter ya era una red social imperfecta y, desde la llegada de Elon Musk, es mucho más que eso, porque también se ha convertido en una plataforma tecnológica dedicada a un uso ideológico, geopolítico y, casi diría, militar.

La gran diferencia que hemos encontrado es que una plataforma concebida inicialmente para facilitar la comunicación entre la gente y fomentar un diálogo global que abriese debates, ahora muestra un panorama distinto. Muchas de esas herramientas para el diálogo aún existen, pero han quedado sepultadas bajo una conversación mucho más ideologizada, impulsada por Musk y también distorsionada por otro gran fenómeno de estos últimos años: la emergencia social y la irrupción de los discursos de odio y la desinformación, que han terminado por redefinir profundamente los contornos de esa red social.

En tus artículos analizas cómo la inteligencia artificial (IA) y las nuevas tecnologías pueden manipular la opinión pública. ¿Consideras que las regulaciones actuales son suficientes o estamos completamente desprotegidos frente a estos riesgos?

El problema respecto a la inteligencia artificial y otras tecnologías tan disruptivas es la hipervelocidad. Es decir, todos estos progresos tecnológicos han llegado rápidamente e impactan con mucha fuerza. El ritmo de aparición de nuevas formas de IA, nuevas herramientas y nuevos usos posibles, tanto de la inteligencia artificial como de otras tecnologías, es tan acelerado que no nos da tiempo, como humanos, a asimilarlas, aprenderlas ni aplicarlas. Esto coloca al mundo y a las sociedades en una dinámica de procesos formativos rápidos, vertiginosos y que no respetan los ritmos humanos del conocimiento.

Si esto ocurre con el aprendizaje, el problema se agrava aún más cuando hablamos de la legislación. Es muy difícil que una normativa pueda responder exactamente al uso que se hace de una tecnología en un momento preciso. Creo que, en esta era de la tecnología permanente e hiperveloz, las leyes tienen un componente de obsolescencia casi orgánico, casi inevitable, porque es muy complicado que los legisladores y las normativas puedan adaptarse a esa velocidad.

No podemos pretender, quizá, que las entidades asuman cambios tan profundos, los comprendan, identifiquen sus desafíos para una sociedad como la nuestra y legislen al respecto. Por lo tanto, proteger con un cuerpo normativo este tsunami tecnológico es un desafío monumental.

También has abordado la desinformación promovida por actores rusos y cómo ésta es un problema grave para las democracias occidentales, como por ejemplo ha sido en Rumanía. ¿Crees que se está haciendo lo suficiente desde Europa para combatir estas injerencias o se podría hacer más?

Sufrimos en Europa un retraso notable a la hora de percibir y calibrar en toda su dimensión la amenaza que Rusia y su dominio de la desinformación suponen para nuestras sociedades y nuestras democracias.

En este sentido, existe un informe de 2017 elaborado por la Asamblea Parlamentaria de la OTAN que incide precisamente en este retraso. Un antiguo responsable de la Seguridad Nacional estadounidense cifró ese retraso en aproximadamente diez años de diferencia entre Occidente y Rusia en materia de desinformación.

Occidente sufre un retraso de diez años con respecto a la amenaza de Rusia en materia de desinformación

Ese retraso en la identificación de la amenaza y en la puesta en marcha de una respuesta ágil a nivel europeo nos está pasando factura, como hemos visto en numerosos procesos electorales desde 2017. Este problema sigue manifestándose en contextos recientes, como el ejemplo de Rumanía.

Creo que ahora la injerencia rusa ya no es una posibilidad, sino una realidad difusa y difícil de combatir en la que llevamos desventaja. Aunque hemos dado un primer paso al reconocer que tenemos un problema, pero aún queda mucho por hacer.

El reglamento de medios que está impulsando el Gobierno y otras medidas dentro del Plan de Acción por la Democracia, ¿pueden servirnos para “establecer un espacio digital seguro”?

Va a ser difícil que ese trabajo se realice de forma individual. Más bien, ese reglamento de medios debe surgir necesariamente de un trabajo compartido por parte de todos los sectores profesionales e, incluso, de la ciudadanía.

Me sentiría más cómoda con una mayor implicación de los medios de comunicación y de las asociaciones profesionales en la elaboración de ese código. Sin embargo, lo que sí tenemos claro es que para construir un espacio digital seguro necesitamos la participación de todos los sectores y de la ciudadanía porque todos estamos involucrados.

No podemos afirmar que la desinformación sea solo un peligro para los periodistas, para un sector determinado o únicamente para la clase política. Creo que, como hemos sufrido durante los últimos diez años, la desinformación es una amenaza que afecta a ámbitos muy diversos de la vida de las personas: el ámbito familiar, emocional, intelectual, político, social... Es una amenaza lo suficientemente importante como para que intentemos resolverla desde todos los estamentos de la sociedad.

Has documentado casos impactantes de desinformación y manipulación, y no solo política, sino también de cosmeticorexia o publicidad que suplanta famosos. ¿Cuál consideras que ha sido el caso más grave o ejemplar con el que te has encontrado?

Es muy difícil elegir entre tantos casos de desinformación que afectan a sectores tan vulnerables de la sociedad, y a otros no tan vulnerables. Pero, para mí, los más dolorosos son siempre los que se refieren a gente muy joven.

Hemos visto cómo, por ejemplo, en Instagram y X, el algoritmo favorece la conversación relacionada con problemas de trastornos alimentarios o permite que adolescentes en situación de vulnerabilidad caigan en una burbuja negra y tenebrosa de comunicación con otras personas en la misma situación, lo cual solo alimenta su malestar.

Hay casos trágicos de suicidios de adolescentes que, separados de sus familias en momentos de rebeldía, encontraban consuelo en sus cuentas de Instagram cuando cerraban la puerta de su habitación. Hablaban sobre suicidarse, sobre morir, o sobre la muerte, en lugar de buscar ayuda en su entorno cercano.

Los padres sufren enormemente y se culpan porque no fueron capaces de detectar lo que estaba ocurriendo en el móvil de sus hijos, desconocían que su hijo llevaba, entre comillas, una doble vida con otras personas, tratando temas que se les escapaban completamente. Los padres se torturan pensando que no hicieron bien su trabajo.

Los procesos de formación de los padres son muy importantes. Deben saber que las redes sociales pueden ser peligrosas para un joven y que tienen dinámicas que pueden empujarlos a burbujas que, a veces, son inocentes, pero que, en otros casos, como el de la anorexia o el de jóvenes con tendencias suicidas o con pocas ganas de vivir, las consecuencias son terribles.

Tienes una estrecha relación con Francia, donde fuiste corresponsal, y está siendo un territorio especialmente vulnerable al uso de las redes sociales por parte de la ultraderecha. ¿Qué opinión te merece la utilización que figuras como Jordan Bardella, del Reagrupamiento Nacional, hacen de plataformas como por ejemplo TikTok para edulcorar su mensaje y conectar con públicos jóvenes?

El caso francés no es diferente al de otros candidatos, jóvenes y no tan jóvenes, que han hecho uso de TikTok para llegar y conectar con la audiencia joven. Pero es cierto que Jordan Bardella ha conseguido algo que su partido necesitaba urgentemente.

Venimos de dos liderazgos muy potentes: el de Jean-Marie Le Pen, con un discurso mucho más ultra y una imagen más bélica; y después, su hija Marine Le Pen, que representa una imagen más civilizada de la extrema derecha, pero que ya tenía sus años.

Bardella tiene el perfil de un joven hecho a sí mismo, un chico del aparato muy listo, bien parecido, que tiene todo lo necesario para conectar con la gente, especialmente porque él es un usuario nativo de redes sociales, un hijo de las redes que sabe exactamente qué se puede y qué se debe hacer para captar la atención del público.

Ha explotado, por un lado, su imagen de galán joven, guapo y elegante, lo cual ha conectado muy bien con un montón de gente joven, incluidas muchas mujeres. Y, por otro lado, ha proyectado esa imagen edulcorada y rejuvenecida que su partido de extrema derecha necesitaba para ampliar su margen de votantes y ofrecer una apariencia de renovación que un partido anclado en el pasado difícilmente podría alcanzar.

Etiquetas
stats