9/2/2023
El 2022 terminó con una noticia de la que se hablará durante todo el año: el lanzamiento al público de ChatGPT, un avanzado modelo de inteligencia artificial (IA) capaz de generar textos y resolver problemas complejos con un lenguaje natural y articulado. Tras la fascinación que desencadenó su lanzamiento, salieron a flote toda clase de preocupaciones, que van desde su impacto en la educación hasta el inicio de una nueva era de la desinformación en línea.
De acuerdo con un informe presentado por el Observatorio de Internet de la Universidad de Stanford, el Centro de Seguridad y Tecnologías Emergentes de Georgetown y OpenIA –la compañía que ha desarrollado ChatGPT y Dall-E– el avance de la inteligencia artificial supone riesgos para la difusión de operaciones de influencia e impone nuevos retos al control de la desinformación y al trabajo de los fact-checkers o verificadores de datos.
Paulatinamente el entorno digital se irá llenando de contenidos cuyo origen –humano o artificial– no estará del todo claro, ni tampoco sus motivaciones. Con estos modelos, que permiten crear textos naturales y elocuentes en pocos segundos, se abarata la posibilidad de iniciar y automatizar campañas de información engañosa y propagandística.
El engaño digital: riesgos del uso malintencionado de la IA
Pese a que ChatGPT cuenta con medidas de seguridad para evitar la difusión de información falsa y es capaz de reconocer algunas solicitudes que buscan inducir al error, estos modelos todavía tienen muchas limitaciones y pueden ser manipulados para producir resultados falsos. A pesar de sus avances, este tipo de tecnologías no están capacitadas para reconocer lo que es un hecho y lo que no es verdad. Además, dado que su entrenamiento se basa en datos existentes en línea, pueden perpetuar la desinformación y los sesgos existentes en esas fuentes.
Con un par de minutos en ChatGPT y las indicaciones correctas, no solo es posible crear textos engañosos, sino construir desde cero un falso ambiente noticioso y llenar de contenido páginas de medios de comunicación inexistentes con la apariencia de ser totalmente legítimos, como ya ha empezado a ocurrir.
La agilidad con la que estos modelos de lenguaje extenso pueden responder a las solicitudes hechas por humanos pone de manifiesto tres riesgos específicos:
Este nuevo escenario obliga a los fact-checkers a acudir a estrategias que logren acompasarse con los avances de la información engañosa y las operaciones de influencia diseñadas a través de la inteligencia artificial.
¿Cómo mitigar el daño?
En primer lugar, es importante utilizar herramientas que le permitan a los fact-checkers verificar el origen de un texto. La alarma de varios sectores respecto al impacto de la inteligencia artificial ha dado origen a diversos programas para identificar si un contenido es fruto de estos generadores. La propia OpenAI lanzó hace poco el AI Text Classifier en un esfuerzo por ofrecer una tecnología capaz de hacer esta clase de detección, pero la compañía advierte sobre sus limitaciones y su diagnóstico no siempre es acertado.
Más allá de este tipo de herramientas, también es posible entrenar modelos de inteligencia artificial especializados en encontrar afirmaciones falsas en un texto. Iniciativas de este tipo ya han sido puestas en marcha por organizaciones como Newtral –que tiene dentro de sus áreas de trabajo la verificación de datos– y socializadas en congresos de chequeadores en la región.
A su vez, es importante fomentar la educación y concientización sobre la desinformación y la manipulación de las herramientas de inteligencia artificial entre el público en general, incluyendo estrategias para identificar la información engañosa y métodos para protegerse de ella.
Una medida de fondo está además en la regulación de esta clase de herramientas. Mira Murati, CTO de OpenAI, ha declarado la necesidad de que los legisladores se involucren en el desarrollo de este tipo de tecnologías para prevenir que sean utilizadas con fines malintencionados.
A pesar de que la desinformación es un problema global, no hay todavía incentivos suficientes para trabajar por soluciones coordinadas. Como lo señala el ya citado informe de Stanford, Georgetown y OpenAI las compañías de tecnología, las autoridades públicas y los investigadores trabajan de manera independiente, con definiciones y recursos distintos –aunque en ocasiones complementarios–, sin capacidad para acordar una manera integral de abordar este fenómeno. Una regulación, por ejemplo, podría armonizar el trabajo de los actores involucrados para encontrar soluciones o estrategias integrales en la lucha contra la desinformación y las operaciones de influencia.
El informe también proporciona una serie de recomendaciones para aplicar a lo largo de distintas etapas de intervención, desde el diseño y construcción de los modelos, pasando por el acceso, la diseminación del contenido y la formación de públicos.
Referencias