La "explosión en el pentágono", la Inteligencia Artificial y la nueva desinformación

Mar, 30 Mayo 2023
La difusión de noticias falsas en las plataformas de redes sociales plantea un desafío importante para la preservación de la confianza pública
La IA generativa permite aprovechar las enormes cantidades de información digital que existen, reconociendo patrones y creando combinaciones que producen nueva información
  • Imagen falsa del Pentágono bajo ataque provocó confusión en días recientes.
Por: 
Dr. Edward Bermúdez Macías*

Si la difusión de noticias falsas en las plataformas de redes sociales plantea un desafío importante para la preservación de la confianza pública, con el reciente acceso abierto a la Inteligencia Artificial (IA) generativa, la capacidad para generar contenidos audiovisuales con mayor realismo aumenta la frecuencia y el impacto de incidentes de desinformación.

En 2017 se presentaba al falso Barack Obama, un contenido “realista” hecho con IA por investigadores de la Universidad de Washington,  como una prueba del desarrollo de estas tecnologías y como una posibilidad para, de manera inversa, detectar la manipulación de imágenes, videos y sonidos. Sin embargo, el acceso público a estas herramientas a través de aplicaciones que facilitan su uso abrió la posibilidad de que circulen contenidos que terminan desinformando con o sin intención premeditada. Para el público general lo más conocido del reciente fenómeno de aplicaciones IA es ChatGPT, que principalmente genera información textual, pero no es el único.

Aplicaciones como Midjourney para generación de imágenes han dado ya oportunidad a incidentes donde sus resultados son considerados con la veracidad de una fotografía. Basta recordar las imágenes del Papa Francisco usando una chamarra estilo Balenciaga, y la polémica que se desató, o el falso arresto de Trump, donde herramientas para detectar el uso de Inteligencia Artificial arrojaron una alta probabilidad de que fueran fotos reales. Así, se ha puesto en duda la capacidad para generar herramientas de validación a la velocidad en que se perfeccionan las aplicaciones de IA generativa, más aún, cuando las grandes inversiones económicas manifiestan una promesa lucrativa a pesar de las consecuencias que puedan traer.

El pasado 22 de mayo circuló, desde cuentas verificadas de Twitter, la noticia falsa sobre una supuesta explosión en el Pentágono, y nuevamente la velocidad de difusión generó un impacto no poco despreciable; la caída de la bolsa de valores por 10 minutos, los mismos que se tardaron en poderlo desmentir. En este caso, el rastreo llevó a identificar como autores a un movimiento de ultraderecha en Estados Unidos que antes ya había difundido noticias falsas. La intención evidente de generar miedo o pánico aprovechando los recuerdos del 9/11, y el ataque real que sucedió al Pentágono en aquel momento, repercutió directamente en la confianza sobre una recuperación económica que aún no da resultados estables.

La IA generativa permite aprovechar las enormes cantidades de información digital que existen, reconociendo patrones y creando combinaciones que producen nueva información, y sus posibles aplicaciones prometen mayor velocidad y eficiencia en varios procesos. Sin embargo, si las redes sociales ya habían dado cuenta de su capacidad para manipular a la opinión pública, dañar la reputación y, en casos extremos, alentar a provocar daños físicos, ahora la IA generativa amplía esos efectos permitiendo que textos, imágenes y audios sean menos reconocibles como ficticios o, dicho de otra forma, con más probabilidad de asumirse como representaciones auténticas de la realidad. En ese sentido, se hace urgente no sólo entender técnicamente esta tecnología, y sumarse al uso de la misma, sino afrontar la responsabilidad sobre su desarrollo e implementación. Más allá de un enfoque pesimista, se trata de analizar el fenómeno social que representan y generar aprendizajes sobre nuestra manera de relacionarnos con las tecnologías; ser proactivos y no simplemente consumidores de servicios y productos tecnológicos.

En ese sentido, el grupo de interdisciplinario de investigación Otro Diseño es Posible, y el Proyecto de Investigación interdepartamental Las Reconversiones Neoliberales del Cuerpo Humano, impartimos recientemente un curso sobre el uso de herramientas de IA para generación de imágenes, audio y video, y para mediados de junio de este 2023, abriremos un espacio de reflexión con el Seminario Crítica del Fenómeno IA.

El objetivo es analizar el fenómeno que está provocando el uso de estas aplicaciones desde distintos enfoques, con la participación de académicos, profesores y estudiantes de posgrado, que nos permita superar una visión puramente instrumental, y reflexionar sobre cómo influyen en nuestro quehacer universitario. Reconocemos que, aunque globalmente existen iniciativas institucionales regulatorias de la IA, es necesario promover la alfabetización mediática para empoderar a los usuarios no solo en la evaluación crítica de la información, sino en la toma de consciencia sobre cómo nos relacionamos con la tecnología.

El Dr. Edward Bermúdez Macías es académico en el Departamento de Diseño de la Universidad Iberoamericana.

 

Las opiniones y puntos de vista vertidos en este comunicado son de exclusiva responsabilidad de quienes los emiten
y no representan necesariamente el pensamiento ni la línea editorial de la Universidad Iberoamericana.

Para mayor información sobre este comunicado llamar a los teléfonos: (55) 59 50 40 00, Ext. 7594, 7759
Comunicación Institucional de la Universidad Iberoamericana Ciudad de México
Prol. Paseo de la Reforma 880, edificio F, 1er piso, Col. Lomas de Santa Fe, C.P. 01219