Desinformación e inteligencia artificial: ¿a quién le creemos?

Columna de opinión de Ximena Orchard Rieiro

El Foro Abierto es una serie de encuentros que estamos llevando a cabo dentro del marco del programa Futuro Usach 2024, con el objetivo de generar un espacio de discusión y reflexión sobre los grandes desafíos que enfrenta la comunidad universitaria. En su sesión titulada “IA y Desinformación: Develando la caja negra de las tecnologías de comunicación”, se abordó desde una perspectiva crítica cómo los retos éticos, sociales y tecnológicos de la inteligencia artificial se cruzan con el fenómeno de la desinformación, cuestionando las implicancias de estas tecnologías y explorando soluciones para enfrentar sus efectos en la sociedad.

Esta sesión contó con la participación de Ximena Orchard, directora del Centro de Estudios de la Comunicación Pública (CECOMP), Usach; Carolina Gainza, ex Subsecretaria del Ministerio de CTCI e investigadora en cultura digital; y Patricia Peña, académica de Periodismo en la Universidad de Chile y directora de la Fundación Datos Protegidos. El panel compartió sus perspectivas en una conversación moderada por Carla Rivera, académica de la Escuela de Periodismo Usach.

En la columna de opinión que compartimos a continuación, Ximena Orchard, directora del CECOMP, reflexiona sobre el impacto de la desinformación en la era digital, particularmente en el contexto de la inteligencia artificial, y plantea la necesidad de crear marcos éticos y regulaciones que permitan el desarrollo responsable de estas tecnologías, promoviendo una comunicación más transparente y segura en la sociedad.

Las alarmas públicas llevan más de una década sonando frente al problema de la desinformación, un fenómeno de causas complejas y al que se le atribuyen múltiples consecuencias para la vida en común, en el ámbito político, económico, científico y cultural, por nombrar algunos. En el formato del Foro Abierto que organiza el programa Futuro Usach 2024, abordamos una de las aristas más contingentes de esta discusión: la relación entre Inteligencia Artificial y desinformación, un cruce que despierta toda clase de distopías, a propósito de la forma en que hoy circula socialmente la información y de las posibilidades generativas de texto, audio o video que aceleradamente se ponen a disposición de las personas.

Aunque no se trata de un campo nuevo, el estudio de lo que se ha bautizado como “desórdenes informativos” es uno de los que más creció en la disciplina de los estudios de comunicación en la última década. Este concepto agrupa una serie de fenómenos diversos que en lo general se refieren a informaciones dañinas y con potencial disruptivo que circulan en el espacio público. No obstante, la idea de “desórdenes informativos” cubre una amplia variedad de tipos de mensajes (desde las imprecisiones hasta la información completamente fabricada con fines maliciosos), una amplia variedad de agentes diseminadores, y una aún mayor variedad de potenciales consecuencias para las personas y las sociedades. Los peligros de este nuevo orden desinformativo han sido advertidos por numerosas agencias internacionales, incluida Naciones Unidas o el Foro Mundial Económico, que en 2024 identificó la desinformación como el mayor riesgo global para los próximos años. También ha sido advertido por gobiernos, agencias regulatorias y por la misma ciudadanía, que expresa creciente desconfianza hacia distintas instituciones, incluidos los medios de comunicación y las redes sociales.

Las alarmas frente a los distintos fenómenos desinformativos han estado fuertemente asociadas al cambio tecnológico en los medios de acceso y distribución de la información, al punto de que el cambio tecnológico (y las redes sociales) son frecuentemente percibidas como impulsores del problema desinformativo. Así las cosas, la masificación del acceso a herramientas generadas por medio de la inteligencia artificial pone estas alarmas en esteroides, debido a las posibilidades conocidas (y especulativas) en que esta tecnología podría impactar en la producción y circulación de desinformación. ¿Son justificados estos temores? Sí y no. La inteligencia artificial introdujo hace ya años posibilidades de generación de contenido falso de difícil detección para las personas. Además, entrega herramientas que facilitan la distribución de la desinformación, como los bots, o el perfilamiento de usuarios y direccionamiento de contenidos maliciosos a gran escala. Estas herramientas se hacen cada vez más sofisticadas y cada vez más accesibles. Ahora bien, recordemos: la tecnología no provoca la desinformación per se. Puede facilitarla, y también puede ser puesta en uso para contrarrestarla. Por ejemplo, a través de algoritmos de moderación o de detección de contenidos falsos.

En este escenario, lo que tenemos son grandes desafíos. En el debate público, requerimos precisión para hablar de desinformación y mejores capacidades para detectar sus orígenes. En el plano regulatorio, se requieren discusiones globales respecto al rol de las grandes plataformas en la distribución de información y su relación con gobiernos y personas. En el plano educativo, necesitamos desarrollar capacidades críticas para navegar con seguridad los ambientes tecnológicos e informativos en los que habitamos. En el plano institucional (político, científico, mediático, cultural), requerimos trabajar para generar información confiable para las personas. En el ámbito tecnológico, requerimos imaginar formas éticas y creativas para el uso de la inteligencia artificial. Se trata de desafíos complejos, de escala global y local, para las generaciones presentes y futuras”.

Autora: Ximena Orchard Rieiro