OpenAI implementará medidas en sus herramientas de inteligencia artificial para evitar la desinformación electoral

AP.- OpenAI, la empresa creadora de ChatGPT, trazó un plan para evitar que sus herramientas se utilicen para difundir desinformación electoral, en un año en que los votantes de más de 50 países se preparan para depositar su voto en elecciones nacionales.

Las medidas de protección expuestas por la startup de inteligencia artificial con sede en San Francisco incluyen una combinación de políticas preexistentes e iniciativas más recientes para evitar el uso indebido de sus populares herramientas de IA generativa.

Estas herramientas pueden generar textos e imágenes en cuestión de segundos, pero también pueden emplearse para fabricar mensajes engañosos o fotografías falsas que resulten creíbles.

La compañía indicó que prohibirá el uso de su tecnología para crear chatbots que se hagan pasar por candidatos o gobiernos reales, para tergiversar el funcionamiento del sistema de votación o para disuadir a la gente de votar. Añadió que hasta que no se investigue más a fondo el poder persuasivo de su tecnología, no permitirá a sus usuarios generar aplicaciones para campañas políticas o grupos cabilderos.

A partir de principios de este año, OpenAI pondrá una marca de agua digital a las imágenes de IA generadas con su generador DALL-E.

Esto marcará permanentemente el contenido con información sobre su origen, lo que facilitará identificar si una imagen que aparece en otro lugar de la web se creó utilizando la herramienta de inteligencia artificial.

ChatGPT y DALL-E de OpenAI son algunas de las herramientas de inteligencia artificial generativa más potentes hasta la fecha. Pero hay muchas empresas con una tecnología igual de sofisticada que no cuentan con tantos mecanismos de protección contra la desinformación electoral.

Aunque algunas empresas de redes sociales, como YouTube y Meta, han implementado políticas de etiquetado de IA, está por verse si serán capaces de detectar a los infractores de manera sistemática.

Sin la adopción voluntaria de tales políticas en todo el sector, la regulación de la desinformación generada por IA en la política requeriría legislación.

En Estados Unidos, el Congreso aún no ha aprobado ninguna ley que regule el papel de esta industria en la política, a pesar de contar con cierto apoyo bipartidista.

El director general de OpenAI, Sam Altman, dijo que, incluso con todas las medidas de seguridad implementadas por su empresa, no se siente tranquilo.

“Creo que es bueno que estemos muy preocupados y que vayamos a hacer todo lo posible para que salga lo mejor posible (…) Vamos a tener que vigilar esto muy de cerca este año. Un seguimiento muy estricto. Un circuito de retroalimentación muy estrecho”, dijo durante una entrevista el martes en un evento de Bloomberg durante el Foro Económico Mundial de Davos, Suiza.

Con información de Latinus

Por: Redacción2
Comentarios