OpenAI, Amazon y Google se comprometen a combatir el abuso de la IA en las elecciones de 2024

Las empresas se comprometieron a utilizar la tecnología para mitigar los riesgos del contenido electoral generado por IA

A voter casts their ballot at a polling location in Concord, New Hampshire, US, on Tuesday, Jan. 23, 2024. New Hampshire's primary Tuesday is the stage for a crucial showdown between Donald Trump and Nikki Haley, the last major challenger standing between the former president and the GOP nomination.
Por Agatha Cantrill
16 de febrero, 2024 | 01:59 PM
Últimas cotizaciones

Bloomberg — OpenAI, Amazon.com Inc. (AMZN), Google y otros 17 actores importantes en tecnología de inteligencia artificial han formado un consorcio para tratar de evitar que la IA se utilice para engañar a los votantes en las próximas elecciones globales.

VER +
OpenAI presenta un sistema de IA para convertir texto en videos realistas

Las empresas anunciaron el acuerdo en la Conferencia de Seguridad de Múnich el viernes, haciendo una serie de compromisos para tratar de detectar la desinformación electoral habilitada por IA, responder a ella y aumentar la conciencia pública sobre el potencial de engaño.

La proliferación de la IA ha hecho que la producción de imágenes, audio y videos falsos realistas sea ampliamente accesible, lo que genera temores de que la tecnología se utilice para engañar a los votantes en un año en el que las elecciones determinarán el liderazgo del 40% de la población mundial. El mes pasado, un mensaje de audio generado por IA que sonaba como el presidente Joe Biden intentó disuadir a los demócratas de votar en las elecciones primarias de New Hampshire.

Las empresas se comprometieron a utilizar la tecnología para mitigar los riesgos del contenido electoral generado por IA en el acuerdo, llamado el “Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024″. También se comprometieron a compartir información entre sí sobre cómo abordar a los actores maliciosos.

PUBLICIDAD

"La IA no creó el engaño electoral, pero debemos asegurarnos de que no ayude a que el engaño florezca", dijo Brad Smith, presidente de Microsoft Corp., en el comunicado de prensa que anunciaba el acuerdo.

Entre los firmantes se encuentran Adobe Inc. (ADBE), ByteDance Ltd.’s TikTok y International Business Machines Corp. (IBM), así como startups como Anthropic e Inflection AI. El acuerdo también incluyó a las compañías de redes sociales Meta Platforms Inc. (META), X y Snap Inc. (SNAP).

VER +
La IA ha enriquecido aún más a los ricos del mundo este año

"La generación y distribución intencional y no revelada de contenido electoral engañoso de IA puede engañar al público de formas que ponen en peligro la integridad de los procesos electorales", dice el acuerdo.

PUBLICIDAD

A la luz del aumento de las falsificaciones realistas de las voces y semejanzas de los candidatos, el nuevo acuerdo tratará de limitar el contenido digital que falsifica las palabras o acciones de los candidatos políticos y otros actores en las elecciones.

Sin embargo, muchas empresas tecnológicas dicen estar preocupadas por el potencial de mal uso político del contenido generado por IA. Un sistema desarrollado por Meta inicialmente solo podrá detectar imágenes falsas, no audio o video, y podría pasar por alto aquellas que hayan sido despojadas de marcas de agua.

"Nuestra mente no está tranquila", dijo Sam Altman, director ejecutivo de OpenAI, el mes pasado en un evento de Bloomberg en el Foro Económico Mundial. "Vamos a tener que vigilar esto de cerca este año".

--Con la ayuda de Rachel Metz.

Lea más en Bloomberg.com