Inteligencia artificial.
Inteligencia artificial.
Agencia Europa Press

Un total de 20 empresas tecnológicas, entre las que se encuentran Google, Microsoft, Meta y OpenAI, han firmado un acuerdo en el que reiteran su compromiso para evitar el uso fraudulento de la en los distintos procesos electorales de este año.

MIRA: Cómo es la fortaleza en Miami que resguarda el “poderoso cerebro” de internet para América Latina

‘AI Elections Accord’ es un pacto que se ha anunciado el viernes en el marco de la Conferencia de Seguridad de Múnich (Alemania), que tiene por objetivo combatir el uso de ‘deepfakes’ durante las elecciones previstas este año en más de 40 países, en las que votarán más de 4.000 millones de personas.

Deepfake.
Deepfake.
/ Creada con la IA de Bing

El ‘deepfake’ es un tipo de modificación de un contenido multimedia con herramientas de inteligencia artificial que muestra un gran realismo y puede generar dudas sobre su legitimidad, en especial cuando altera la apariencia, la voz o las acciones de personas reales.

En este caso, se busca combatir el uso fraudulento de esta tecnología con la imagen y la voz de candidatos políticos y funcionarios electorales, entre otros. Por tanto, con , firmado por un total de 20 empresas tecnológicas, entre las que se encuentran Amazon, Meta, Nokia, Google, LinkedIn, Snapchat, Adobe, IBM, McAfee, TikTok y OpenAI; se busca garantizar que “los votantes conserven el derecho a elegir quién los gobierna”, libres de la manipulación basada en IA.

MIRA: Varios usuarios devuelven su Apple Vision Pro por problemas oculares y factores relacionados con el diseño

Otro de los firmantes de este acuerdo, , ha subrayado en un comunicado que la IA “está generando una forma de manipulación nueva y potencialmente más peligrosa” y que, en los últimos meses, el público “ha sido testigo de este problema en expansión” y de los riesgos que esto supone para los usuarios.

Para ejemplificar este problema, ha hecho referencia a las primarias de New Hampshire (Estados Unidos), donde los votantes recibieron llamadas automáticas que empleaban la IA para falsificar la voz y las palabras del actual presidente del país, Joe Biden.

Captura de video creado con Sora, la nueva herramienta de OpenAI
Captura de video creado con Sora, la nueva herramienta de OpenAI

El empleo fraudulento de esta tecnología también se ha extendido a otros países, como Reino Unido, ya que en diciembre del año pasado circularon varios vídeos ‘deepfake’ del primer ministro británico, Rishi Sunak. En base a esto, las compañías que han formalizado el acuerdo buscan lograr que los votantes estén bien informados para elegir a los líderes que les gobernarán.

Microsoft ha explicado que se trata de “un desafío” en el que están implicadas dos partes del sector tecnológico. Por un lado, aquellas empresas que crean modelos, aplicaciones y servicios de IA para crear estos contenidos y, por otro, aquellas que ofrecen servicios al consumidor donde se pueden distribuir estos ‘deepfakes’.

COMPROMISOS DEL ACUERDO

El pacto reúne una serie de compromisos a cumplir con el objetivo de promover el uso legítimo de este tipo de herramientas de IA. En primer lugar, se centra en el trabajo de empresas que las desarrollan y les pide que fortalezcan su arquitectura de seguridad para prevenir y detectar su uso deliberadamente fraudulento.

MIRA: De usar un péndulo con aguja a aprovechar el smartphone: cómo ha cambiado el estudio de los sismos

También busca promover la autenticidad del contenido generado, adjuntando señales o etiquetas que indiquen su procedencia, así como marcas de agua, como los metadatos de la Coalición para la Procedencia y Autenticidad de Contenido (C2PA, por sus siglas en inglés),, lo que puede ayudar a las organizaciones y a los consumidores a diferenciar mejor el contenido aunténtico del que no lo es.

Inteligencia artificial. (Imagen: iStock)
Inteligencia artificial. (Imagen: iStock)
/ Tippapatt

Asimismo, este acuerdo ayudará a promover la transparencia y a desarrollar la resiliencia de la sociedad ante las falsificaciones en escenarios como los procesos electorales, respetando en cualquier caso la libertad de expresión, pero protegiendo a quienes buscan estar informados.

Por último, obliga al sector tecnológico a continuar colaborando con un conjunto diverso de organizaciones de la sociedad civil, académicos y otros expertos en la materia, que “desempeñan un papel indispensable en la promoción y protección de las democracias del mundo”, según Microsoft.

De esta manera, se pueden crear programas públicos y soluciones basadas en IA -incluidas herramientas de código abierto cuando corresponda-, para ayudar a proteger el debate público y defender la integridad del proceso democrático.

Contenido sugerido

Contenido GEC