Las empresas de IA han estado a la vanguardia del desarrollo de tecnología transformadora. Ahora también se apresuran a poner límites al uso de la inteligencia artificial en un año lleno de elecciones importantes en todo el mundo.
El mes pasado, OpenAI, el creador del chatbot ChatGPT, dijo que estaba trabajando para evitar el abuso de sus herramientas durante las elecciones, en parte prohibiendo su uso para crear chatbots que pretenden ser personas o instituciones reales. En las últimas semanas, Google también ha dicho que limitará la respuesta de su chatbot de inteligencia artificial, Bard, a ciertas solicitudes relacionadas con las elecciones para evitar imprecisiones.. Y Meta, propietaria de Facebook e Instagram, prometió etiquetar mejor el contenido generado por IA en sus plataformas para que los votantes pudieran discernir más fácilmente qué información era real y cuál falsa.
El viernes, Anthropic, otra importante startup de inteligencia artificial, se unió a sus pares para prohibir que su tecnología se aplique a campañas políticas o esfuerzos de lobby. En una publicación de blog, la compañía, que fabrica un chatbot llamado Claude, dijo que advertirá o suspenderá a cualquier usuario que viole sus reglas. Añadió que está utilizando herramientas capacitadas para detectar y bloquear automáticamente la desinformación e influir en las operaciones.
«La historia de la implementación de la IA también ha estado llena de sorpresas y efectos inesperados», afirmó la empresa. «Esperamos que en 2024 se produzcan usos sorprendentes de los sistemas de IA, usos que no fueron previstos por los propios desarrolladores».
Los esfuerzos son parte de un impulso de las empresas de inteligencia artificial para ganar control sobre una tecnología que popularizaron mientras miles de millones de personas acudían a las urnas. Según la consultora Anchor Change, este año se esperan al menos 83 elecciones en todo el mundo, la mayor concentración en al menos los próximos 24 años. En las últimas semanas, han votado ciudadanos de Taiwán, Pakistán e Indonesia, mientras que India, la democracia más grande del mundo, celebra sus elecciones generales en primavera.
No está claro cuán efectivas serán las restricciones a las herramientas de inteligencia artificial, especialmente a medida que las empresas de tecnología avancen con tecnologías cada vez más sofisticadas. El jueves, OpenAI presentó Sora, una tecnología que puede generar instantáneamente videos realistas. Estas herramientas podrían usarse para producir texto, sonido e imágenes en campañas políticas, confundiendo realidad y ficción y generando dudas sobre la capacidad de los votantes para reconocer qué contenido es real.
El contenido generado por IA ya ha aparecido en campañas políticas estadounidenses, provocando resistencia regulatoria y legal. Algunos legisladores estatales están redactando proyectos de ley para regular el contenido político generado por IA.
El mes pasado, los residentes de New Hampshire recibieron mensajes de llamadas automáticas que los disuadieron de votar en las primarias estatales en una voz que probablemente fue generada artificialmente para sonar como la del presidente Biden. La Comisión Federal de Comunicaciones prohibió la semana pasada este tipo de llamadas.
«Los malos actores utilizan voces generadas por IA en llamadas automáticas no solicitadas para extorsionar a familiares vulnerables, hacerse pasar por celebridades y desinformar a los votantes», dijo en ese momento la presidenta de la FCC, Jessica Rosenworcel.
Las herramientas de inteligencia artificial también han creado representaciones engañosas o engañosas de políticos y temas políticos en Argentina, Australia, Gran Bretaña y Canadá. La semana pasada, el ex primer ministro Imran Khan, cuyo partido obtuvo la mayor cantidad de escaños en las elecciones de Pakistán, utilizó la voz de una inteligencia artificial para declarar la victoria mientras estaba en prisión.
En uno de los ciclos electorales más importantes que se recuerdan, la desinformación y los engaños que la inteligencia artificial puede crear podrían ser devastadores para la democracia, dicen los expertos.
“Aquí estamos detrás de la bola ocho”, dijo Oren Etzioni, profesor de la Universidad de Washington especializado en inteligencia artificial y fundador de True Media, una organización sin fines de lucro que trabaja para identificar información errónea en línea en campañas políticas. «Necesitamos herramientas para responder a esta situación en tiempo real».
Anthropic dijo en su anuncio del viernes que estaba planeando pruebas para identificar cómo su chatbot Claude podría producir contenido sesgado o engañoso relacionado con candidatos políticos, cuestiones políticas y administración electoral. Estas pruebas del «equipo rojo», que a menudo se utilizan para romper las salvaguardias de una tecnología para identificar mejor sus vulnerabilidades, también explorarán cómo responde la IA a preguntas maliciosas, como solicitudes de tácticas de supresión de votantes.
En las próximas semanas, Anthropic también lanzará una prueba que apunta a redirigir a los usuarios estadounidenses que tienen preguntas relacionadas con la votación a fuentes de información autorizadas como TurboVote de Democracy Works, un grupo no partidista sin fines de lucro. La compañía dijo que su modelo de inteligencia artificial no fue entrenado con la frecuencia suficiente para proporcionar datos confiables en tiempo real sobre elecciones específicas.
De manera similar, OpenAI dijo el mes pasado que planea dirigir a las personas a la información de votación a través de ChatGPT, así como etiquetar imágenes generadas por IA.
«Como cualquier tecnología nueva, estas herramientas conllevan beneficios y desafíos», dijo OpenAI en una publicación de blog. «Tampoco tienen precedentes y continuaremos evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas».
(El New York Times demandó a OpenAI y su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).
Synthesia, una nueva empresa con un generador de videos de inteligencia artificial que ha sido vinculada a campañas de desinformación, también prohíbe el uso de la tecnología para “contenidos similares a noticias”, incluido material falso, polarizador, divisivo o engañoso. La compañía ha mejorado los sistemas que utiliza para detectar el uso indebido de su tecnología, dijo Alexandru Voica, jefe de políticas y asuntos corporativos de Synthesia.
Stability AI, una startup con una herramienta de generación de imágenes, dijo que ha prohibido el uso de su tecnología con fines ilegales o poco éticos, que ha trabajado para bloquear la generación de imágenes no seguras y que ha aplicado una marca de agua imperceptible a todas las imágenes. .
Incluso las empresas tecnológicas más grandes han contribuido. La semana pasada, Meta dijo que estaba trabajando con otras empresas en estándares tecnológicos para ayudar a reconocer cuándo se generó contenido con inteligencia artificial. Antes de las elecciones parlamentarias de la Unión Europea en junio, TikTok dijo en una publicación de blog el miércoles que prohibirá el contenido manipulado potencialmente engañoso y exigirá a los usuarios que etiqueten creaciones realistas de IA.
Google dijo en diciembre que también exigirá a los creadores de vídeos de YouTube y a todos los anunciantes electorales que revelen contenido alterado o generado digitalmente. La compañía dijo que se está preparando para las elecciones de 2024 evitando que sus herramientas de inteligencia artificial, como Bard, devuelvan respuestas a ciertas preguntas relacionadas con las elecciones.
«Como cualquier tecnología emergente, la inteligencia artificial presenta nuevas oportunidades pero también desafíos», dijo Google. La IA puede ayudar a combatir el abuso, añadió la empresa, «pero también nos estamos preparando para cambiar el panorama de la desinformación».