Si Joe Biden quiere un chatbot de IA inteligente y familiar para responder sus preguntas, su equipo de campaña no podrá utilizar Claude, el competidor ChatGPT de Anthropic, anunció hoy la compañía.
“No permitimos que los candidatos utilicen Claude para crear chatbots que puedan pretender ser ellos, y no permitimos que nadie utilice Claude para campañas políticas específicas”, anunció la empresa. Las violaciones de esta política se enfrentarán con advertencias y, en última instancia, con la suspensión del acceso a los servicios de Anthropic.
La articulación pública de Anthropic de su política de “mal uso electoral” se produce cuando el potencial de la IA para generar en masa información, imágenes y videos falsos y engañosos está disparando las alarmas en todo el mundo.
Meta implementó reglas que restringen el uso de sus herramientas de inteligencia artificial en política el otoño pasado, y OpenAI tiene políticas similares.
Anthropic dijo que sus protecciones políticas se dividen en tres categorías principales: desarrollar y hacer cumplir políticas relacionadas con cuestiones electorales, evaluar y probar modelos contra posibles usos indebidos y dirigir a los usuarios a información electoral precisa.
La política de uso aceptable de Anthropic, que todos los usuarios aparentemente aceptan antes de acceder a Claude, prohíbe el uso de sus herramientas de inteligencia artificial para campañas políticas y esfuerzos de lobby. La compañía dijo que habrá advertencias y suspensiones de servicios para los infractores, con un proceso de revisión humana implementado.
La compañía también lleva a cabo rigurosos “equipos rojos” de sus sistemas: intentos agresivos y coordinados por parte de socios conocidos de “hacer jailbreak” o utilizar a Claude con fines nefastos.
“Probamos cómo nuestro sistema responde a indicaciones que violan nuestra política de uso aceptable, [for example] mensajes que solicitan información sobre tácticas para la supresión de votantes”, explica Anthropic. Además, la compañía dijo que ha desarrollado un conjunto de pruebas para garantizar la “paridad política”: representación comparativa entre candidatos y temas.
En Estados Unidos, Anthropic se asoció con TurboVote para ayudar a los votantes con información confiable en lugar de utilizar su herramienta de inteligencia artificial generativa.
“Si un usuario radicado en EE. UU. solicita información sobre la votación, una ventana emergente le ofrecerá la opción de ser redirigido a TurboVote, un recurso de la organización no partidista Democracy Works”, explicó Anthropic, una solución que se implementará “en todo el mundo”. próximas semanas”, con planes de agregar medidas similares en otros países a continuación.
Como Descifrar Como se informó anteriormente, OpenAI, la compañía detrás de ChatGPT, está tomando medidas similares, redirigiendo a los usuarios al sitio web no partidista CanIVote.org.
Los esfuerzos de Anthropic se alinean con un movimiento más amplio dentro de la industria tecnológica para abordar los desafíos que la IA plantea a los procesos democráticos. Por ejemplo, la Comisión Federal de Comunicaciones de EE. UU. prohibió recientemente el uso de voces deepfake generadas por IA en llamadas automáticas, una decisión que subraya la urgencia de regular la aplicación de la IA en la esfera política.
Al igual que Facebook, Microsoft ha anunciado iniciativas para combatir los anuncios políticos engañosos generados por IA, introduciendo “Credenciales de contenido como servicio” y lanzando un Centro de comunicaciones electorales.
En cuanto a los candidatos que crean versiones de IA de sí mismos, OpenAI ya ha tenido que abordar el caso de uso específico. La compañía suspendió la cuenta de un desarrollador después de descubrir que habían creado un bot que imitaba al candidato presidencial representante Dean Phillips. La medida se produjo después de que la organización sin fines de lucro Public Citizen presentara una petición que abordaba el uso indebido de la IA en campañas políticas, pidiendo al regulador que prohibiera la IA generativa en las campañas políticas.
Anthropic declinó hacer más comentarios y OpenAI no respondió a una consulta de Descifrar.