Dado que la amenaza de la inteligencia artificial a la democracia es una de las principales preocupaciones para los formuladores de políticas y los votantes de todo el mundo, OpenAI presentó su plan el lunes para ayudar a garantizar la transparencia en el contenido generado por IA y mejorar la información electoral confiable antes de las elecciones de 2024.

Después del lanzamiento de GPT-4 en marzo, la IA generativa y su posible uso indebido, incluidos los deepfakes generados por IA, se han convertido en una parte central de la conversación sobre el meteórico ascenso de la IA en 2023. En 2024, podríamos ver graves consecuencias de dicha IA. impulsó la desinformación en medio de elecciones importantes, incluida la carrera presidencial de Estados Unidos.

“Mientras nos preparamos para las elecciones de 2024 en las democracias más grandes del mundo, nuestro enfoque es continuar nuestro trabajo de seguridad de la plataforma elevando información de votación precisa, aplicando políticas mesuradas y mejorando la transparencia”, dijo OpenAI en una publicación de blog.

OpenAI agregó que está “reuniendo la experiencia de nuestros sistemas de seguridad, inteligencia de amenazas, equipos legales, de ingeniería y de políticas para investigar y abordar rápidamente posibles abusos”.

En agosto, la Comisión Federal Electoral de EE. UU. dijo que seguiría adelante con la consideración de una petición para prohibir los anuncios de campaña generados por IA, y el comisionado de la FEC, Allen Dickerson, dijo: “Hay serias preocupaciones sobre la Primera Enmienda acechando en el trasfondo de este esfuerzo”.

Para los clientes estadounidenses de ChatGPT, OpenAI dijo que dirigirá a los usuarios al sitio web no partidista CanIVote.org cuando se les hagan “ciertas preguntas de procedimiento relacionadas con las elecciones”. La compañía dice que la implementación de estos cambios informará su enfoque a nivel mundial.

“Esperamos seguir trabajando y aprendiendo de nuestros socios para anticipar y prevenir posibles abusos de nuestras herramientas en el período previo a las elecciones globales de este año”, añadió.

En ChatGPT, OpenAI dijo que impide que los desarrolladores creen chatbots que pretendan ser personas o instituciones reales, como funcionarios y oficinas gubernamentales. OpenAI dijo que tampoco se permiten aplicaciones que tengan como objetivo impedir que las personas voten, incluidas desalentar el voto o tergiversar quién es elegible para votar.

Los deepfakes, las imágenes, los vídeos y el audio falsos generados por IA creados con IA generativa se volvieron virales el año pasado, y en varios de ellos aparecen el presidente estadounidense Joe Biden, el expresidente Donald Trump e incluso el Papa Francisco, convirtiéndose en el centro de las imágenes compartidas en las redes sociales.

Para evitar que su generador de imágenes Dall-E 3 se utilice en campañas deepfake, OpenAI dijo que implementará las credenciales de contenido de la Coalición para la Procedencia y Autenticidad del Contenido que agregan una marca o “ícono” a una imagen generada por IA.

“También estamos experimentando con un clasificador de procedencia, una nueva herramienta para detectar imágenes generadas por Dall-E”, dijo OpenAI. “Nuestras pruebas internas han mostrado resultados iniciales prometedores, incluso cuando las imágenes han estado sujetas a tipos comunes de modificaciones”.

El mes pasado, el Papa Francisco pidió a los líderes mundiales que adoptaran un tratado internacional vinculante para regular la IA.

“La dignidad inherente de cada ser humano y la fraternidad que nos une como miembros de una única familia humana deben sustentar el desarrollo de nuevas tecnologías y servir como criterio indiscutible para evaluarlas antes de utilizarlas, de modo que el progreso digital pueda ocurrir con la debida debida respetar la justicia y contribuir a la causa de la paz”, dijo Francisco.

Para frenar la desinformación, OpenAI dijo que ChatGPT comenzará a proporcionar informes de noticias en tiempo real a nivel mundial, incluidas citas y enlaces.

“La transparencia en torno al origen de la información y el equilibrio en las fuentes de noticias pueden ayudar a los votantes a evaluar mejor la información y decidir por sí mismos en qué pueden confiar”, dijo la empresa.

El verano pasado, OpenAI donó 5 millones de dólares al American Journalism Project. La semana anterior, OpenAI firmó un acuerdo con Associated Press para dar al desarrollador de IA acceso al archivo de artículos de noticias del medio de comunicación global.

Los comentarios de OpenAI sobre la atribución en los informes de noticias se producen cuando la compañía enfrenta varias demandas por derechos de autor, incluso de la New York Times. En diciembre, el Veces demandó a OpenAI y Microsoft, el mayor inversor de OpenAI, alegando que millones de sus artículos se utilizaron para entrenar ChatGPT sin permiso.

“OpenAI y Microsoft han construido un negocio valorado en decenas de miles de millones de dólares al tomar las obras combinadas de la humanidad sin permiso”, dice la demanda, “Al entrenar sus modelos, los demandados reprodujeron material protegido por derechos de autor para explotar precisamente lo que fue diseñado por la Ley de Derechos de Autor”. proteger: los elementos de expresión protegibles que contienen, como el estilo, la elección de palabras y la disposición y presentación de los hechos”.

OpenAI ha llamado a la New York Times' demanda “sin mérito”, alegando que la publicación manipuló sus indicaciones para hacer que el chatbot generara respuestas como la Veces'artículos.

Editado por Andrew Hayward.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.





Fuente Traducida decrypt.co