Los desarrolladores Fetch AI y SingularityNET han anunciado una nueva asociación para frenar las alucinaciones de la IA utilizando tecnología descentralizada.
El acuerdo entre Fetch AI y SingularityNET se centrará en abordar la tendencia de los grandes modelos de lenguaje (LLM) a producir resultados inexactos o irrelevantes, o “alucinaciones”, que consideraron dos obstáculos importantes para desarrollar la confiabilidad y adopción de la IA.
Las plataformas descentralizadas como SingularityNET y Fetch permiten a los desarrolladores ensamblar sistemas de inteligencia artificial de múltiples componentes, con diferentes componentes que se ejecutan en diferentes máquinas, sin ningún coordinador central, dijo el CEO de SingularityNET, Ben Goertzel. Descifrar. “El potencial para experimentar con una variedad de configuraciones diferentes para sistemas de IA de múltiples componentes, como sistemas neuronales-simbólicos, brinda una flexibilidad de un tipo diferente a la que existe en las infraestructuras de IA centralizadas estándar”, dijo.
El acuerdo también incluye planes para lanzar una serie de productos aún sin nombre en 2024 que, según afirman, aprovecharán la tecnología descentralizada para desarrollar modelos de IA más avanzados y precisos.
El acuerdo permitiría a los desarrolladores acceder y combinar herramientas como la interfaz DeltaV de Fetch.ai y las API de IA de SingularityNET, lo que permitiría a los desarrolladores de IA construir modelos más descentralizados, confiables e inteligentes.
“SingularityNET ha estado trabajando en varios métodos para abordar las alucinaciones en los LLM. El tema clave en todos ellos es la integración neural-simbólica. Nos hemos centrado en esto desde que se fundó SingularityNET en 2017”, añadió Alexey Potapov, director de AGI de SingularityNET. “Nuestra opinión es que los LLM solo pueden llegar hasta cierto punto en su forma actual y no son suficientes para llevarnos hacia la inteligencia artificial general, pero son una distracción potencial del objetivo final”.
Integración neuronal-simbólica
La integración neuronal-simbólica combina redes neuronales, que aprenden de los datos, con IA simbólica, que utiliza reglas claras para el razonamiento. Esta combinación mejora el aprendizaje y la toma de decisiones de la IA, haciéndola adaptable y lógicamente sólida, lo que lleva a aplicaciones de IA más precisas y confiables.
“No esperamos arreglar [hallucinations] “Completamente, por supuesto, pero creo que parte de la diversión con los LLM es tener alucinaciones porque ahí es donde entra en juego la innovación”, dijo el fundador y director ejecutivo de Fetch AI, Humayun Sheikh. Descifrar. “En cierto modo, hay que ser creativo sin limitaciones”.
Si bien las alucinaciones de IA son un problema, dijo Sheikh, combinar las alucinaciones con deepfakes generados por IA es una amenaza más significativa y no solo una preocupación ahora, sino que crecerá en el futuro a medida que la IA se vuelva más avanzada y las alucinaciones más convincentes.
Sheikh señaló el peligro de una IA que “extrapola algunas ideas erróneas y se refuerza a sí misma”, calificándolo de un problema “autocumplido”. “Ese, para mí, es el mayor problema en el futuro a corto plazo, en lugar de pensar que alguna IA va a empezar a intentar apoderarse de nosotros”, añadió.
El aumento de las alucinaciones por IA
Junto con el auge de la inteligencia artificial en la corriente principal, las alucinaciones de IA también han aparecido en los titulares.
En abril, ChatGPT acusó erróneamente a un profesor de derecho, Jonathan Turley, de agredir sexualmente a una estudiante durante un viaje de estudios que nunca realizó.
En octubre, los abogados del ex miembro de Fugees, Pras Michel, presentaron una moción para un nuevo juicio alegando que su antiguo equipo legal utilizó inteligencia artificial y el modelo de IA alucinó sus respuestas, lo que provocó que su cliente fuera condenado por 10 cargos, entre ellos conspiración para cometer manipulación de testigos. , falsificación de documentos y actuación como agente extranjero no registrado.
“Las alucinaciones son un arma de doble filo, especialmente para la creación de contenido”, dijo Kamal Ved, CPO de Fetch AI. “Mucha gente disfruta de la alucinación porque les divierte y saben lo que les traerá el LLM”. Explicó que los socios están “tratando de abordar el problema de ejecutar realmente una acción, y esperamos algún tipo de determinismo”.
Hacer que las alucinaciones sean más difíciles de combatir es la falta de transparencia en el desarrollo de modelos de IA, dijeron investigadores de la Universidad de Stanford mientras las empresas luchan por dominar el mercado. Y aunque los desarrolladores de IA generativa pueden decir que quieren ser transparentes, un informe de octubre del Centro de Investigación sobre Modelos de Fundación (CRFM) de la Universidad de Stanford dijo que es todo lo contrario.
El líder de la Sociedad CRFM, Rishi Bommasani, advirtió que las empresas en el espacio del modelo de fundación se están volviendo menos transparentes y agregó que “si no hay transparencia, los reguladores ni siquiera pueden plantear las preguntas correctas, y mucho menos tomar medidas en estas áreas.
OpenAI, Meta e IBM han encontrado grupos destinados a generar más transparencia en el desarrollo de la IA. En julio, OpenAI se asoció con Anthropic, Google y Microsoft para lanzar el Frontier Model Forum, cuyo objetivo es el desarrollo responsable de modelos de IA, incluido el tratamiento de las alucinaciones de IA.
A principios de este mes, IBM se asoció con Meta para lanzar AI Alliance, un consorcio de más de 50 entidades que se unieron para investigar, desarrollar y construir modelos de IA de manera responsable y transparente.
“El progreso que seguimos presenciando en IA es un testimonio de la innovación abierta y la colaboración entre comunidades de creadores, científicos, académicos y líderes empresariales”, dijo el presidente y director ejecutivo de IBM, Arvind Krishna, en un comunicado. “Este es un momento crucial para definir el futuro de la IA”.