El artículo revisita el concepto de superinteligencia artificial, proponiendo un modelo de ‘Servicios Integrales de IA’ (CAIS) en lugar de agentes unitarios. Se argumenta que este enfoque, que descompone la inteligencia en servicios especializados, podría ser más seguro y manejable. Los modelos de lenguaje grandes (LLM) ilustran cómo una sola tecnología general puede proporcionar diversos servicios, aunque la especialización sigue siendo clave. El autor sugiere que el desarrollo de agentes AGI unitarios es más riesgoso y menos valioso que el enfoque CAIS, destacando la importancia de la automatización de la I+D y modelos de aprobación humana para la seguridad de la IA. Finalmente, se advierte que, aunque los servicios de IA mitigan algunos riesgos, también presentan nuevos desafíos, especialmente en manos de actores maliciosos.
¿Qué es el modelo de Servicios Integrales de IA (CAIS)?
El modelo CAIS propone la inteligencia general como una propiedad de sistemas flexibles de servicios, donde agentes enfocados en tareas son componentes. Este modelo visualiza la expansión de servicios de IA hacia un rendimiento de nivel superinteligente integral, incluyendo la provisión de nuevos servicios alineados con objetivos humanos y modelos sólidos de (des)aprobación humana. El modelo CAIS ofrece una alternativa al enfoque tradicional en agentes superinteligentes unitarios.
¿Cuál es la principal crítica al enfoque tradicional de la superinteligencia que plantea el artículo?
El artículo critica la noción predominante que equipara la IA de nivel superinteligente con un agente superinteligente. Se argumenta que esta visión ha recibido un peso desproporcionado, sesgando la investigación en alineación de la IA. El artículo propone un marco alternativo que considera tanto los riesgos como las oportunidades que son ignoradas por las perspectivas centradas en el agente.
¿Cómo contribuyen los LLM al desarrollo de la automatización de I+D en IA?
Los LLM contribuyen a la automatización de I+D en IA mediante el filtrado y mejora de conjuntos de datos de internet, sirviendo como modelos de recompensa para RLHF basados en preferencias humanas, y generando contenido de diálogo a partir de conjuntos de datos que no son de diálogo. También sintetizan ejemplos de seguimiento de instrucciones y generan datos semi-sintéticos o totalmente sintéticos para el entrenamiento general y enfocado en tareas.
Artículo Original: https://www.alignmentforum.org/posts/LxNwBNxXktvzAko65/reframing-superintelligence-llms-4-years
Consejos:
- Considera el modelo de ‘Servicios de IA Comprensivos’ (CAIS) para un desarrollo de IA más seguro y manejable.
- Prioriza la automatización de la investigación y desarrollo (I+D) con IA para un progreso más directo y controlable.
- Fomenta la transparencia funcional y el control en algoritmos de aprendizaje profundo, incluso si son opacos.
Deja una respuesta