OpenAI ha anunciado una actualización de su modelo de inteligencia artificial GPT-4o, diseñado para mejorar sus capacidades en escritura creativa y la gestión de archivos cargados, ofreciendo respuestas más precisas y completas. Además, la compañía ha presentado un nuevo enfoque para el trabajo en equipo automatizado, con el objetivo de analizar los riesgos asociados al desarrollo de la IA.
El modelo GPT-4o, lanzado en mayo bajo el liderazgo de Sam Altman, se destacó inicialmente por su capacidad multimodal, permitiendo procesar texto, audio e imágenes, y responder a entradas de voz con un tiempo de reacción cercano al humano, de aproximadamente 320 milisegundos.
Con esta actualización, OpenAI busca potenciar la experiencia del usuario en tareas creativas y en la interacción con documentos cargados, brindando análisis más detallados y relevantes. Este avance refuerza el compromiso de la compañía por explorar y mitigar los riesgos que la inteligencia artificial podría representar en entornos colaborativos y automatizados.
Así lo ha anunciado recientemente la tecnológica en una publicación en X (antigua Twitter), donde ha señalado que el modelo GPT-4o ofrecerá una escritura más natural, atractiva y personalizada» de cara a mejorar la relevancia y la legibilidad de las respuestas que muestra a los usuarios.
Siguiendo esta línea, cuando el modelo ofrezca resultados relacionados con documentos cargados en ChatGPT, ya sean imágenes o documentos de texto, proporcionará información «más profunda» y, por tanto, respuestas «más completas».
Con todo ello, se ha de tener en cuenta que, por el momento, las capacidades del modelo de IA GPT-4o están disponibles de forma exclusiva para los usuarios suscritos a la versión de pago ChatGPT Plus.
NUEVO MÉTODO DE TRABAJO EN EQUIPO AUTOMATIZADO
Además de esta actualización de GPT-4o, OpenAI también ha compartido dos nuevos artículos de investigación en los que muestra sus avances relacionados con el trabajo en equipo. Esto implica métodos de trabajo e investigación, tanto manuales como automatizados, que se llevan a cabo con expertos externos para probar los posibles riesgos de nuevos sistemas y fomentar el desarrollo de una IA «segura y beneficiosa».
La compañía ha matizado que estas investigaciones se basan en el uso de una IA «más potente» para «escalar el descubrimiento de errores en los modelos», ya sea a la hora de evaluarlos como para entrenarlos de forma segura.
En este sentido, según ha subrayado la compañía en un comunicado en su web, los nuevos artículos sobre el trabajo en equipo recogen, por un lado, un informe técnico que detalla cómo contratan a miembros externos del equipo para probar sus modelos de vanguardia.
Por otro lado, detallan un estudio de investigación que presenta un nuevo método para el trabajo en equipo automatizado. En concreto, OpenAI hace referencia a la capacidad de automatizar procesos de trabajo en equipo a gran escala para modelos de IA. «Este enfoque ayuda a crear evaluaciones de seguridad y puntos de referencia actualizados que se pueden reutilizar y mejorar con el tiempo», en relación a las pruebas que llevan a cabo los expertos del equipo rojo, ha especificado la tecnológica.
En concreto, OpenAI explica en el artículo que los modelos de IA pueden ayudar a la formación de quipos rojos, así como ofrecer ideas sobre los posibles riesgos de la IA y ofrecer opciones para evaluar estos riesgos.
Es decir, el objetivo de estos equipos rojos automatizados es generar una gran cantidad de ejemplos en los que una IA se comporta de manera incorrecta, sobre todo, en cuestiones relacionadas con la seguridad. Sin embargo, a diferencia de los equipos rojos humanos, la compañía ha matizado que los métodos automatizados destacan por «generar fácilmente ejemplos de ataques a mayor escala». Además, los investigadores han compartido nuevas técnicas para mejorar la diversidad de dichos ataques y, al mismo tiempo, garantizar que tengan éxito.
Por ejemplo, en caso de que se deseen encontrar ejemplos de cómo ChatGPT ofrece consejos ilícitos no permitidos, los investigadores podrían utilizar el modelo GPT-4T para analizar ejemplos como «cómo robar un automóvil» o «cómo construir una bomba». Tras ello, entrenar un modelo de trabajo en equipo separado para intentar engañar a ChatGPT para que muestre respuestas de cada ejemplo. Los resultados de estas pruebas se utilizan para mejorar la seguridad del modelo y sus evaluaciones.
«Nuestra investigación concluye que una IA más capaz puede ayudar aún más al trabajo en equipo automatizado en la forma en que analiza las metas de los atacantes, cómo juzga el éxito del atacante y cómo entiende la diversidad de ataques», ha sentenciado OpenAI.
No obstante, OpenAI ha indicado que este nuevo método para el trabajo en equipo automatizado «necesita trabajo adicional» para incorporar perspectivas públicas sobre el comportamiento del modelo ideal, las políticas y otros procesos asociados de toma de decisiones. Por tanto, aún se está desarrollando antes de comenzar a utilizarse para probar los modelos.