ChatGPT, el ‘chatbot’ que ha revolucionado la inteligencia artificial, celebró ayer el primer aniversario desde su lanzamiento, que ha dado lugar a una era marcada por los modelos de lenguaje grandes, la interacción conversacional y la generación de contenido.
OpenAI desveló ChatGPT el 30 de noviembre de 2022, un sistema conversacional que había sido entrenado en la infraestructura de Azure de Microsoft con el aprendizaje por refuerzo a partir de la retroalimentación humana, basado en el modelo GPT 3.5.
En sus inicios, este ‘chatbot’ podía realizar tareas como responder preguntas y mantener una conversación realista con un usuario, y en poco tiempo sorprendió por lo naturales de sus respuestas y por su capacidad para generar y enlazar ideas y recordar las conversaciones previas.
Con el tiempo ha ido ampliando sus capacidades; ya admite entradas no solo de texto, como imágenes o incluso la voz, y se ha conectado a Internet para ofrecer respuestas basadas en información actualizada, en tiempo real.
También ha incrementado las tareas que realiza, como la codificación, y con el nuevo modelo GPT 4, la redacción de un subtítulo, un análisis o una clasificación a partir de una imagen y la redacción y gestión de un texto más largo, todo ello con una mejora general en la capacidad de razonar y seguir instrucciones.
Aunque OpenAI ofrece distintas modalidades para acceder a su ‘chatbot’, incluida una gratuita, Microsoft contribuyó a su generalización al integrarlo en su navegador Edge y su buscador Bing.
También generó recelo entre las empresas rivales. Google unificó sus dos divisiones dedicadas a la IA para para competir y superar el dominio de OpenAI y Microsoft en este área, el que hasta la aparición de ChatGPT en noviembre del año pasado ostentaban los equipos de Google Research y DeepMind.
Meta, por su parte, reconoció que había llegado tarde al desarrollo de su propia infraestructura de IA, pero a lo largo del año no solo se ha puesto al día, sino que ha lanzado nuevos productos con esta tecnología, que ha convertido en uno de sus pilares estratégicos.
La IA generativa
ChatGPT forma parte del conjunto de aplicaciones que se engloban bajo la IA generativa, es decir, la inteligencia artificial con capacidad para generar contenidos, independientemente del formato, que tiene también entre sus exponentes los ‘chatbot’ Bard de Google y Claude de Anthropic, y Dall-E (OpenAI) Stable Diffusion (Stability AI) y Midjourney (Midjourney) en la generación de imágenes.
Asimismo, hay aplicaciones para la generación de música, como MusiGEn y AudioCraft, ambas de Meta; de vídeo, como Gen1 de RunwayML y Make-A-Video de Meta, e incluso para la programación, capacidades presentes, por ejemplo, en Bard, Claude, Copilot de Microsoft y ChatGPT.
Se trata de una tecnología en continuo perfeccionamiento que se promociona como una herramienta de ayuda para impulsar la creatividad y facilitar las tareas cotidianas, aunque no está exenta de criticas y riesgos.
El principal es el que compete a los derechos de autor, ya que estos modelos se entrenan con grandes cantidades de datos, ya sea texto, vídeos o imágenes, que posteriormente pueden aflorar en los contenidos generados automáticamente.
También se ha alertado sobre el riesgo que presentan para la ciberseguridad; aunque las empresas desarrolladoras de estos modelos aseguran implementar limitaciones y barreras, una de las primeras aplicaciones que se detectaron con ChatGPT fue la generación de ‘malware’.
Por su parte, la generación de vídeos y fotografías que simulan situaciones reales, o grabaciones que reproducen con gran realismo la voz de personajes públicos, lo que se conoce como ‘deepfake’, se utilizan para la promoción de noticias falsas, desinformación o manipulaciones de tipo propagándístico y pornográfico, y fraudes financieros.
Regulación de la IA
La regulación de la inteligencia artificial, aunque en marcha, no avanza tan rápido como la tecnología. A principios de año, líderes tecnológicos como Steve Wozniak (Apple), Jaan Tallinn (Skype ) o Elon Musk (Tesla) se unieron en una petición que buscaba paralizar temporalmente los grandes experimentos con inteligencia artificial (IA) por los riesgos que pueden entrañar para la sociedad y la humanidad, y trabajar junto a los legisladores para garantizar su buen uso. También alertó de los riesgos de la IA el CEO de OpenAI, Sam Altman, ante un posible mal uso de su chatbot.
En la Unión Europea, la Comisión Europea lleva desde 2018 sentando las bases de un marco jurídico que fomente el desarrollo de esta tecnología, materializado en el proyecto de Ley que el Parlamento Europeo aprobó en junio.
Aunque queda todavía algún trámite para su entrada en vigor, se trata de uno de los primeros y más ambiciosos proyectos legislativos sobre IA en el mundo debido a que busca garantizar la seguridad, transparencia y trazabilidad de los sistemas de inteligencia artificial y diferencia a los operadores y proveedores en función del riesgo y sus obligaciones.