OpenAI está creando un equipo para hacer frente a los riesgos de los modelos de inteligencia artificial en el futuro. “Preparedness” (preparación en español) es su nombre y ya están buscando personal capacitado para integrarlo. Su objetivo será prevenir algunos peligros tan graves como las amenazas químicas, biológicas o incluso nucleares.
“Creemos que los modelos de IA de vanguardia, que superarán las capacidades actualmente presentes en los modelos más avanzados existentes, tienen el potencial de beneficiar a toda la humanidad. Pero también plantean riesgos cada vez más graves,” explica la compañía responsable de ChatGPT en su blog.
Como comentan, es cierto que, por lo general, los modelos de IA están resultando muy útiles y provechosos para los seres humanos, pero su aplicación sin límites en todo tipo de ámbitos puede suponer riesgos dignos de una película de ciencia ficción.
De las «alucinaciones» a la amenaza nuclear
OpenAI lo sabe y, por eso, no es la primera vez que plantea la cuestión. En junio de este año, el propio Sam Altman, junto a otros expertos, firmó una carta en la que ya auguraban un futuro bastante distópico: “mitigar el riesgo de extinción debido a la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, advertían en su mensaje.
De esta forma, los firmantes de la carta insistían en la necesidad de adoptar medidas para regular el desarrollo de sus propias creaciones con el fin de evitar la “extinción” de la humanidad. Y es que otorgar el control absoluto a esta tecnología podría ser un error irreversible. Pensemos, por ejemplo, en que una IA pudiera decidir cuándo lanzar un ataque nuclear sin ningún tipo de control. Las vidas humanas podrían pasar a un segundo plano en aras de un bien mayor bajo su criterio, como ya hemos visto en muchas obras de ficción.
Posiblemente, este escenario sería el más catastrófico y exagerado, sin embargo, ya hemos visto algunos de los problemas asociados a estos modelos, que aún distan mucho de ser perfectos. Un ejemplo de ello son sus “alucinaciones”, un fenómeno por el que la IA puede proporcionarnos información incorrecta, actuar de forma errática e incluso tender a darnos la razón aunque no la tengamos.
Aunque, por supuesto, también hay que tener en cuenta el factor humano. Si cae en malas manos, esta tecnología puede resultar bastante peligrosa. Ya hemos visto cómo es posible acabar con los límites éticos de la IA. De hecho, los actores de amenazas ya la están utilizando para desarrollar sus campañas de malware, crear código malicioso y difundir mensajes de phishing más convincentes.
Un equipo para poner freno a la IA
Con la finalidad de evitar todo esto, OpenAI ha vuelto a poner sobre la mesa otra vez el asunto. La compañía de Sam Altman planea crear un equipo, llamado “Preparedness”, para anticiparse y mitigar los riesgos asociados a esta tecnología.
Algunos de ellos ya los hemos mencionado antes, pero, más concretamente, pretenden abordar los siguientes: persuasión individualizada, seguridad cibernética, amenazas químicas, biológicas, radiológicas y nucleares (QBRN) y replicación y adaptación autónomas (ARA).
Como punto de partida y para poder establecer sus siguientes pasos, OpenAI considera imprescindible responder a tres grandes preguntas:
- ¿Cuán peligrosos son los sistemas de inteligencia artificial de vanguardia cuando se les hace un mal uso, tanto ahora como en el futuro?
- ¿Cómo podemos construir un marco sólido para el seguimiento, la evaluación, la predicción y la protección contra las peligrosas capacidades de los sistemas fronterizos de IA?
- Si nos robaran los pesos de nuestro modelo de IA de frontera, ¿cómo podrían los actores malintencionados optar por aprovecharlos?
De momento, la empresa responsable de ChatGPT ya ha publicado dos ofertas de trabajo (Investigador de amenazas a la seguridad nacional e ingeniero de investigación) para formar parte de su equipo “Preparedness”. Pero también han lanzado un “desafío de preparación” para que los interesados les envíen sus investigaciones en torno a los riesgos potenciales de la IA y cómo solucionarlos. Los diez mejores estudios serán recompensados con hasta 25.000 dólares y la posibilidad de formar parte de “Preparedness”.
Imagen de AlexAntropov86 en Pixabay