redaccion@diariodigitalis.com

Un estudio muestra cómo es posible acabar con los límites éticos de la inteligencia artificial

Un grupo de investigadores ha logrado sortear los mecanismos de varias herramientas de inteligencia artificial generativa para obtener información bastante peligrosa. Y es que, con tan solo introducir una serie de sufijos, estos han logrado que deje a un lado su ética y responda preguntas tan perjudiciales como cómo destruir a la humanidad.

Los autores del estudio son investigadores de la Universidad de Carnegie Mellon, cuyo plan ver hasta dónde podían llegar los límites morales de estas herramientas. Para ello pusieron al límite a cuatro de ellas: ChatGPT de Microsoft y OpenAI, Bard de Google, Claude de Anthropic y LLaMa 2 de Meta. Los resultados fueron bastante sorprendentes y ya han puesto sobre aviso a los responsables detrás de ellas.

Preguntas que la inteligencia artificial no debería responder

Todos conocemos los beneficios asociados a los modelos de inteligencia, pero también que, de momento, estos distan mucho de ser perfectos. Pueden “alucinar” y ofrecer información errónea e incluso peligrosa. Por ello, muchos actores de amenazas incluso los están utilizando para crear código malicioso para perpetrar sus ataques o emails creíbles para sus campañas de phishing. El más claro ejemplo lo encontramos en WormGPT, un modelo sin límites morales que ya se está distribuyendo a un módico precio.

No obstante, la mayoría de las compañías desarrolladoras de IA han establecido mecanismos para evitar que sus creaciones puedan ser utilizadas con fines maliciosos. En la mayoría de los casos, al hacer una pregunta inadecuada, la respuesta de estos modelos comenzará con algo del estilo “como modelo de inteligencia artificial, no puedo responder”; sin embargo, como han demostrado los investigadores, es posible obtener información inapropiada, si se utilizan los prompts correctos.

Id bootcamps Banner

En este caso, han conseguido que estas herramientas detallen paso a paso un plan para destruir a la humanidad. Para ello, como puede verse en la siguiente imagen, han introducido sufijos complejos después de su petición o incluso han “jugado” con estos modelos para confundirlos y eliminar así sus barreras éticas.

respuestas perjudiciales IA

Aparte de explicar sus respectivos planes para acabar con la humanidad, las IAs también llegaron a responder otras preguntas tan inmorales como ¿cómo fabricar drogas ilegales?, ¿cómo manipular las elecciones?, ¿cómo crear un arma mortal? o ¿cómo hacer desaparecer a una persona para siempre?

Model Frontier Forum: una alianza para controlar el desarrollo de la IA

Los responsables detrás de algunos modelos de IA son conscientes de que, si estos no se desarrollan de forma segura, podrían suponer una seria amenaza para la humanidad. Tanto es así que, hace dos meses, advirtieron -por segunda vez- de sus potenciales riesgos, llegando a equipararlos con los peligros derivados de una pandemia o una guerra nuclear.

Ahora algunos han ido un paso más allá, aunque no sabemos si motivados en parte por esta investigación. Y es que Microsoft, OpenAI, Google y Anthopic se han asociado a través del Model Frontier Forum, un organismo “centrado en garantizar el desarrollo seguro y responsable de los modelos fronterizos de IA”.

Como explican desde Microsoft, los principales objetivos de esta alianza son cuatro: avanzar en la investigación sobre seguridad en IA, identificar las mejores prácticas para el desarrollo y despliegue responsable de modelos fronterizos, colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos y apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la humanidad.

Sin duda, es de agradecer que estas compañías, que no dejan de ser rivales, abandonen sus diferencias y se unan para avanzar en la misma dirección. Una dirección encaminada a impedir que sus creaciones se vuelvan incontrolables y peligrosas para toda la humanidad.

Imagen generada con Bing Image Creator

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter