redaccion@diariodigitalis.com

Los profesionales de la IA vuelven a advertir: «mitigar el riesgo de extinción de la IA debería ser una prioridad mundial»

Varias personalidades importantes en el ámbito de la inteligencia artificial han realizado una declaración en la que advierten de que, si no se desarrolla de forma adecuada, esta podría llevar a los humanos a la extinción. El mensaje es bastante escueto, pero contundente:

“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear,” manifiestan los firmantes en el sitio web de Center for AI Safety, una fundación sin ánimo de lucro cuya misión es «reducir los riesgos a escala social de la inteligencia artificial».

Sin duda, los temores de las obras de ciencia ficción cada vez son más palpables. Y es que los propios impulsores del desarrollo de la IA están aconsejando actuar con precaución. Entre ellos, algunas figuras tan relevantes como Geoffrey Hinton, uno de los precursores de la inteligencia artificial y el deep learning, Demis Hassabis, CEO de DeepMind, Max Tegmark, profesor en el MIT y cofundador de Skype, o Sam Altman, CEO de OpenAI.

Lo que piensan algunos de los firmantes

La opinión del padre de ChatGPT

Precisamente, ayer hablamos del cambio de postura de este último con respecto al futuro de su compañía en el territorio comunitario. Altman no quiere detener el desarrollo de la IA, incluso pretende impulsar modelos de inteligencia artificial general (AGI), mucho más avanzados que los actuales que podrían superar las capacidades humanas.

Por lo general, es optimista en cuanto a la utilidad de estas herramientas. Sin embargo, solicita una regulación para controlar su desarrollo, ya que, de seguir así, las cosas podrían acabar descontrolándose antes de darnos cuenta. Precisamente, en su reciente visita a Londres, tuvo que lidiar con un grupo de manifestantes que exigían que se detuviera el desarrollo de las AGI y este quiso lanzarles un mensaje de tranquilidad: no cree que este desarrollo pueda detenerse, pero confía en su seguridad.

Id bootcamps Banner

Al parecer, OpenAI ya está tomando cartas en el asunto. Y es que, como anuncia el propio Altman, ofrecen subvenciones por valor de 100.000 dólares a aquellas personas que aporten ideas sobre » cómo decidir democráticamente sobre el comportamiento de los sistemas de IA».

Los temores del padrino de la IA

Como hemos indicado, otro de los firmantes es Geoffrey Hinton, al que muchos califican como “el padrino de la IA” por ser uno de los principales pioneros en el desarrollo de esta tecnología. Irónicamente, hace unas semanas, decidió renunciar a su puesto en Google debido a que consideraba que el desarrollo de la IA se está descontrolando.

Hinton reconoce que hasta hace poco pensaba que los modelos que estaban creando no eran tan buenos como el cerebro humano, pero cambió de opinión por completo durante los últimos meses.

Ahora piensa que la IA puede poner en peligro muchos puestos de trabajo y también manipularnos, ya que el avance de esta tecnología hace que cada vez sea más difícil distinguir la realidad de la ficción. Un ejemplo de esto último (por no hablar de los Deepfakes) lo vimos recientemente, cuando muchos dieron credibilidad a una imagen de un ataque al Pentágono que resultó ser falsa.

“Solo soy un científico que de repente se dio cuenta de que estas cosas se están volviendo más inteligentes que nosotros. Quiero hacer sonar el silbato y decir que deberíamos preocuparnos seriamente sobre cómo evitar que estas cosas nos controlen,” explicó en una entrevista a la CNN.

Una advertencia más breve que la anterior, pero igual de impactante

Esta es la segunda advertencia sobre los riesgos que implica el desarrollo sin límites de la inteligencia artificial. La primera se produjo en marzo en un comunicado mucho más extenso, en el que solicitaban que se detuviera el desarrollo de IAs avanzadas durante 6 meses. Entre los firmantes, se encontraba también Elon Musk que, sin embargo, no ha participado en esta última petición conjunta.

“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 . Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria,” comentaban en la carta.

Imagen generada con Bing Imagen Creator

Artículos Relacionados

Suscríbete a nuestra newsletter


(Obligatorio)

También te puede gustar

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Suscríbete a nuestra newsletter