Aún es pronto para decirlo, pero España podría seguir los pasos de Italia y prohibir también el uso de ChatGPT en nuestro territorio. De momento, la AEPD (Agencia Española de protección de datos) ha iniciado una investigación concerniente a la herramienta de inteligencia artificial de OpenAI.
Desde finales de marzo, OpenAI se está enfrentando a una situación complicada. Por un lado, más de 1.000 personalidades relevantes en el sector tecnológico, como Elon Musk, Steve Wozniak o el cofundador de Skype Jaan Tallin, firmaron una carta en la que se exigía pausar durante al menos seis meses el desarrollo de la inteligencia artificial. Por otro, Italia decidió prohibir temporalmente el uso de ChatGPT en el país por considerar que incumplía con lo establecido en el Reglamento General de Protección de Datos.
los italianos determinaron que el uso de esta herramienta no era compatible con el RGPD, ya que consideran que lleva a cabo una recopilación ilícita de datos personales y además no dispone de sistemas para verificar la edad de los menores.
Dicha normativa es aplicable a todos los países miembros de la Unión Europea, por lo que no es de extrañar que, además de Italia, otros hagan lo mismo. Poco tiempo después de la decisión del Garante italiano, otros países como Francia, Irlanda o Alemania también mostraron su preocupación con respecto al chatbot creado por la compañía de Sam Altman. Y ahora España se suma a ellos.
España mira con lupa a OpenAI
“La Agencia Española de Protección de Datos (AEPD) ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa,” comienza diciendo la AEPD en un comunicado.
Todo empezó la semana pasada, cuando el organismo le pidió al Comité Europeo de Protección de Datos (EDPB) que se abordará el asunto de ChatGPT en una sesión plenaria para determinar cómo puede afectar a los derechos de las personas.
Pues bien, como resultado de la reunión, se decidió crear un grupo de trabajo para “fomentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos”. Es decir, que los miembros de la UE actuarán de forma coordinada en este sentido, lo que podría suponer el final de ChatGPT en territorio europeo, a no ser que OpenAI cumpla con ciertas condiciones.
Con la decisión del Garante, el órgano italiano de protección de datos, ChatGPT dejó de estar disponible para los usuarios del país. Sin embargo, la resolución no es definitiva: la herramienta podría volver a ser utilizada en el país, si OpenAI cumple con una serie de requisitos en un tiempo determinado. Y, teniendo en cuenta, que la normativa en materia de protección de datos es común para todos los integrantes de la UE, el resto de países podría hacer lo mismo.
Las condiciones de Italia
En primer lugar, el órgano italiano demanda que la compañía deberá publicar de forma transparente toda la información relativa a la recopilación de datos de ChatGPT. Dicha información deberá ser accesible para todos los usuarios antes de registrarse para utilizarla. De este modo, podrán conocer de antemano qué métodos utilizan para recopilar estos datos y con qué finalidad lo hacen. Si los usuarios ya están registrados, esta información también deberá estar disponible antes de acceder a ChatGPT.
Asimismo, se exige que la compañía elimine cualquier referencia a la ejecución de un contrato y, en su lugar, fundamente el tratamiento de los datos personales para el entrenamiento de algoritmos en el principio de responsabilidad, el consentimiento y el interés legítimo de los usuarios.
El uso del chatbot por menores de edad fue otra de las razones por la que Italia decidió prohibir temporalmente ChatGPT dentro de sus fronteras. Por ello, solicitan que se implementen sistemas que permitan verificar la edad de los usuarios antes de acceder a ella. OpenAI deberá presentar un plan de acción antes del 31 de mayo para que, como tarde el 30 de septiembre, dichos sistemas ya estén en funcionamiento.
Por otro lado, para proteger a los usuarios, también le piden a OpenAI que permitan que estos puedan solicitar la rectificación de datos personales inexactos y, si no es posible, que tengan derecho a suprimirlos. Además, establecen como condición adicional que los usuarios sean capaces de oponerse al tratamiento de sus datos personales de forma sencilla.
Imagen generada con Bing Image Creator