Un nuevo estudio de Deloitte señala que la mayoría de las empresas ya están probando las herramientas de inteligencia artificial generativa y una gran parte han empezado a utilizarlas internamente. A pesar de ello, muchos consideran que esta tecnología plantea riesgos éticos graves y no están seguros de si sus compañías lo están teniendo en cuenta.
La evolución de la IA en los últimos años ha supuesto una revolución tecnológica sin precedentes. Actualmente, hay una gran cantidad de herramientas, como ChatGPT, que ayudan a los usuarios en sus tareas profesionales y cotidianas, como realizar consultas, redactar textos o desarrollar código de programación.
Sin embargo, para algunos, este rápido desarrollo tecnológico también es motivo de preocupación. Si no es convenientemente regulada, la IA puede llegar a ser perjudicial para los seres humanos. Y es que existen dudas y miedos acerca del impacto que esta puede acabar teniendo en el trabajo de muchas personas, que pueden volverse prescindibles.
Varios informes, como este u otro de la propia OpenAI, ya han revelado en qué profesiones las personas tenían más riesgos de ser reemplazados por la IA. Sin embargo, un estudio reciente también demostró que, de momento, la mayoría no teme ser sustituido en su puesto de trabajo, sino que la IA les servirá para asistirles en sus tareas; aunque, para ello, será imprescindible aprender a utilizar estas herramientas, cuyo que cada vez estará más presente en nuestros trabajos.
Un nuevo informe de Deloitte vuelve a poner de manifiesto esta idea y demuestra que cada vez más empresas están comenzando a integrar esta tecnología en su día a día. “Technology Trust Ethics Report” se basa en las respuestas de 1.716 profesionales técnicos y empresariales relacionados activamente con el uso de tecnologías emergentes y, además, en la información proporcionada por 26 expertos de distintas industrias.
La IA en el trabajo
Este estudio trata de comprobar si las empresas que están implementando este tipo de tecnología, lo están haciendo de forma correcta y, por ende, cómo está cambiando la vida de sus empleados.
Como comentamos, parece que las empresas ya están recurriendo al uso de la IA para todo tipo de tareas. Más concretamente, el 65% de los encuestados afirma estar utilizándolas internamente en sus compañías, aunque el 74% dice que sólo están probando esta tecnología -sin haberla implementado aún- y el 31% sólo la usa externamente.
El 39% de los ejecutivos considera que las tecnologías cognitivas como la IA generativa pueden ser muy beneficiosas para la humanidad. Sin embargo, a pesar de sus ventajas, estas herramientas aún no son perfectas, por lo que su uso sin límites conlleva algunos riesgos, como la desinformación, propiciada por las famosas “alucinaciones”, o la información dañina o sesgada que puedan generar. De hecho, recientemente supimos que la IA puede tender a darnos la razón aunque lo que digamos no sea cierto.
En cuanto a en qué lugar deja la implementación de esta tecnología a los empleados, parece que, de momento, no hay que preocuparse demasiado. Al 49% de los profesionales que se han visto desplazados por la IA se les ha movido a otros puestos de trabajo y han sido reentrenados para mejorar sus habilidades; y, en el 27% de los casos, la adopción de esta tecnología no ha supuesto ningún cambio. La peor parte se la lleva el porcentaje restante: el 13% ha sido asignado a otro puesto de trabajo sin la posibilidad de formación y el 11% ha sido despedido.
Preocupaciones éticas
Este estudio también demuestra que muchas personas están preocupadas por sus implicaciones éticas. Y es que el 57% piensa que la IA tiene un gran “potencial para generar riesgos éticos graves”. Es decir, que, pese a su utilidad, la mayoría no ven a esta tecnología con muy buenos ojos.
Por esta razón, no sorprende que el 69% defienda la idea que los gobiernos deberían colaborar con las empresas “para definir estándares éticos para la tecnología”. De hecho, el 27% y el 23% de las compañías encuestadas asegura estar trabajando con otras empresas y organizaciones gubernamentales respectivamente para “revisar posibles preocupaciones éticas”.
Asimismo, el 72% de los líderes empresariales dicen haber establecido unos principios éticos concretos para tecnologías como las herramientas de IA generativa; y, por otro lado, el 56% afirma recurrir a una junta o proceso de revisión para revisar y actualizar los estándares éticos de estas tecnologías emergentes.
No obstante, sus empleados parecen no estar de acuerdo con ellos. Y es que el 56% de estos dicen exactamente lo contrario. Es decir, que sus empresas carecen de mecanismos o procesos para establecer unas directrices éticas consistentes. A día de hoy, debido a la rápida evolución de la tecnología, lo más conveniente sería actualizar esos estándares éticos habitualmente, pero la mayoría de las empresas sólo lo hacen anualmente (42%) y cuatrimestralmente (38%), frente a un 15% que dice hacerlo cada mes.
Entre las principales preocupaciones de los trabajadores asociadas a herramientas como las IA generativas, encontramos la privacidad (22%), la transparencia (14%) y el envenenamiento de datos (12%), es decir, la alteración por malos actores de los conjuntos de datos con los que estas se entrenan.
Imagen de Mohamed_hassan en Pixabay