El término «Shadow GPT» se refiere al uso de ChatGPT u otras IA generativas en contextos profesionales sin la aprobación previa de la jerarquía. Los trabajadores transmiten sin ser conscientes datos potencialmente delicados a otras empresas al utilizar estas herramientas. La investigación muestra que el 30% de los trabajadores se encuentran en esta situación con problemas de seguridad.
Contacta con la agencia de encuestas IntoTheMinds
Shadow GPT: 7 estadísticas a recordar
- El 71% de los franceses conocen IA generativas como ChatGPT de OpenAI y Bing de Microsoft.
- El 44% de los participantes utilizan IA en entornos personales y profesionales.
- El 68% de los usuarios de IA generativas dentro de empresas todavía requieren aprobación de sus supervisores.
- El 50% de las empresas estadounidenses dicen que están actualizando sus políticas internas para controlar el uso de ChatGPT y poner fin al Shadow GPT.
- El 70% de los participantes en otra investigación de Microsoft dicen que se alegraría de delegar tareas repetitivas a las IA.
- El 45% de las personas entre 18 y 24 años dicen que utilizan IA, en comparación con el 18% por encima del os 35 años.
- El 72% de los franceses creen que necesitan más conocimientos para utilizar IA generativas.
Introducción
El término Shadow GPT se genera a partir del de «Shadow IT», que se refiere a softwares no aprobados previamente por el departamento de IT de una empresa. Los trabajadores Shadow GPT utilizan herramientas IA generativas como ChatGPT con objetivos empresariales sin haber obtenido previamente la aprobación de su empresa. Un estudio reciente muestra que esta práctica en realidad está mucho más extendida de lo que uno podría esperar, pero pone en peligro los datos privados de las empresas.
Shadow GPT: casi un 1/3 de los trabajadores están afectados actualmente
Una investigación de abril de 2023 revela que el 71% de los franceses están familiarizados con las IA generativas como ChatGPT de OpenAI y Bing de Microsoft (cuyo modo de «creación» se basa en GPT4). La investigación también mostró que el 44% de los participantes utilizan estas IA a nivel personal y profesional. De estos, el 68% lo hacen sin informar a sus superiores. En otras palabras, casi el 30% de los trabajadores franceses utilizan IA generativas sin autorización previa de sus gerentes.
En otro estudio llevado a cabo por Microsoft, el 70% de las personas entrevistadas dijeron que están de acuerdo en delegar tareas repetitivas a las IA, lo cual podría ahorrarles hasta dos días de trabajo.
Los peligros de Shadow GPT
Ya hemos mencionado los peligros de ChatGPT. Por decirlo con sencillez, son peligros relacionados con filtraciones de datos confidenciales. Estos peligros son inherentes a todos los servicios gratuitos de Internet y es que, si son gratis, es que tus datos se están utilizando como moneda de pago.
Statoil fue engañada ya en 2017 con el uso de DeepL (que utiliza tus datos para entrenar a su algoritmo, como se puede ver más abajo), y en 2023 fue Samsung quien se vio atrapada en la trampa de ChatGPT. Sus trabajadores utilizaron ChatGPT en 3 ocasiones y transmitieron información estrictamente confidencial a OpenAI. Estos datos concernían especialmente al código fuente de sus chips electrónicos.
Estos peligros han llevado a que algunas empresas prohíban el uso de ChatGPT, empezando por Samsung, que creará una herramienta interna disponible, e incluyendo a JPMorgan Chase, Amazon, Verizon, y Accenture. Todas estas empresas tienen en común que trabajan con grandes cantidades de datos propietarios gracias a los que obtienen una ventaja competitiva. El uso de ChatGPT, y en general de todas las herramientas algorítmicas que proponen una versión gratuita, es transferir los datos del usuario para usarlos como entrenamiento. Mientras que el intercambio de buena voluntad es comprensible (un servicio gratuito a cambio de datos), solo algunos usuarios son conscientes de esta transferencia. En el caso de ChatGPT, la falta de consentimiento ha llevado incluso a que el gobierno italiano haya censurado ChatGPT en su territorio. Esta decisión fue violenta y repentina, pero tuvo el mérito de llamar la atención sobre los fallos de OpenAI.
Atención especial para los empleados jóvenes
La investigación muestra un hueco generacional en la adopción de IA, con el 45% de las personas entre 18 y 24 años dándole uso en comparación con el 18% de las personas con más de 35 años. Solo sorprende a nivel moderado que el 72% de los franceses sientan que necesitan más conocimientos para utilizar estas tecnologías.
Este hueco debe hacer que las empresas sean conscientes de que los peligros no se distribuyen de manera equilibrada entre los empleados; algunos suponen «un riesgo» mayor que otros, y los esfuerzos de concienciación tendrán, por lo tanto, que llevarse a cabo de un modo diferenciado según el objetivo.
La mayoría de las empresas no miden los riesgos
Shadow GPT no empieza con malas intenciones; los trabajadores sienten curiosidad por experimentar con esta nueva herramientas, y eso es un punto a favor. La parte de experimentación es fundamental para comprender su utilidad y, como explicó el investigador de MIT Ethan Mollick, hacen falta al menos 4 horas de trabajo en estas herramientas para comprenderlas. Pero ahí es precisamente donde yace el problema: la falta de información y trasparencia.
Las empresas, por otro lado, han sido pilladas por sorpresa. Casi el 50% de las empresas estadounidenses encuestadas en una encuesta de marzo de 2023 estaban revisando sus políticas internar para adaptarse a Shadow GPT. La adopción de ChatGPT por parte de sus empleados fue tan repentina y la temática tan nueva que no habían mostrado interés en ella previamente.
Pero dejando a delado a las grandes empresas, también existen todas aquellas para las que ChatGPT seguirá siendo un misterio durante mucho tiempo hasta que sus secretos empresariales terminen saliendo a la luz. Recuerda que el 96% de las empresas son PYMES y que su nivel de madurez digital necesita ser más ejemplar. Por lo que quedan muchos retos para educar a los empleados sobre los beneficios de IA, pero también sobre sus límites.
Publicado en Innovación.