ChatGPT es un asistente que puede ser muy útil en muchos trabajos. Sin embargo, usar el chatbot podría no ser totalmente inocuo y, por eso, algunas empresas han prohibido a sus empleados usarlo.

Subir información relacionada con el trabajo a una plataforma de inteligencia artificial en línea, que es propiedad de otra empresa, podría suponer una violación potencial de la seguridad y la privacidad. Y es eso lo que más temen estas compañías que han prohibido su uso.
Según una encuesta realizada a 11.793 personas por Fishbowl, una app que pone en contacto a profesionales de distintos ámbitos, el 43 % de los encuestados usa herramientas de IA, incluido ChatGPT en tareas del trabajo. Entre estos encuestados que trabajaban para empresas como Meta, Amazon, Bank of America, Edelman, Google, IBM, JP Morgan, McKinsey, Nike y Twitter, el 68 % dijo que no informaba a sus jefes sobre el uso de herramientas de IA, mientras que el 32 % declaró que su jefe sabía que la usaba en el trabajo.
Los ingenieros de software son algunos de los profesionales que están usando activamente ChatGPT en su trabajo para escribir, probar o depurar código. Eso sí, tienen que estar encima de la IA para que no se produzcan errores.
Recientemente, Samsung Electronics tomó medidas contra el uso de IA generativa después de que un ingeniero de la empresa copiara y pegara código sensible a ChatGPT. Como a otras compañías, a Samsung le preocupa que todo lo que se suba a plataformas de IA como ChatGPT o Bard quede almacenado en los servidores de esas empresas, sin posibilidad de acceder a la información o eliminarla.
OpenAI puede utilizar todo lo que se escriba en ChatGPT para mejorar el sistema. Lo que las empresas temen es que se facilite información confidencial o sensible al chatbot y que este la comparta involuntariamente con otros usuarios.
Además, OpenAI sigue resolviendo problemas de seguridad. En marzo cerró un tiempo ChatGPT para corregir un error que permitía a los usuarios ver los títulos de los historiales de chat de otros usuarios. Un mes más tarde, en abril, OpenAI permitió a los usuarios desactivar su historial de chat, lo que, según la empresa, impediría a ChatGPT utilizar los datos para entrenar su modelo de IA.
Del mismo modo que hay empresas que han prohibido el uso de ChatGPT a sus trabajadores, otras han creado sus propias IA generativas. Es el caso de Amazon, que en enero prohibió ChatGPT y ahora cuenta con su propia IA llamada CodeWhisperer a disposición de sus desarrolladores.
Apple, por su parte, restringió el pasado mayo el uso de ChatGPT a algunos de sus trabajadores para evitar exponer información confidencial. La compañía está desarrollando su propia IA que competirá con el chatbot de OpenAI.
En junio, el Commonwealth Bank de Australia restringió el uso de ChatGPT y ordenó al personal técnico que utilizara una herramienta similar llamada CommBank Gen.ai Studio, desarrollada por el propio banco en colaboración con la empresa tecnológica de Silicon Valley H2O.ai.
Otros bancos, como Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co. y JP Morgan, prohibieron totalmente el uso de ChatGPT a sus trabajadores.
Han prohibido la herramienta algunos bufetes de abogados y hospitales australianos. En el caso de estos últimos, se tomó la decisión porque algunos sanitarios emplearon la IA para escribir notas médicas privadas.
En el lado opuesto se sitúa Coca-Cola, quien tiene pensado usar ChatGPT y la IA generadora de imágenes Dall-E para crear contenidos.
Parece que en el futuro la IA generativa tendrá su espacio en la oficina pero, por ahora, muchas empresas ven más riesgos que beneficios.