ChatGPT ha protagonizado un nuevo episodio de manejo de información, pero no por un problema en su plataforma, sino por cómo usaron el chatbot los ingenieros de una fábrica de Samsung Semiconductor para obtener asistencia y corregir errores, pero proporcionando a la herramienta con información confidencial de los procesos y rendimientos de la instalación.
Según detalla el medio Economist, en tres ocasiones diferentes los trabajadores de Samsung Semiconductor provocaron una fuga de sus datos utilizando ChatGPT, todos en un lapso de apenas 20 días.
A diferencia de en otras ocasiones, como en la que la plataforma de ChatGPT tuvo un error que mostraba conversaciones de otros usuarios y en la que se filtraron hasta datos de pago, en este caso la fábrica de Samsung envió sin considerar una parte de su información a los servidores de OpenAI.
Recordemos también que los empleados de OpenAI verifican el contenido de las preguntas ingresadas a ChatGPT, aprovechándolas como "datos de aprendizaje", por lo que en caso de ingresar secretos corporativos en las consultas, hay el potencial de que esta información se pueda filtrar a un número no especificado de personas.
Por parte de OpenAI incluso hay una advertencia para prevenir esta situación en la guía de uso de ChatGPT, que indica "no ingresar información confidencial".
Usando ChatGPT para procesos laborales
El reporte apunta a que en el primero de estos tres incidentes un empleado envió un código fuente de un programa patentado a ChatGPT, con la intención de que el chatbot le ayudara a corregir errores.
Esto significa que el trabajador reveló el código de una aplicación confidencial a la Inteligencia Artificial, que está administrada por una empresa externa.
En el segundo caso otro empleado ingresó los patrones de prueba que la fábrica utilizaba para identificar chips defectuosos, solicitando a la IA que optimizara el método.
Sin embargo estas pruebas que permiten identificar los errores son estrictamente confidenciales, dice Economist, pues les permiten a las compañías optimizar los métodos de producción, reducir el número de problemas, además de acelerar los procesos de verificación, bajando también los costos.
Un tercer empleado que primero usó la app Naver Clova para convertir una grabación de una reunión empresarial en un documento, utilizó a ChatGPT para que le ayudara a generar una presentación de la misma.
Controlando la información dada a ChatGPT
Luego de que Samsung se percatara del manejo que sus trabajadores estaban haciendo con la información confidencial, se advirtió a los empleados sobre los riesgos que hay de usar ChatGPT.
Por ejemplo, Samsung Electronics informó tanto a empleados como a ejecutivos, dice Economist, de que los datos ingresados en el chatbot se transmiten y almacenan en servidores externos, específicamente de OpenAI, lo que hace imposible que la empresa los pueda recuperar, aumentando los riesgos de tener fugas de información confidencial.
Por lo pronto, el medio detalla que se aplicaron "medidas de emergencia", como limitar la capacidad de subida a 1024 bytes por pregunta con la intención de controlar mejor la cantidad de información que se puede compartir con la herramienta.
Además se están preparando medidas de protección adicionales para evitar casos similares en el futuro, como que la empresa pueda bloquear el acceso a ChatGPT en caso de un nuevo incidente.
Eso sí, el medio detalla que tras consultar con un funcionario de Samsung Electronics sobre la fuga de información, este respondió que era un "evento difícil de confirmar", pues se trataba de un asunto interno de la empresa.
Imagen: Matheus Bertelli
Ver 2 comentarios