Empleados de Samsung filtraron información confidencial al usar ChatGPT
ChatGPT se volvió un dolor de cabeza para Samsung. La popularidad del chatbot impulsado por IA orilló a que algunas empresas comenzaran a integrarlo en sus flujos de trabajo. Una de ellas fue Samsung Semiconductor, donde los ingenieros lo utilizaban para resolver errores en el código de sus productos sin saber que filtraban información confidencial.
De acuerdo con un reporte de Economist, los empleados de Samsung filtraron contenido sensible en tres ocasiones, algunas de ellas incluían código fuente. Los incidentes ocurrieron en un lapso de veinte días, luego de que el gigante surcoreano permitiera el uso de ChatGPT en su división de semiconductores. Según el diario, los trabajadores buscaron aprovechar dos características clave del chatbot sin estar conscientes de que los datos terminarían en OpenAI.
La primera filtración fue de un ingeniero a cargo de un software interno de base de datos. El empleado se encontró con un error de compilación y se le hizo sencillo copiar y pegar el código fuente en ChatGPT para encontrar la solución. Aunque muchos recurren al chatbot para resolver problemas de programación, OpenAI sugiere a los usuarios que no introduzcan información confidencial.
El segundo leak se dio cuando otro empleado ingresó código utilizado para identificar chips defectuosos y pidió a ChatGPT que lo optimizara. Esta filtración podría considerarse como la más delicada debido al secretismo en los procesos de fabricación en Samsung. Por último, un tercer trabajador ingresó un documento con los detalles de una reunión para que la IA generara una presentación.
Ante las filtraciones, Samsung aplicó medidas de emergencia e impuso un límite de subida de 1.024 bytes a las preguntas que se hacen en ChatGPT. La compañía confirmó que realizará una investigación y que castigará a los responsables en caso de ser necesario.
Vía: Hipertextual