Samsung descubrió que tres de sus ingenieros habían filtrado datos secretos al menos tres veces en un corto período de tiempo usando ChatGPT.
Noticias pronto
- Samsung descubrió una fuga de datos relacionada con el uso de ChatGPT para corregir errores en su código fuente;
- Esta fuga de datos genera preocupaciones sobre los riesgos potenciales de trabajar con tecnología de IA;
- Samsung planea desarrollar su propio servicio de inteligencia artificial similar a ChatGPT para uso interno para evitar incidentes similares en el futuro.
De acuerdo con El economistaSamsung descubrió una fuga de datos que reveló información confidencial, incluidas actas de reuniones y datos de rendimiento y productividad de las instalaciones de producción, a ChatGPT.
Los ingenieros de Samsung estaban usando el chatbot para corregir rápidamente errores en su código fuente, transmitiendo datos que no deberían hacerse públicos. Si bien esta infracción no fue intencional, plantea preocupaciones sobre los riesgos potenciales de trabajar con IA.
Durante un período de 20 días, Samsung documentó tres instancias en las que el uso de ChatGPT resultó en fugas de datos. Estos eventos ocurrieron en rápida sucesión. En un caso, un empleado ingresó patrones de prueba confidenciales diseñados para identificar chips defectuosos y luego optimizarlos. En otro caso, un empleado usó Naver Clova para convertir la grabación de una reunión en un documento antes de enviarlo a ChatGPT como preparación para una presentación.
Samsung planea desarrollar su propio servicio de inteligencia artificial similar a ChatGPT
Para evitar incidentes similares en el futuro, Samsung planea desarrollar su propio servicio de inteligencia artificial similar a ChatGPT para uso interno. Además, la empresa ha limitado el tamaño de las preguntas enviadas a ChatGPT a 1024 bytes. Finalmente, si se conocieran nuevas violaciones, Samsung simplemente podría bloquear el acceso a ChatGPT.
ChatGPT es una verdadera revolución, sin embargo, la herramienta genera mucha polémica. Recientemente, Italia optó por bloquear ChatGPT. Garante, la autoridad reguladora italiana para la protección de datos personales, critica especialmente a la inteligencia artificial diseñada por OpenAI por no cumplir con la legislación vigente en materia de protección de datos privados.
como se explica numrama, los RN no están sujetos al secreto profesional. Muchas personas confían en ChatGPT, olvidando que esta herramienta también registra datos. La investigación de la firma de ciberseguridad Cyberhaven, publicada en febrero e identificada por DarkReading el 7 de marzo de 2023, indica que decenas de miles de empleados pasaron información corporativa al chatbot desarrollado por OpenAI.
De 1,6 millones de estaciones de trabajo monitoreadas por la firma de ciberseguridad, el 2,6% de los usuarios reveló información confidencial a la IA. Muchos empleados filtran información confidencial sobre su empresa y sus trabajos a los chatbots de IA. Estas discusiones se mantienen y pueden ser reutilizadas en futuros intercambios.
¿Quieres unirte a una comunidad de entusiastas? nuestra discordia les da la bienvenida, es un lugar de ayuda mutua y pasión por la tecnología.
“Apasionado especialista en tocino. Defensor de Internet. Adicto a la cerveza. Amable aficionado a los zombis. Experto en Internet”.