El chatbot de la startup estadounidense OpenAI está demostrando ser tan efectivo que puede usarse fácilmente para engañar a los lectores.
Aclamado, luego criticado… Desde su aparición en diciembre pasado, el generador de texto de inteligencia artificial ChatGPT ha viajado por todos los estados, prueba de la importancia de su impacto.
El chatbot, desarrollado por la startup estadounidense OpenAI, a quien también le debemos el DALL-E, quedó tan impresionado con su precisión que terminó preocupando a muchos observadores. Empezando por los académicos que lo ven como una manera fácil de escribir disertaciones, disertaciones o tesis, al menos en parte.
Pero del mismo modo que OpenAI intenta corregir su chatbot para evitar que reproduzca prejuicios racistas o sexistas en la sociedad, la empresa también pretende luchar contra posibles abusos.
una señal imperceptible
“Básicamente, cada vez que GPT genera texto largo, queremos que haya una señal secreta imperceptible en sus elecciones de palabras que pueda usar para demostrar más tarde que sí, es de GPT”, explicó en una publicación reciente. conferencia Scott Aaronson, un investigador del MIT que se unió recientemente a la startup.
“Podría ser útil para prevenir el plagio académico, obviamente, pero también, por ejemplo, la generación masiva de propaganda, ya sabes, enviar spam a todos los blogs con comentarios en apoyo de la invasión rusa de Ucrania, sin necesidad de un edificio lleno de trolls en Moscú, o suplantar el estilo de escritura de alguien para incriminarlo”, enumera el investigador.
Si este último no explica concretamente cómo una universidad o incluso un individuo podría verificar la presencia de este marcador, garantiza que la señal será lo suficientemente compleja y efectiva para identificar fragmentos simples de oraciones añadidas a un texto. Una forma de corregir uno de los sesgos de ChatGPT.
“Apasionado especialista en tocino. Defensor de Internet. Adicto a la cerveza. Amable aficionado a los zombis. Experto en Internet”.