Además de la inteligencia artificial, el chatbot ChatGPT debe su capacidad de hablar a los humanos

Además de la inteligencia artificial, el chatbot ChatGPT debe su capacidad de hablar a los humanos

Desde el 30 de noviembre, un agente de conversación en línea, o chatbot, ha fascinado a los internautas con sus creaciones literarias, su dominio de los lenguajes humanos o informáticos, sus respuestas sorprendentes o decepcionantes, a veces sus errores garrafales. Ya no contamos las canciones, los juegos de preguntas y respuestas, los diálogos, ni siquiera las entrevistas de ChatGPTel programa de la empresa estadounidense OpenAI, especializada en inteligencia artificial (IA). “El gato y el robot estaban jugando al póquer, pero el gato hizo trampa usando sus garras para marcar las cartas”por ejemplo, ofrece la herramienta cuando se le solicita una frase divertida.

“Como usuario, podría estar impresionado, pero como científico, tenemos que ver, porque aún no tenemos los detalles de este chatbot. Los resultados necesitan ser evaluados por métricas y pruebas que la comunidad científica ha desarrollado”señala Chloé Clavel, profesora de Télécom Paris, quien advierte que «demasiada confianza en la forma puede disminuir la vigilancia sobre la veracidad de lo que se produce»🇧🇷

Lea también: Artículo reservado para nuestros suscriptores ChatGPT, el software capaz de escribir pequeños textos confusos

“Todavía estamos viendo un cambio. ChatGPT, aunque generalista, parece ser mejor en tareas específicas que los sistemas programados para ese propósito”cree Benoît Sagot, del Instituto Nacional de Investigación en Ciencias y Tecnologías Digitales, para quien sin embargo «lo más interesante es descubrir lo que puede hacer inesperadamente»🇧🇷

combinación ideal

¿Cuáles son los secretos de esta IA? “A priori, no se inventaron nuevos métodos para ChatGPT. Pero mezcla enfoques anteriores con muchos datos”.cree Chloé Clavel, para quien una cosa es segura: “El papel primordial del ser humano en el desarrollo. 🇧🇷

Levantar el capó del ChatGPT equivale, por tanto, a desenterrar la parte humana de este cohete multietapa. Primer paso, el modelo de lenguaje o el arte de hacer que una máquina escriba un lenguaje correctamente. Este paso se remonta, para OpenAI, a 2020, fecha de lanzamiento de GPT-3, el programa más grande jamás construido en ese momento con alrededor de 175 mil millones de parámetros. Es como si, para ajustar la puntería de un rifle que no coincide, el especialista tuviera que encontrar la combinación ideal presionando 175 mil millones de botones. Aquí, el objetivo era encontrar la mejor palabra para completar una oración. Para entrenar, el software ingirió más de 570 gigabytes de datos de la web. Estos parámetros están organizados de acuerdo con una arquitectura prevista por Google en 2017, llamada «Transformador», para tener mejor en cuenta el contexto y, por lo tanto, mejorar la traducción.

Tienes el 66,33% de este artículo para leer. Lo siguiente es solo para suscriptores.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *