Los humanos no podrán controlar la IA, la ciencia lo demuestra

La idea de que la inteligencia artificial derroque a la humanidad se ha debatido durante muchas décadas. Los científicos acaban de emitir su veredicto sobre la posibilidad de controlar una superinteligencia informática de alto nivel. La respuesta ? Ciertamente no, o casi.

Necesita una simulación para comprender

En toda esta historia, hay una trampa. Controlar la superinteligencia más allá de la comprensión humana requeriría un simulación de eso a laanalizar. Más sin entender de esta superinteligencia, es imposible crear tal simulación. No dañar a los humanos: este tipo de regla no se puede definir si no entendemos el tipo de escenarios que un inteligencia artificial propondrá. Dado que un sistema informático funciona a un nivel más allá del alcance de los programadores, ya no podemos establecer límites.

Según los investigadores, uno superinteligencia presenta un problema fundamentalmente diferente de los que se estudian generalmente bajo la bandera de la ética de los robots. De hecho, tiene muchas facetas. Entonces, potencialmente es Capaz de movilizar una variedad de recursos para lograr metas que son potencialmente incomprensibles para los humanos., e incluso menos controlable.

Concéntrese en el problema del apagado

Parte del razonamiento del equipo proviene de problema de apagado presentado por Alan Turing en 1936. El problema es si un programa de computadora llegará o no a una conclusión y una respuesta (por lo tanto, se detiene). O trabaje en un bucle para intentar siempre encontrar uno.

Todas programa escrito para evitar que la IA dañe a los humanos y destruya el mundo por ejemplo, puede o no llegar a una conclusión (y detenerse). Es matemáticamente imposible estar absolutamente seguro de todos modos, lo que significa que no se puede contener. De hecho, inutiliza el algoritmo de contención.

READ  Lo que dice la ciencia sobre el derecho al aborto

Limita las capacidades de la superinteligencia

La alternativa de enseñar ética de la IA y decirle que no destruya el mundo, de la que ningún algoritmo puede estar absolutamente seguro, dicen los investigadores, es limitar las capacidades de la superinteligencia. Se puede piratear desde partes de Internet o desde ciertas redes, por ejemplo.

El nuevo estudio también rechaza esta idea, sugiriendo que limitar el alcance de la inteligencia artificial. El argumento es que si no lo vamos a utilizar para resolver problemas más allá del alcance de los humanos, ¿por qué crearlo?

Pregúntese sobre la dirección a seguir

Avanzando con inteligencia artificial, nadie puede saber cuándo será efectiva la superinteligencia. Ahí radica la incomprensibilidad de la situación. Esto significa que tenemos que empezar hacer preguntas serias sobre adónde ir con la IA.

Una máquina superinteligente que controla el mundo mira ciencia ficción. Pero ya hay máquinas que realizan algunas tareas importantes de forma independiente, sin que los programadores comprendan completamente cómo las aprendieron. Entonces, la pregunta es si puede, en algún momento volverse incontrolable y peligroso para la humanidad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *