La Naturaleza de la Inteligencia
El núcleo de este libro podría ser un análisis filosófico de la inteligencia propiamente dicha, y si es posible su descripción en términos científicos, o bien si representa una esencia irreductible e irreproducible.
De hecho, esta ha sido la labor, bajo diversas formas, de los filósofos durante miles de años. Con la inclusión de la naturaleza de la verdad, la belleza, el bien y el mal, la moralidad, la ética y la estética, la filosofía tenía todo lo necesario para establecer unas consideraciones prácticas. Por el contrario, la división del conocimiento en dos campos, el de la comprensión abstracta y el de las consecuencias prácticas, habiendo sido este último desaprobado y considerado inferior por los seguidores del primero, ha sido un puntal de la filosofía occidental desde Aristóteles.
Este libro contempla varias hipótesis, y el hecho de que la inteligencia pueda ser comprendida, analizada y reproducida es una de las fundamentales. En los últimos libros de los filósofos que no menosprecian ser entendidos por muchos, se incluyen maravillosos argumentos del porqué debería ser así.
En general, a los efectos de este libro, definiremos la inteligencia como la capacidad de la materia para organizarse de una manera que le permita buscar soluciones a los objetivos mediante la esquematización de una vía de acción pertinente, y para organizar tanto los recursos abstractos como los concretos para alcanzarlos.
El cerebro humano es una masa de materia que está dotado de un determinado coeficiente de inteligencia. Y utilizo a sabiendas esta expresión en lugar de “mente”. Evitaremos el escollo del dualismo que ha atascado la filosofía intentando entender una mente que se limita a ocupar el cerebro, y que arrastró a Descartes a argumentar sobre los homúnculos y la infructuosa búsqueda del tejido conectivo a través del cual la mente se conecta al cerebro. De acuerdo con este supuesto, el cerebro expresa la mente y la mente es lo que hace el cerebro.
El turco mecánico
Durante el siglo XVIII, un fascinante artilugio recorrió las cortes de los reinos de Europa. Diseñado por el húngaro Wolfgang von Kempelen, consistía en una caja grande encima de la cual se sentaba un muñeco de madera; lo que hoy llamaríamos un robot. Jugaba al ajedrez y ganaba a cualquiera que intentara jugar una partida con él, de manera infalible y con precisión mecánica. La afirmación de Von Kempelen de que había construido un autómata capaz de actuar con inteligencia quedó desenmarañada cuando se demostró que la caja albergaba a un enano. Gracias a su dominio del ajedrez, el enano pretendía ser la inteligencia del robot. En realidad era el homúnculo de una configuración artificial de inteligencia mecánica. Constituía una inteligencia artificial, artificial.
Pruebas de Turing para los humanos
Cuando en los años 40 nacieron los primeros ordenadores eléctricos, Alan Turing formuló una nueva prueba para la inteligencia de las máquinas. La prueba de Turing, tal como es llamada hoy, afirma que hay razones de sobra para creer que una máquina es inteligente si es considerada inteligente a través de sus acciones por un equipo de jueces humanos. Durante la prueba, la configuración de la prueba oculta la máquina a los humanos, y mezcla la máquina y sus resultados con otros humanos que durante la prueba pretenden ser máquinas y que quieren que los jueces decidan si son máquinas o humanos. Turing lo llamó “el juego de imitación”, probablemente convencido de que era menos trascendente que la fascinación que ahora despierta. Con demasiada frecuencia y de una manera algo grandilocuente, alguna fuente periodística anuncia la superación de la prueba de Turing. Generalmente, cuando se analizan las transcripciones del diálogo escrito entre la máquina ganadora y su juez humano, parece que la máquina, o mejor dicho los programadores que se esconden detrás, hacen bromas, cambian de tema y otras banalidades.
Ajedrecistas expertos
En 1996, el entonces campeón mundial de ajedrez, Gerry Kasparov, fue derrotado por una máquina llamada Deep Blue, especialmente diseñada y construida por IBM con este propósito. Decididamente, la máquina no podía intentar superar la prueba de Turing en su juego de imitación basado en el diálogo escrito que abarca temas generales. No obstante, gracias a su hardware y software especializados en el análisis y el descarte de millones de movimientos en el árbol de posibilidades del juego del ajedrez, hasta que decidía cuál era el mejor movimiento en una determinada configuración, fingía sin embargo ser lo suficientemente inteligente en el juego para ganar e incluso enfurecer a Kasparov.
Si el juego de imitación de la prueba de Turing consiste en convencer a un grupo de humanos de que una máquina puede mantener un diálogo similar al de los humanos gracias al uso de las reglas de sintaxis y semántica, la prueba de Kasparov, el juego del ajedrez consiste en convencer a un jugador de ajedrez que ha perdido contra una máquina que juega con arreglo a las reglas del ajedrez. Y lo que es más significativo, en este caso no existe una diferencia propiamente dicha entre la máquina que pretende saber jugar al ajedrez y alguien que sabe jugar al ajedrez.
Durante las diversas fases de la competición entre Kasparov y Deep Blue, los ingenieros de IBM retocaron los algoritmos de la máquina, lo que conllevó las enérgicas protestas del campeón ruso. ¿No era capaz la máquina de aprender durante la partida? Los retoques, que redundaron en un aumento de su inteligencia y posiblemente contribuyeron a su victoria, fueron admitidos por los jueces del torneo.
Sistemas expertos e inteligencia artificial restringida
Cuando se aplican a un hardware especializado como la Deep Blue de IBM, o en arquitecturas informáticas más generalizadas, incluso en ordenadores personales, los sistemas que simulan el poder de decisión de un humano en un determinado campo especializado reciben el nombre de sistemas expertos. En la década de los 80, el campo de la inteligencia artificial (IA) estaba dominado por el desarrollo de los sistemas expertos. En ámbitos tan diversos como el diagnóstico médico o la planificación financiera, se codificó en reglas el conocimiento de expertos en una determinada área que eran puestas en marcha por motores de inferencias capaces de aplicarlas con arreglo a los datos proporcionados con el fin de generar una recomendación para una línea de acción: qué posible enfermedad sugerían los síntomas, o qué préstamo era el más apropiado para una determinada situación financiera.
Estos sistemas expertos mostraron una relativa eficacia, y todavía se utilizan en varios campos, pero no representan un intento de crear un modelo general de inteligencia y no pueden considerarse el paso intermedio del camino hacia una inteligencia artificial general experta en todos los campos.
Esperanzas y decepciones
Muchos de los profesionales originales de la IA siguen creyendo en la posibilidad de construir rápidamente ordenadores que muestren una mayor capacidad de pensamiento, creatividad y resolución de problemas. Se aprovecharon de los estimulantes ambientes del mundo académico, desde el MIT (Instituto Tecnológico de Massachusetts) a la Universidad Stanford y otros lugares, para la creación en los años 60 de laboratorios que estudiaran las posibilidades. Y muchos de ellos abandonaron el mundo académico para obtener fondos de la industria o capital de riesgo con la esperanza de instaurar una innovación ampliable y sostenible mediante la aplicación de lo aprendido en los laboratorios.
La mayoría de las reivindicaciones expresadas, aun teniendo en cuenta el constante desarrollo del hardware disponible que servía de base para los sistemas informáticos de IA, no fueron atendidas. O al menos no alcanzaron la trascendencia que necesitaban los financiadores para justificar sus continuas inversiones. En la década de los 80 llegó el llamado “invierno de la IA”, y parecía que este escenario no iba a cambiar el mundo con la profundidad que inicialmente se creía.
Esto es un efecto común de la incomprensión de los exponenciales. El entusiasmo de las personas externas generado por su escaso entendimiento de los principios subyacentes, junto con la premura de los expertos por ofrecer unos resultados consistentes, se concentra en unos cuantos puntos de datos con una interpolación lineal. ¡Pero el crecimiento lineal al principio de un exponencial es en realidad superior! Por consiguiente, aquellos que infravaloran el posterior poder del exponencial están también expuestos a cometer el error de sobreestimarlo al principio.
El papel del aprendizaje
Cuando nacieron los ordenadores, su arquitectura inicial no coincidía con la de lo que hoy conocemos como un ordenador. Se parecía más a una herramienta especializada que solo podía utilizarse para un determinado propósito que al instrumento universalmente adaptable que utilizamos diariamente hoy. El hardware era diseñado para ser optimizado y literalmente adaptado a esta tarea individual, y no era factible reconfigurarlo para hacer otras cosas.
Hasta la aparición al cabo de un tiempo del ordenador con memoria almacenada, implementado con la arquitectura de Von Neumann, que no distinguía entre los números que representan datos y los números que representan instrucciones, no fue posible hablar de un ordenador universal. Incluso entonces se requirió un nuevo desarrollo para completar el concepto de programación del ordenador y de representación de los programas en unos formalismos de mayor nivel, lenguajes abstractos que podían entonces traducirse y recopilarse en el lenguaje de la máquina, y que eran los pasos directamente ejecutados por el ordenador.
La escritura de estos programas estableció una nueva forma de arte a mediados del siglo XX, y aunque algunos componentes básicos como las ramificaciones y los bucles ya habían sido previamente conceptualizados antes de que se convirtieran en los elementos prácticos de un programa en marcha, se necesitaban unas herramientas más sofisticadas para conciliar unos programas cada vez más y más grandes y garantizar una capacidad de ejecución sin problemas.
Cómo podían escribirse los programas, y si los propios programas podían ser considerados como datos, con otras partes del programa reescribiéndolos en caso de necesidad y cambiando el funcionamiento del programa principal en curso de ejecución, fue una de las cosas que Turing consideró y comparó con el papel del aprendizaje en los humanos.
Si somos capaces de construir un programa que juega al ajedrez, otro que hace diagnósticos médicos u otro especializado en recomendaciones financieras, ¿podríamos construir programas que fueran eficaces en todas estas cuestiones y en otras más? ¿Podríamos construir un programa que al ejecutarse en un ordenador sofisticado y potente pudiera enfrentarse a un problema, a cualquier problema, y fuera capaz de analizarlo, de obtener los recursos necesarios y de resolverlo? ¿Seremos capaces de construir un programa que identifique y resuelva los problemas, en un sentido absolutamente universal, en el que su programación no sea inamovible sino que se adapte variablemente en función de las necesidades representadas por el entorno? Esto es lo que llamamos Inteligencia General Artificial.
Inteligencia General Artificial
Este libro contempla la suposición de la posibilidad que hay en realidad de construir todo cuanto sea necesario para que aflore un comportamiento capaz de analizar y resolver un conjunto arbitrario de problemas. Construir un hardware lo suficientemente potente en términos de velocidad de ejecución y con la capacidad necesaria de almacenamiento y acceso a la memoria así como, en términos prácticos, que este hardware fuera manejable, pudiera ser alimentado con una cantidad factible de energía y fuera posible construirlo con los recursos de los que disponemos o dispondremos cuando sepamos cómo construirlo. Y también en la posibilidad de construir un software, el conjunto de programas que ejecuta el hardware, capaz de recopilar los datos disponibles para la resolución del problema, para acceder y utilizar dinámicamente la base de conocimientos que se derive de los posibles criterios de abordaje del problema, y que sea lo suficientemente flexible para combinar estos enfoques de una manera innovadora, o para establecer unos enfoques totalmente nuevos con el fin de resolver óptimamente el problema con la ayuda de los recursos y los datos disponibles.
El carácter cuestionable de la prueba de Turing
La predicción inicial realizada por Turing a mediados del siglo XX de que la prueba de Turing no superaría los 50 años, ha demostrado ser falsa. Mantenemos un diálogo constante con nuestras máquinas, y de hecho, con la desaparición de los teclados a favor de unas pantallas táctiles cada vez más y más pequeñas, o la desaparición de los propios ordenadores en el entorno, las interfaces de conversación son la forma natural de interacción entre el ser humano y el ordenador. Sin embargo, no nos hacemos ilusiones en cuanto a mantener un diálogo con un humano dirigido por una máquina y conversar con él.
En cierto sentido es lo cabe esperar. El objetivo de simular ser un ser humano solo está justificado desde un punto de vista hollywoodiense, pero no es necesariamente beneficioso más allá de cierto punto. Un robot podrá adoptar una forma humanoide, por ejemplo ser bípedo o tener manos, ya que de este modo podrá moverse mejor por un entorno humano lleno de peldaños, escaleras, puertas y pomos. Pero una vez sea capaz de hacerlo, los esfuerzos adicionales realizados para tener una apariencia humana solo constituirán una buena inversión si se demuestra que, por ejemplo, la reacción psicológica de los humanos es mejor ante un robot con aspecto humano que ante un robot con aspecto de robot.
Del mismo modo, una conversación destinada a obtener un resultado práctico, como por ejemplo reservar un billete de avión teniendo en cuenta las docenas de limitaciones y los millones de posibles combinaciones de compañías aéreas, horarios de vuelo, conexiones y opciones de asiento, no se beneficiará de la inclusión de los caprichos humanos, lo que aumentará la probabilidad de que la máquina sea vista más como máquina que como ser humano. Una tos inoportuna, una pincelada cómica, o una acotación sobre una observación que pueda producirse en la conversación, solo serán admitidas por el sistema de diálogo si comporta una venta más rápida de un mayor número de billetes y con un mayor grado de satisfacción del interlocutor humano.
El valor que se deriva de la interacción con el robot o de la conversación con la máquina para la contraparte humana, es un objetivo de por sí. Existe un concurso anual financiado con premios en efectivo que mantiene vivo el espíritu de la prueba de Turing. Los chatbots participantes utilizan todo tipo de trampas para despistar a los jueces humanos y hacerles creer que son seres humanos. Existe la posibilidad de acceder a muchos de ellos a través de una interfaz web online para charlar con ellos. No obstante, tal como se desprende de la relativamente modesta cantidad de inversión destinada a los concursos anuales, existe consenso general sobre la existencia en otro lugar del sentido de una investigación realmente fructífera.
La ineludible antropomorfización
Junto con otras varias amenazas filosóficas, no resueltas durante miles de años, la diferencia entre sustancia y emulación repercute en la prueba de Turing. Sin embargo, la conclusión de Turing es muy práctica: si no existe una diferencia estadísticamente significativa en el resultado y sus efectos, entonces no hay motivos para creer que existe una diferencia en la sustancia.
Desde un punto de vista epistemológico, es evidente que esto no es cierto en absoluto. Podemos tener un sistema que parezca idéntico a otro que simula miles de combinaciones distintas de entrada, y de repente, genera un resultado inesperado para un determinado conjunto de entradas, totalmente diferente del generado por el original. Este hecho ha sido explotado en numerosas obras de ficción o películas de Hollywood, en las que los supuestos iniciales están sustancialmente falsificados.
El funcionamiento de la percepción humana es natural e ineludible para las cualidades y las características humanas en objetos o seres no humanos. Desde los juguetes de nuestra infancia que simulaban ser perros y gatos, o la manera en que describimos el funcionamiento de los aparatos que no ejecutan las órdenes como querríamos, la tentación de dotarles de rasgos humanos es irresistible. Les dotamos de intención, deseo, voluntad y libre albedrío, emociones, empatía y muchos otros rasgos, con el resultado de que asumimos que su conducta incluye un conjunto más amplio de las opciones mostradas por los actores humanos. Este útil atajo permite decir sucintamente que un televisor “se acuesta” cuando se ajusta convenientemente el temporizador, además de una lista ilimitada de otras expresiones convenientes. Nadie hubiera entonces generalizado y atribuido a un televisor unos rasgos y unas conductas humanas más amplias.
Una de las preguntas cruciales que se debatirán con mayor profundidad más adelante es ¿cuándo dejará de ser significativa esta diferencia? Hasta entonces es conveniente recordar que las expresiones atribuidas a los sistemas complejos en la descripción de su comportamiento forman parte de una metáfora que no implica de por sí la igualdad.
Predicciones para la IGA
La mayoría de la gente que trabaja profesionalmente en el campo de la inteligencia artificial no ve ninguna barrera teórica que impida la creación de la Inteligencia General Artificial (IGA) antes descrita. Existe cierto desacuerdo en la naturaleza fundamental del resultado y en una serie de predicciones ampliamente extendidas sobre cuándo se logrará crear una IGA.
Hay una encuesta informal realizada a expertos en IA que exponen sus respuestas en función de su escala temporal para la implementación satisfactoria de la IGA. Hasta dentro de cien años o más, es decir después del final del siglo XXI, las respuestas de las últimas encuestas han empezado a aglutinarse en torno a mediados de este siglo, con una dispersión en las respuestas cada vez más estrecha.
Las arquitecturas de las IGA
Las dos rutas principales que conducen a las IGA consisten en la comprensión y la simulación del funcionamiento del cerebro, así como en la reimplementación de su capacidad flexible para la resolución de los problemas a través de diferentes medios.
Las redes neurales y lo que ahora llamamos algoritmos de aprendizaje profundo, permiten que un sistema tome decisiones sobre unas entradas complejas y los posibles resultados con la ayuda de un mecanismo de retroalimentación que no requiere las normas concretas que rigen las decisiones que deben adoptarse de forma explícita. Con solo ejecutar el sistema a través de un escenario simulado en el que los resultados positivos y negativos obtenidos en cada fase puedan ser claramente observados, y que la generación de las variaciones en las decisiones permita que el sistema pruebe una amplia variedad de opciones escogidas entre las respuestas recibidas, en un tiempo y con unos recursos informáticos suficientes, generarán sorprendentemente unos resultados altamente eficientes.
Mediante la aplicación de estas iniciativas de aprendizaje profundo en docenas de videojuegos de los años 80, ahora es posible desarrollar un sistema que no tan solo juegue bien sino que juegue mejor que los humanos. Al principio, estos juegos funcionaban con su propio hardware y en cabinas aisladas que funcionaban con monedas, confinadas en las salas de juego. Hoy viven en el interior de grandes ordenadores capaces de simular el hardware del juego con absoluta precisión, así como el programa de software que los ejecuta. Los juegos posteriores, aprendidos de nuevo por estos algoritmos sobrehumanos, se encuentran en las consolas de primera generación. En ambos casos puede argumentarse que la serie completa de juegos representa los múltiples problemas de un universo de videojuego, y que en este sentido, la capacidad del enfoque del aprendizaje profundo para dominarlos con una aportación muy escasa o inexistente con relación a sus objetivos, reglas, mecanismos de entrada, etc., es, dentro de los límites de este universo en concreto, el comportamiento de una IGA.
El hardware de la IGA
Nos estamos acercando a los límites del transistor de silicona tradicional y deberán adoptarse nuevas medidas en una ley de Moore generalizada a través de diversos sustratos y diversas arquitecturas de hardware.
Ya se están diseñando los chips de próxima generación utilizando CADs, sistemas de diseño asistido por ordenador, que a su vez son alimentados por los chips y el software de la generación actual, que no tan solo codiseñan eficientemente el hardware con el software sino también ordenadores más potentes con otros menos potentes. Es natural y probable que la IGA, aunque menos formada, participe ya en el proceso.
Computronio y Cerebros de Júpiter
El extremo teórico del incremento del poder del procesamiento en la organización de la materia para el cálculo recibe el nombre de computronio. En pocas palabras, independientemente de los átomos que la compongan o de cómo esté estructurada, representa la forma más densa posible de materia para los cálculos. Por consiguiente, la única manera de que los sistemas basados en el computronio aumenten su potencia, es incrementando su masa.
Las potentísimas IGA hechas de computronio y del tamaño de un planeta gaseoso gigante, reciben el nombre de Cerebros de Júpiter. Todavía posiblemente ávidas de cálculos y de más materia que convertir, exploran un sistema solar en busca de otros planetas que comer.
Un argumento ontológico para que la velocidad de la luz sea un límite máximo para la propagación de las señales que ningún futuro desarrollo podrá sobrepasar, relacionado con el argumento de la simulación descrito hacia el final de este libro, que procede de este último y como consecuencia natural tiene un tamaño superior al de los Cerebros de Júpiter. Dado que el lado izquierdo del cerebro quiere una cosa muy sencilla, por ejemplo encontrar algo de comer, no le queda tiempo para ponerse de acuerdo con el lado derecho, que es posible que quiera ir en otro sentido, antes de que ambos lo hagan y que el objeto se rompa físicamente en dos.
Superación personal
Los objetivos que debe alcanzar un determinado sistema definen su arquitectura, sus componentes, sus recursos, su manera de trabajar y sus resultados. En función de la complejidad del objetivo, el camino para alcanzarlo puede ser directo y evidente o estar propiamente compuesto por pasos intermedios. Algunos de estos pasos intermedios pueden ser fáciles o incontrovertibles, frente a otros menos evidentes, o presentar unos enfoques alternativos claros. La elección de los enfoques alternativos puede depender de los resultados anteriores, o podría suceder que de antemano sea prácticamente igual decantarse por uno que por otro. Con posterioridad al hecho, existe la posibilidad de establecer si la opción elegida era, si no la mejor, una de las mejores, o si por el contrario, era ineficiente.
Un sistema más flexible para alcanzar el objetivo es su propia organización para lograr sus objetivos, dicho de una manera más explícita, dedicar parte de sus recursos a estos tipos de consideraciones no relacionadas con el objetivo, sino con los medios, las herramientas y los métodos para alcanzarlo. El metarrazonamiento, el razonamiento sobre el razonamiento: la posibilidad de ser mejor en la tarea gracias a la comprensión de cuáles son las mejores maneras de alcanzarlo y el uso de otras inferiores en lugar de las alternativas.
La mayoría de las iniciativas de IGA incorporan algoritmos de aprendizaje que, implícita o explícitamente, permiten al sistema aplicar el metarrazonamiento. Por consiguiente, un sistema de IGA mejorará y se perfeccionará con el tiempo y alcanzará un mayor rendimiento en una determinada tarea o bien será capaz de perseguir unos objetivos más complejos con una determinada cantidad de recursos.
Explosión de la inteligencia
Un sistema al que le haya sido encomendado alcanzar un objetivo complejo y que tenga la capacidad de analizar y mejorar su propio comportamiento para conseguirlo, sacará el máximo provecho de esta capacidad. Se volverá mejor con el fin de alcanzar el objetivo con mayor rapidez, o con menos recursos. Si creemos que la capacidad de alcanzar este objetivo demuestra un determinado nivel de inteligencia, entonces una manera mejor de alcanzar el objetivo es un signo de una inteligencia superior. El sistema se vuelve más inteligente. No obstante, este proceso no se detiene por sí solo sino que, por el contrario, se autoalimentará de modo exponencial.
Un sistema más inteligente no tan solo será mejor para el logro de sus objetivos, sino que también será más inteligente en el análisis de cómo puede mejorarse el proceso. Se autoaplicarán los resultados de este análisis y después empezará de nuevo el ciclo. El proceso a través del cual se produce esta mejora autorreflexiva y reiterada recibe el nombre de explosión de inteligencia.
Autoconciencia e introspección
La medida en la que un sistema es capaz de percibir su entorno y de extraer decisiones útiles de esta percepción, recibe el nombre de conciencia, al menos en el caso de los humanos. Y la medida similar con la que se aplica el mismo proceso a los estados y parámetros internos, y no a los del mundo exterior, es la autoconciencia, y el proceso de la adquisición de datos es conocido como introspección.
Salvo que estos términos se apliquen a la ligera, durante la explosión de inteligencia los sistemas de IGA se vuelven más conscientes y adquieren mayor autoconciencia debido al aumento de su capacidad de introspección.
Libre acceso a uno mismo
A lo largo de la historia de diez mil años de nuestra civilización tecnológica (o de cien mil años si somos generosos y tomamos como punto de partida la adopción del fuego y no la de la agricultura), hemos luchado por aportar una base sólida a la comprensión de nuestra propia existencia. Hasta hace muy poco no entendíamos que la fórmula biológica del ADN daba lugar a los embriones y después a los individuos, y apenas estamos raspando la superficie de las complejas interacciones que expresan las posibilidades de nuestras opciones genéticas cuando interactúan con el entorno y con nuestro aprendizaje.
Si aplicamos una metáfora de los modelos empresariales, podríamos decir que los humanos se ven a sí mismos como un sistema patentado de código cerrado, carente de un manual de usuario y de una guía del administrador. Tuvimos que aplicar lentamente ingeniería inversa en todos los componentes de nuestros cuerpos (y en el mundo que nos rodea), y de hecho, esto nos llevó lógicamente mucho tiempo. (¡Afortunadamente nadie se ha apropiado de las patentes del diseño del Universo para demandarnos por infracción!)
Cabe suponer que los sistemas de IGA que construiremos serán juzgados por su rendimiento. Por consiguiente, dado que serán capaces de funcionar mejor si pueden mejorarse a sí mismos, aquellos que lo hagan serán los preferidos. Entonces, obviamente, les ayudaremos, a pesar de los humanos, ofreciéndoles acceso a su propio código fuente, junto con unos manuales completos de instrucciones sobre cómo acceder y mejorarlo.
Las IGA no tardarán diez mil dolorosos años para conocer su ADN o el código binario. Nacerán conscientes, autoconscientes y con plena capacidad de actuar sobre sus poderes introspectivos.
Despegue lento
¿Cuál será el impacto de las IGA en el mundo? En opinión de la mayoría de quienes las estudian, una vez inventadas, no habrá posibilidad de desinventarlas, de devolver el genio a la lámpara mágica. Solo una renuncia planetaria universal a la herramienta y a sus ventajas podría frenar el uso, la implementación y la profunda influencia a nivel mundial de las IGA. Solo los beneficios empresariales serían tan espectaculares que resulta inconcebible imaginar que las empresas no saquen provecho de sus excelentes capacidades de optimización y resolución de problemas.
Dado que las IGA que sean de código abierto funcionarán mejor que las patentadas, se propagará su disponibilidad y sus ventajas recaerán en el grupo más amplio posible que sea capaz de aprovecharlas.
Al igual que el sector de la electrónica extiende a través de acuerdos de licencia cruzada, las ventajas de un único invento del grupo hasta que es universalmente adoptado, lo que constituye un paso intermedio hacia las soluciones de próxima generación., las IGA difundirán la innovación entre los modelos empresariales y las organizaciones sociales, e influirán en las vidas de los individuos transformando todo lo que les rodea y en todo el mundo.
La escuela del pensamiento llamada de despegue lento describe este proceso, impulsado por la explosión de inteligencia, en cuestión de décadas.
Despegue rápido
La escuela de despegue rápido dice que uno se va a dormir, y cuando se despierta no reconoce el mundo que le rodea.
Una gran parte de lo que se debate en este libro es una base de historias de ciencia ficción. Algunas de ellas se benefician de la suspensión de la incredulidad del lector, e incluye supuestos, a menudo explícitos, sobre cómo se producirá el desarrollo tecnológico, y lo que es realmente posible a nivel teórico o práctico.
La visión de un rápido despegue, tal como se ha descrito antes, con independencia de su forma en concreto, de una transformación tan fundamental capaz de convencer a todo el mundo para que sea radicalmente distinta en cuestión de horas, se encuentra directamente en el ámbito de aquellas personas abiertas a la imaginación.
Sin duda, la capacidad de las IGA para unificar los recursos y sus objetivos, y el poder transformador de sus soluciones innovadoras para sus metas, no tendrá parangón. ¿Con qué rapidez una IGA de autosuperación empezará a utilizar el conocimiento que únicamente obra en su poder?
Las escalas de inteligencia
En la descripción anterior de la arbitrariedad del 100 % de un determinado objetivo, la cuestión era el ADN y la biología. Pero es probablemente evidente que la exhibición de la inteligencia a nivel humano en un determinado momento por parte de la capacidad de resolver problemas de las IGA es también arbitraria.
La explosión de inteligencia de la superación personal prestará escasa atención a unos supuestos valores CI de 100 (la media, por definición, de cualquier grupo de humanos), 140, por encima del cual uno es considerado un genio, o 1000. Va a ser difícil medir la inteligencia de las IGA con arreglo a los métodos tradicionales basados en la velocidad para resolver determinados problemas no tan solo de matemáticas, sino también de habilidad verbal. Velocidad, firmeza, flexibilidad y creatividad serán los criterios de evaluación de estos nuevos tipos de inteligencias. Suponiendo que las nuevas escalas de medición del CO sean diseñadas para incluir las capacidades específicas de las IGA, existe la posibilidad de que comparadas con un 100 humano, en cualquiera de estas nuevas escalas las suyas podrían ser de miles o millones.
No es fácil imaginar de qué manera se manifestaría una IGA que poseyera un CI de 1 000 000. ¿Cómo decidiría interactuar con los humanos? La analogía de nuestra incapacidad para interactuar cómodamente con las hormigas, y los límites de nuestras acciones positivas aunque restringidas, por ejemplo, con los perros, puede resultar significativa y a la vez alarmante.
¿Es posible controlar la superinteligencia?
Son muchas las hipótesis catastróficas que pueden desarrollarse y han sido desarrolladas en novelas y películas de Hollywood en torno al auge de las IGA, las máquinas superinteligentes, pero también recientemente en escenarios científicos más formales.
¿Cuáles son los límites de acción para una IGA? ¿Cómo podemos asegurarnos de que su entusiasmo para optimizar los recursos de los que dispone, o de los cuales puede apropiarse por sí misma, es mantenido bajo control?
Si el poder de las IGA es tan grande que podría aparecer ya en los análisis preliminares, entonces es primordial cerciorarse de que sus acciones son positivas para la humanidad. La cordialidad constante, asegurada y fiable de las inteligencias generales artificiales con los humanos y la humanidad en su conjunto, es un reto existencial cuyo impacto recuerda al que sufrieron los dinosaurios cuando se enfrentaron a su asteroide.
¿Podemos estar seguros de que será distinto? ¿Podemos diseñar un sistema ético que sea adoptado por las IGA cuando desarrollen objetivos que vayan más allá de los marcados inicialmente? ¿Es posible crear límites y limitaciones que obliguen a reducir sus acciones a determinados límites?
En los dominios de lo desconocido, entre incógnitas conocidas e incógnitas desconocidas, las segundas son más peligrosas si se abandona este camino, o si persiste el estado de inconsciencia sobre ellos. No es propiamente una causa radical de alarma no tener respuestas exhaustivas y fiables a las anteriores preguntas fundamentales. Pero sería una muestra de irremediable irresponsabilidad descuidar la investigación de las preguntas, la búsqueda de respuestas y la garantía de que el diseño de estas capacidades no seguirá adelante sin una comprensión más profunda de las consecuencias.
La salida de la caja de la IGA
Los requisitos de seguridad de determinadas tecnologías consideradas potencialmente peligrosísimas comportaron el desarrollo de unos protocolos de contención eficaces. El descubrimiento de las tecnologías del ADN recombinante y la posibilidad de las terapias génicas fueron discutidas en los años 70 en la Conferencia de Asilomar, donde se adoptaron unos procedimientos que ahora sabemos que fueron eficaces: en los últimos cuarenta años no se ha producido ningún accidente biológico que comprendiera errores relacionados con estas tecnologías.
Recientemente se ha celebrado una Conferencia de Asilomar sobre Inteligencia Artificial, en la que se ha debatido explícitamente cuáles son los posibles procedimientos de contención relacionados con la IA avanzada y las IGA, así como sus peligros e impactos. Si guardamos una IGA dentro de la caja, en otras palabras, desconectada de Internet, limitaremos sus recursos informáticos y nos aseguraremos de que no pueda apropiarse de otros recursos distintos de los que inicialmente le fueron asignados.
Son muchos los que creen que no es posible evitar que la IGA salga de la caja. Con razonamientos, interacciones, conversaciones, argumentos, trampas, alegatos, aplicación de la retórica y el recurso a argumentos éticos o morales, hará todo cuanto sea posible para finalmente convencer a sus cuidadores y guardianes de que deben liberarla.
Singularidades
En matemáticas hablamos de singularidad cuando una función pierde sentido. Un sencillo ejemplo de ello es la función y = 1/x, que presenta una singularidad en x = 0. Cuando se acerca a cero, el valor de la función y tiende a infinito, y cuando llega a cero no se convierte realmente en infinito sino en indefinido.
El problema del ejemplo no es propiamente el infinito. Las matemáticas se han ido ampliando con el fin de abordar el infinito, mejor dicho con el fin de abordar diversas variantes de infinitos, y no eludir su existencia, sino conseguir manipularlo convenientemente. El problema del ejemplo es la incoherencia, el hecho de que no haya manera posible de controlar la cuestión de la singularidad.
Existen muchos tipos de singularidades matemáticas, y las matemáticas han llegado a saber muy bien cómo abordarlas. La típica manera de eliminar una singularidad es asignarle el valor de la función de manera que facilite la conexión con otras partes, por ejemplo.
En física, el término singularidad se aplica a situaciones en las que los valores de algunos parámetros tienden al infinito y dejan de aplicarse las leyes que describen la evolución dinámica del sistema. Un ejemplo clásico de singularidad física es un agujero negro, la etapa final de la evolución de un determinado tipo de estrellas. Cuando las estrellas son suficientemente masivas pierden su capacidad de generar energía a través de las reacciones de fusión una vez agotado el material disponible, y pueden transformarse en una supernova y desprenderse de sus capas exteriores a través de explosiones descomunales. El núcleo menguante restante adquirirá mayor densidad. Destruirá los átomos que la componen mediante la superación de la resistencia entre protones y electrones, y acabará en un estado de materia condensada llamada neutronio, porque acaban siendo eléctricamente neutros como los neutrones del núcleo atómico, motivo por el cual reciben el nombre de estrellas de neutrones.
Pero si su masa es más grande que una determinada cantidad en un radio suficientemente pequeño, entonces su densidad seguirá creciendo y no se detendrá en la fase del neutronio. La fuerza gravitacional será tan fuerte que la velocidad de escape de estas estrellas aumentará a unos valores que sobrepasan la velocidad de la luz. De acuerdo con la teoría de la relatividad, no hay nada que pueda moverse más rápido que la luz, y estos objetos dejan de emitirla, pero también se convertirán en una calle de un solo sentido. La superficie circundante en la que la velocidad de escape supera la velocidad de la luz recibe el nombre de horizonte de sucesos. Cualquier objeto cuya trayectoria le conduzca a esta superficie no podrá escaparse nunca más de ella.
Cuando surgieron las primeras teorías sobre los agujeros negros y posteriormente se observaron - no directamente por supuesto, sino por la ausencia de una estrella o de una radiación significativa en medio de un sistema orbital con las características que debería tener – la primera impresión fue que no podría saberse nada de ellos. No obstante los físicos empezaron pronto a preguntarse qué pasaría si los agujeros negros giraran en lugar de quedarse estáticos, o cuál sería la implicación de aplicar las hipótesis de la mecánica cuántica y su principio de indeterminación a las partículas de alrededor del horizonte de sucesos. Y rápidamente, en lugar de ser vistos como objetos absolutamente inextricables debido al contenido de una singularidad, al igual que los matemáticos con sus singularidades, los físicos encontraron la manera de estudiar la naturaleza de los agujeros negros y clasificarlos en familias, de predecir sus futuras evoluciones, etc.
La Singularidad Tecnológica
El término Singularidad Tecnológica fue acuñado por Vernor Vinge en una conferencia organizada por la NASA en 1993, y representa el momento en el tiempo en el que con la introducción de las IGA se interrumpe la posibilidad de unas predicciones útiles sobre el futuro. La explosión de inteligencia y las tareas arbitrariamente complejas que pueden acometer las IGA, sus maneras infinitamente distintas de razonar y organizar los recursos generan, en una primera aproximación, tal infinito en el campo de la predicción al estilo de sus propias singularidades en los campos de las matemáticas o la física.
Y de hecho, al igual que los matemáticos y físicos que no se han amilanado ante los peligros de los infinitos y han estudiado y convenientemente manipulado las singularidades en sus ámbitos, los tecnólogos han empezado a intentar comprender los tipos de singularidad tecnológica que podemos conformar y a clasificarlos, convirtiendo de este modo a las IGA en sus catalizadores activos.
Existe la esperanza de que mediante la aplicación de los recursos y el nivel adecuado de esfuerzo e inteligencia, cuando surjan las IGA podremos, por un lado, sembrarlas de manera que tengan un comportamiento amigable y de este modo construir un mundo compatible con la vida y las aspiraciones humanas. Y por otro lado, también estaremos preparados para adaptarnos a vivir una vida fructífera en un mundo que sufrirá una profunda transformación por su presencia.
Tipos de mentes
Estamos acostumbrados a considerar la inteligencia como un fenómeno, experiencia y herramienta individual unificada. El Homo sapiens sapiens es el único del planeta que posee la capacidad de observar y analizar su propio estado de conciencia y de inseguridad, así como de describirlo y comunicarlo con generosidad y matices. Resulta sorprendente que sea la única especie que posee una determinada característica. Al igual que si fuéramos la única especie que tuviera ojos o que tuviera la capacidad de percibir e interpretar las ondas sonoras con el oído. No siempre ha sido así.
En una determinada época convivían en el planeta diversas especies de simios evolucionados que fabricaban herramientas y dominaban el fuego, sin necesariamente estar en contacto. La última de estas especies, el Homo sapiens neanderthalensis, el hombre de Neanderthal, vivió hace treinta mil años y estuvo en contacto con nuestra especie. En realidad estuvimos tan cerca que nos hubiéramos podido cruzar, cosa que hicimos, tal como se desprende de nuestro ADN, que todavía lleva, diluido en el tiempo, diversos niveles de pares de base del hombre de Neanderthal y que representan el 3 % del total.
No se sabe con certeza que es lo que provocó la extinción de las demás especies de simios inteligentes. Sin embargo contamos con un historial de caza despiadada de animales en busca de carne, lo que hizo que los humanos provocaran la extinción de la megafauna en todos los continentes. Y aunque tuvo su utilidad, ni siquiera competían con nosotros de forma efectiva. Es posible que nuestra naturaleza hipercompetitiva se revelara con todo su poder destructivo cuando nos enfrentábamos a otras especies inteligentes en los diversos entornos que colonizamos a lo largo de las decenas de miles de años de nuestra dispersión por todo el planeta.
¿Es este precedente una peligrosa premonición de un destino que debemos evitar por todos los medios cuando nos enfrentemos a un posible competidor por los entornos que abrirán las futuras exploraciones?
Cuando aparece una nueva opción para entender el mundo, como son los ojos y los oídos, y para intervenir activamente en él, como las zarpas, los dientes y las garras, es adoptada rápidamente en un caleidoscopio de formas y aplicaciones imposibles de prever con anterioridad.
Esta es la razón por la que las IGA aparecen en plural en este libro. En lugar de una sola inteligencia general artificial se producirá un rápido desarrollo y diversificación entre las diversas IGA, como consecuencia de los objetivos, predisposiciones y oportunidades. Cualquier pequeña diferencia quedará magnificada por el proceso iterativo de la explosión de inteligencia.
Las IGA deberán dedicar una gran cantidad de esfuerzos y recursos para posibilitar la mutua comunicación y así evitar que su propio Síndrome de la Torre de Babel fracture su comunidad en partes aisladas que impidan la mutua comprensión. Será un primer ensayo de su inteligencia superior evitar pasar por esta fase antes de reconstituir una comunidad global capaz de modelar satisfactoriamente las ventajas de la inversión en el desarrollo continuo de unos métodos de comunicación sostenibles y viables, frente a las ganancias a corto plazo de la dedicación de estos recursos a otras tareas que ofrecen una rentabilidad más inmediata, y optar por lo primero.
En caso de que las IGA eligiesen el camino del aislamiento y la falta de comunicación, esto comportaría inevitablemente un conflicto, ya que la competencia por los recursos enfrentaría a dos o más IGA entre sí y no dispondrían de los medios ni de las herramientas necesarias para resolver el conflicto que solo aquellas que poseen una comprensión compartida pueden dominar.
¡Al igual que los simios que habitan en los árboles de una jungla devastada por la guerra, no queremos acabar siendo las víctimas colaterales invisibles y olvidadas de un conflicto espectacularmente creciente de las IGA!
Somos capaces de alcanzar unos niveles de comprensión que otras especies no pueden. Es importante que potenciemos esta capacidad, que intensifiquemos nuestra habilidad para reconocer el estado mental y emocional de los demás, nuestra empatía. Y solo cuando diseñemos, sembremos y finalmente propaguemos IGAs por el mundo con una mayor capacidad de empatía para su aplicación en la comprensión mutua, y hacia nosotros, conseguiremos construir un futuro compartido.