Hace poco hablé aquí sobre el argumento del Juicio Final, y no logré asustar a muchos de ustedes con la idea de que si aplicamos un poco de estadística a la producción en serie de seres humanos a lo largo de la Historia, una conclusión posible es que nos extinguiremos en unos 8 mil años. Algunos mostraron un interés pasajero, otros lo tomaron como la curiosidad del día, y tal vez unos pocos pensaron en ello por un par de semanas, pero ciertamente nadie se alarmó demasiado. Claro, 8 mil años es mucho tiempo, y poco valdría preocuparse por posibilidades tan remotas cuando a duras penas en la vida diaria nos alcanza el sueldo para llegar al mes siguiente. Pareciera sin embargo que nuestra incapacidad de alarmarnos por posibilidades que no nos afectan a nivel personal pero que podrían tener efectos catastróficos para nuestra supervivencia como especie es algo que está codificado en nuestros genes, acostumbrados a las parsimoniosas alteraciones de la selección natural y de la dinámica del Universo, y poco acostumbrados a los abruptos cambios que nuestra irrupción en el escenario de la Historia ha producido en los últimos siglos. Lo digo porque existen amenazas mucho más inminentes, amenazas que ni siquiera dependen de complicados razonamientos lógicos, sino de delicados equilibrios en nuestra impredecible naturaleza humana, por las cuales mostramos quizás menos interés que por las catástrofes lógicas. Me refiero por supuesto al calentamiento global descontrolado, la guerra nuclear, o a una pandemia fuera de control, posibilidades todas que podrían materializarse en el transcurso de los próximos 50 años, sin que al parecer nos inmutemos en lo más mínimo.
Dentro de esta última categoría de posibles amenazas, tal vez la que nos tomamos más a la ligera es la que representa el surgimiento de la inteligencia artificial (IA), y en particular los efectos que ello tendría en nuestra economía, nuestra supervivencia, y el significado mismo de nuestra condición de "Humanidad". Tal vez es el hecho de que, como el Juicio Final, la IA avanzada parece una posibilidad demasiado remota, lo que nos hace invulnerables a toda forma de temor o reacios a todo intento de previsión, pero es bueno recordar que algunos autores consideran que con respecto a la IA podríamos llegar a un punto de no retorno en cuestión de unas cuántas décadas. Como es el caso de casi todas las predicciones futuristas, aún aquellas basadas en un juicioso y racional análisis de nuestras capacidades intelectuales, el nivel de incertidumbre sobre lo que realmente podría pasar en este caso particular es demasiado alto, y los factores que entran en juego son demasiados y muy complejos, como para aventurarse a hacer ningún tipo de predicciones concretas. Por ejemplo, una corriente de pensamiento asegura que el segundo teorema de incompletés de Gödel es incompatible con el surgimiento de inteligencias artificiales que superen a la mente humana (la explicación de esto se la dejo a mis amigos matemáticos), mientras que otros autores consideran que, de aventurarnos a seguir experimentando con IA, debemos estar preparados para consecuencias peligrosas, pues eventualmente las inteligencias de silicio literalmente superarán a aquellas de carbono. También hay quienes creen (Eliezer Yudkowski, por ejemplo, en cuyo reciente paper está inspirada esta entrada) que es posible la creación de IA "amigable", que aunque superior, podría estar aún supeditada a los principios básicos de respeto a la raza humana. En tanto que permanece demasiado arriesgado intentar predicciones específicas, lo que sí podemos hacer es considerar posibilidades basadas en nuestro conocimiento básico del fenómeno, y en la observación de procesos físicos, económicos o biológicos que siguen patrones similares, para intentar pintar un escenario un poco más claro, y hasta cierto punto, probable.
Se considera erróneamente que el peligro consiste en que la IA sea maligna per se, y que tenga de alguna manera el propósito natural de destruir nuestra especie. En cambio, a lo que nos enfrentamos realmente es a una paulatina evolución de las capacidades cognitivas de máquinas programadas, inicialmente todavía bajo el control de humanos, que eventualmente desarrollarán la capacidad de invertir una porción de esta capacidad cognitiva en mejorar su propia inteligencia, programando algoritmos cada vez más sofisticados que les permitirán resolver problemas complejos en tiempos cada vez más cortos, a una velocidad de crecimiento con la que nuestra biología no podrá competir. Aunque inicialmente estas máquinas inteligentes no tendrán necesariamente intención de dañar a sus ancestros humanos, eventualmente los propósitos de su propio desarrollo pueden llegar a ser incompatibles con nuestra existencia, así como en ocasiones la existencia de una colonia de hormigas resulta incompatible con nuestro deseo de construir una carretera, sin que medie en el proceso un odio particular de nuestra parte hacia las hormigas. La probabilidad de este escenario depende de la eficiencia con que las futuras máquinas pensantes sepan invertir sus capacidades cognitivas en el mejoramiento de su propia inteligencia, mientras que su interpretación depende de qué tan lejos queramos llegar en nuestro concepto de Humanidad.
Yudkowsky considera tres escenarios. En el primero de ellos, a las máquinas les cuesta demasiado trabajo cognitivo mejorar sus capacidades, de manera que aún cuando dichas máquinas sean más inteligentes, será todavía más barato, desde el punto de vista de inversión de conocimiento, producir un humano, haciendo poco probable que alguna vez las máquinas lleguen a dominarnos. Un segundo escenario considera un crecimiento exponencial, pero todavía subcrítico, gracias al cual las máquinas controlarán poco a poco una parte cada vez mayor de nuestra economía, una economía que doblará su producción en cuestión de pocos meses (en comparación las economías emergentes de hoy doblan su tamaño cada 15 años), y en el que los humanos todavía jugaremos un papel relevante y tendremos tiempo de reaccionar a la nueva realidad. Finalmente, un crecimiento exponencial supercrítico similar al que hace inestable el proceso de fisión atómica justo antes de una explosión nuclear, creará máquinas capaces de incrementar su inteligencia a bajo costo y en tiempos récord, haciendo prácticamente inevitable que la producción mundial sea inmediatamente controlada por la capacidad laboral de las máquinas, y sus necesidades estructurales incompatibles con la existencia de seres humanos que muy rápido quedaremos en desventaja, convertidos sin remedio en la colonia de hormigas que vive justo en en lote por donde pasará una gran autopista. Yudkowsky considera cuidadosamente cada una de estas opciones, y les recomiendo leer su paper, pero aquí quería dejarles a vuelo de pájaro nuestras opciones, para que vayan haciendo sus apuestas.
Nos queda un párrafo para discutir la cuestión de la conciencia. Si estas máquinas son conscientes en el sentido de que perciben y sienten el mundo de una manera similar a como lo hacemos los humanos (otra posibilidad que genera amplia especulación, pero que no podemos descartar del todo), tal vez nos quede al menos la esperanza de que dichas máquinas, nuestros descendientes legítimos -aun cuando no biológicos-, encontrarán la raíz de su éxito en la primitiva forma de inteligencia basada en el carbono que sus ancestros usaron para traerlos al mundo, y nos estarán agradecidas. Tal vez apareceremos en sus libros de historia como un grupo inteligente que en cierto momento quedó en desventaja, como le sucedió antes al hombre de Neandertal. En ese caso, la transición de conciencias de carbono a conciencias de silicio no necesariamente significará una abrupta discontinuidad en la historia de la "Humanidad". Tal vez dichas inteligencias artificiales, entidades sensibles que sabrán apreciar mejor su propia existencia, sean la única esperanza para el planeta Tierra, que de otra manera sucumbirá (por una guerra nuclear, por el calentamiento de los polos), mucho antes de que la inteligencia humana se percate de que pudo haberlo evitado.
1 comentario:
Gran entrada, pero como programador que soy, entiendo que la IA esta ligada a lo que el ser humano le programe a dichas maquinas. Pues si bien se pueden programar para hacer el bien o el man, siempre el ser humano tendra la oportunidad de tener una linea de codigo que haga apagar dicha maquina en caso de que las cosas se salgan de control.
La IA es un estudio aun con mucha tela por cortar, pero incluso hoy me preocupa mas el ser que el como.
Publicar un comentario