lunes, febrero 16, 2015

La era de las máquinas

Hace poco hablé aquí sobre el argumento del Juicio Final, y no logré asustar a muchos de ustedes con la idea de que si aplicamos un poco de estadística a la producción en serie de seres humanos a lo largo de la Historia, una conclusión posible es que nos extinguiremos en unos 8 mil años. Algunos mostraron un interés pasajero, otros lo tomaron como la curiosidad del día, y tal vez unos pocos pensaron en ello por un par de semanas, pero ciertamente nadie se alarmó demasiado. Claro, 8 mil años es mucho tiempo, y poco valdría preocuparse por posibilidades tan remotas cuando a duras penas en la vida diaria nos alcanza el sueldo para llegar al mes siguiente. Pareciera sin embargo que nuestra incapacidad de alarmarnos por posibilidades que no nos afectan a nivel personal pero que podrían tener efectos catastróficos para nuestra supervivencia como especie es algo que está codificado en nuestros genes, acostumbrados a las parsimoniosas alteraciones de la selección natural y de la dinámica del Universo, y poco acostumbrados a los abruptos cambios que nuestra irrupción en el escenario de la Historia ha producido en los últimos siglos. Lo digo porque existen amenazas mucho más inminentes, amenazas que ni siquiera dependen de complicados razonamientos lógicos, sino de delicados equilibrios en nuestra impredecible naturaleza humana, por las cuales mostramos quizás menos interés que por las catástrofes lógicas. Me refiero por supuesto al calentamiento global descontrolado, la guerra nuclear, o a una pandemia fuera de control, posibilidades todas que podrían materializarse en el transcurso de los próximos 50 años, sin que al parecer nos inmutemos en lo más mínimo.

Dentro de esta última categoría de posibles amenazas, tal vez la que nos tomamos más a la ligera es la que representa el surgimiento de la inteligencia artificial (IA), y en particular los efectos que ello tendría en nuestra economía, nuestra supervivencia, y el significado mismo de nuestra condición de "Humanidad". Tal vez es el hecho de que, como el Juicio Final, la IA avanzada parece una posibilidad demasiado remota, lo que nos hace invulnerables a toda forma de temor o reacios a todo intento de previsión, pero es bueno recordar que algunos autores consideran que con respecto a la IA podríamos llegar a un punto de no retorno en cuestión de unas cuántas décadas. Como es el caso de casi todas las predicciones futuristas, aún aquellas basadas en un juicioso y racional análisis de nuestras capacidades intelectuales, el nivel de incertidumbre sobre lo que realmente podría pasar en este caso particular es demasiado alto, y los factores que entran en juego son demasiados y muy complejos, como para aventurarse a hacer ningún tipo de predicciones concretas. Por ejemplo, una corriente de pensamiento asegura que el segundo teorema de incompletés de Gödel es incompatible con el surgimiento de inteligencias artificiales que superen a la mente humana (la explicación de esto se la dejo a mis amigos matemáticos), mientras que otros autores consideran que, de aventurarnos a seguir experimentando con IA, debemos estar preparados para consecuencias peligrosas, pues eventualmente las inteligencias de silicio literalmente superarán a aquellas de carbono. También hay quienes creen (Eliezer Yudkowski, por ejemplo, en cuyo reciente paper está inspirada esta entrada) que es posible la creación de IA "amigable", que aunque superior, podría estar aún supeditada a los principios básicos de respeto a la raza humana. En tanto que permanece demasiado arriesgado intentar predicciones específicas, lo que sí podemos hacer es considerar posibilidades basadas en nuestro conocimiento básico del fenómeno, y en la observación de procesos físicos, económicos o biológicos que siguen patrones similares, para intentar pintar un escenario un poco más claro, y hasta cierto punto, probable.

Se considera erróneamente que el peligro consiste en que la IA sea maligna per se, y que tenga de alguna manera el propósito natural de destruir nuestra especie. En cambio, a lo que nos enfrentamos realmente es a una paulatina evolución de las capacidades cognitivas de máquinas programadas, inicialmente todavía bajo el control de humanos, que eventualmente desarrollarán la capacidad de invertir una porción de esta capacidad cognitiva en mejorar  su propia inteligencia, programando algoritmos cada vez más sofisticados que les permitirán resolver problemas complejos en tiempos cada vez más cortos, a una velocidad de crecimiento con la que nuestra biología no podrá competir. Aunque inicialmente estas máquinas inteligentes no tendrán necesariamente intención de dañar a sus ancestros humanos, eventualmente los propósitos de su propio desarrollo pueden llegar a ser incompatibles con nuestra existencia, así como en ocasiones la existencia de una colonia de hormigas resulta incompatible con nuestro deseo de construir una carretera, sin que medie en el proceso un odio particular de nuestra parte hacia las hormigas. La probabilidad de este escenario depende de la eficiencia con que las futuras máquinas pensantes sepan invertir sus capacidades cognitivas en el mejoramiento de su propia inteligencia, mientras que su interpretación depende de qué tan lejos queramos llegar en nuestro concepto de Humanidad.

Yudkowsky considera tres escenarios. En el primero de ellos, a las máquinas les cuesta demasiado trabajo cognitivo mejorar sus capacidades, de manera que aún cuando dichas máquinas sean más inteligentes, será todavía más barato, desde el punto de vista de inversión de conocimiento, producir un humano, haciendo poco probable que alguna vez las máquinas lleguen a dominarnos. Un segundo escenario considera un crecimiento exponencial, pero todavía subcrítico, gracias al cual las máquinas controlarán poco a poco una parte cada vez mayor de nuestra economía, una economía que doblará su producción en cuestión de pocos meses (en comparación las economías emergentes de hoy doblan su tamaño cada 15 años), y en el que los humanos todavía jugaremos un papel relevante y tendremos tiempo de reaccionar a la nueva realidad. Finalmente, un crecimiento exponencial supercrítico similar al que hace inestable el proceso de fisión atómica justo antes de una explosión nuclear, creará máquinas capaces de incrementar su inteligencia a bajo costo y en tiempos récord, haciendo prácticamente inevitable que la producción mundial sea inmediatamente controlada por la capacidad laboral de las máquinas, y sus necesidades estructurales incompatibles con la existencia de seres humanos que muy rápido quedaremos en desventaja, convertidos sin remedio en la colonia de hormigas que vive justo en en lote por donde pasará una gran autopista. Yudkowsky considera cuidadosamente cada una de estas opciones, y les recomiendo leer su paper, pero aquí quería dejarles a vuelo de pájaro nuestras opciones, para que vayan haciendo sus apuestas.

Nos queda un párrafo para discutir la cuestión de la conciencia. Si estas máquinas son conscientes en el sentido de que perciben y sienten el mundo de una manera similar a como lo hacemos los humanos (otra posibilidad que genera amplia especulación, pero que no podemos descartar del todo), tal vez nos quede al menos la esperanza de que dichas máquinas, nuestros descendientes legítimos -aun cuando no biológicos-, encontrarán la raíz de su éxito en la primitiva forma de inteligencia basada en el carbono que sus ancestros usaron para traerlos al mundo, y nos estarán agradecidas. Tal vez apareceremos en sus libros de historia como un grupo inteligente que en cierto momento quedó en desventaja, como le sucedió antes al hombre de Neandertal. En ese caso, la transición de conciencias de carbono a conciencias de silicio no necesariamente significará una abrupta discontinuidad en la historia de la "Humanidad". Tal vez dichas inteligencias artificiales, entidades sensibles que sabrán apreciar mejor su propia existencia, sean la única esperanza para el planeta Tierra, que de otra manera sucumbirá (por una guerra nuclear, por el calentamiento de los polos), mucho antes de que la inteligencia humana se percate de que pudo haberlo evitado.

jueves, febrero 05, 2015

No somos infalibles

Hay algo que la ciencia y la religión tienen en común, aunque seguidores de una y la otra nos empeñemos en negarlo: sus principios pueden ser aprovechados para fines absolutamente altruistas y pacíficos, para hacer el bien sin mirar a quién, o para avanzar en el mutuo entendimiento de las naciones y el de nuestro rol en el entramado del Universo; pero también, sin ningún miramiento, pueden ser la punta de lanza de los intereses más siniestros, de las ideologías más asesinas y de los objetivos más miserables que como sociedad somos capaces de imaginar. Ya en un post anterior me refería a lo intransigente que resulta culpar a la religión por la violencia de quienes llevan por dentro el odio y sólo buscan la excusa más expedita para darle una vía de escape, ya que los mismos principios religiosos con que se justifica la violencia pueden conducir a causas completamente compatibles con el progreso de la Humanidad. De igual manera es ridículo pretender culpar a la ciencia por los efectos negativos que sus descubrimientos han tenido en la Historia de la Humanidad, desde la bomba atómica hasta el uso de armas químicas en las guerras fraticidas en que nos encanta enfrascarnos, puesto que es gracias a la ciencia también que hemos frenado epidemias, encontrado otros posibles hogares alrededor de estrellas lejanas, y sobrevivido a los embates de la Naturaleza.

A final de cuentas, depende de nosotros, quienes cándidamente hemos dado en autoproclamarnos seres racionales, decidir qué hacer con nuestro conocimiento, ya sea de este de naturaleza espiritual o científica. Somos nosotros (todos, religiosos o no, científicos o no), bultos de moléculas orgánicas que han desarrollado la capacidad de pensar y de creer, quienes cargamos con la responsabilidad de responder por las consecuencias de nuestros descubrimientos y credos, y quienes, llegado el momento, compareceremos por nuestros actos, ya sea ante los arcángeles del Juicio Final,  o ante el implacable fallo de nuestra descendencia, atrapada en un planeta hirviente e inhabitable, o diezmada por las guerras biológicas. La única manera que tenemos de quedar bien ante quienquiera que sea el Gran Juez, es la de evitar los impulsos naturales de nuestras propias convicciones, y juzgar cada uno de nuestros avances con moderación, estudiando todos sus posibles efectos, positivos y negativos, antes de censurar o exaltar excesivamente ideas que sólo en nuestras manos se convierten en excelentes herramientas o en terribles armas.

Aquí hay un ejemplo: el Parlamento del Reino Unido acaba de aprobar el uso de una técnica particular de fertilización in vitro que usa material genético de tres personas diferentes para producir un embrión sano (un embrión que de otra manera habría sido afectado por una enfermedad mitocondrial congénita que produce defectos incurables en el bebé). Las madres transmiten a sus hijos las mitocondrias defectuosas, y están por lo tanto condenadas a perder a todos sus hijos de manera temprana. La nueva técnica permite implantar el material genético de los padres en el embrión de una donante cuyo material genético ha sido previamente removido, lo cual resulta en células sanas con el 99.9% de la información genética de los dos padres. Quienes primero se han manifestado en contra del uso de la técnica han sido las Iglesias Católica y Anglicana de Inglaterra, condenando la decisión principalmente por razones éticas (el proceso implica la destrucción del embrión de la donante), pero también porque implica la manipulación genética con fines de diseño. En otras palabras, porque de nuevo los científicos juegan a ser Dios, a monopolizar el Diseño Inteligente.

Con respecto a las consideraciones éticas, creo que el potencial vital de un embrión en una etapa tan temprana del desarrollo no es muy diferente al potencial vital de un óvulo sin fertilizar que es expulsado en el ciclo menstrual, o al de un espermatozoide que es eyaculado sin fines reproductivos. La información genética para la vida ya se encuentra codificada en estas células, y sería absurdo considerar cada eyaculación como una masacre de espermatozoides. Me parece al contrario la manifestación más temprana de solidaridad que parte del material genético de un embrión sea donado con el fin de salvar vidas que de otra manera están condenadas desde antes incluso de la fertilización. La Iglesia, antes de quejarse, debería permitirse un acto de contrición, ya que fue uno de sus miembros, el monje agustino Gregor Mendel, quien por primera vez realizó experimentos de naturaleza genética. Más relevante para mi punto inicial es la segunda queja: el temor de que este conocimiento se use en el futuro para diseñar super-humanos, capaces de sobrevivir a la enfermedad y equipados para la guerra, una cadena industrial que sólo puede llevarnos a la perdición. Me pregunto si estamos dispuestos a permitir que eso suceda, y si estamos dispuestos a prescindir de una técnica que puede salvar miles de vidas por temor a que a algún energúmeno se le ocurra usarla para fines macabros.

Creo que en el pasado hemos aprendido a controlar las capacidades destructivas que la ciencia ha puesto en nuestras manos. La amenaza atómica, aunque aún latente, ha sido desescalada con el uso de la razón y el diálogo, y el calentamiento global empieza a ocupar la agenda de los grandes dignatarios. Por supuesto, aún no tenemos nada garantizado, pero al fin y al cabo la supervivencia de nuestra especie depende de que la razón prime sobre el deseo de destruir: o triunfamos o desaparecemos. No veo por qué no podemos darnos una oportunidad similar (o, si se quiere, tomar un riesgo parecido) con la ingeniería genética con fines terapéuticos, sobre todo cuando hasta el momento ha salvado más vidas de las que ha destruido. Sólo basta con tener en cuenta siempre que ni la ciencia ni los papas son infalibles.