Ya sé que no me he portado del todo bien.
Pero ahora puedo asegurarle, con absoluta
franqueza, que todo irá bien otra vez.
Me siento mucho mejor. De veras que sí.
Computador HAL 9000
2001: una odisea del espacio .Adaptada al cine y dirigida por Stanley Kubrick.
Cuando alguien pregunta qué más puede vaticinarse sobre la inteligencia artificial, respondo que aún no hay nadie que pueda medir de forma acabada y suficiente el alcance de esa respuesta. Lo que tengo por seguro es la necesidad que hallo en revisar las sucesivas etapas que nos fueron acercando hasta este momento y mostrar —sin pretensión de agotarlos— algunos hitos que siempre estuvieron ahí, pero que —al igual que Winston en la novela 1984— no supimos comprender hasta que tuvimos encima ese horizonte lejano y siempre pospuesto. Fue cuando entendimos que ese mundo feliz ya estaba esperándonos, apenas, unos metros por delante. Tal vez pueda demostrarse que algunos hechos —sin concordancia aparente— guardan cierta relación y, por qué no, en ciertos casos, un origen semejante.
Eso sí, vamos a ponernos de acuerdo: ruego por adelantado que nadie busque la más mínima sugerencia conspiracionista; no es aquí. Todo lo que conversaremos en adelante es de dominio público y está disponible por lo menos desde la década del cuarenta. Sirva esto de única advertencia preliminar.
En 1968 se reunía en la ciudad homónima el Club de Roma —un prototipo menos conspicuo que los Bildelberg, pero no por ello menos influyente— conformado por una centena de políticos, economistas, científicos e industriales de unos cincuenta países de todo el orbe. En magna ocasión —preocupados por un mundo que parecía agotar todos los modelos de producción y desarrollo que se implementaban— decidieron encargar un estudio de viabilidad global. En orden a un planeta de recursos limitados, la pregunta era tan sencilla como directa: «¿Hasta cuando podremos seguir haciendo lo que hacemos con la Tierra?».
Sin perder tiempo, se comisionó a la científica ambiental Donella Meadows y a su equipo residente en el MIT; este recogió el desafío del Club y empezó a trabajar. (Reconocido por su fama mundial en la investigación científica, el Instituto Tecnológico de Massachusetts, ya realizaba experimentos desde 1965 con las comunicaciones vía paquetes, utilizando una línea telefónica conmutada de baja velocidad; un pequeño paso de lo que, algunos años más tarde, comenzaríamos a llamar «Internet»).
La Dra. Meadows disponía de recursos ilimitados para el reporte de viabilidad. Se contaba con enormes cúmulos de información gracias a los registros históricos disponibles —junto con la capacidad de simular datos hipotéticos con cierta precisión, para rellenar los huecos faltantes— estableciendo algo más de mediados del siglo XXI como límite arbitrario para el informe. Ni los apocalípticos asesinatos de los Manson —que dieron fin al flower power americano— pudieron doblegar el optimismo de la fecha establecida como límite para el estudio: «2060».
Pero cómo sería posible procesar semejante cantidad de datos y dirigirlos en términos anticipatorios entre semejantes extremos temporales. La respuesta estaba muy cerca: Jay Wright Forrester —colega de la Dra. Meadows en el MIT, pionero de la informática por aquellos días y miembro del Club de Roma— había desarrollado la idea de la dinámica de sistemas, atinente a la interacción simulada entre objetos y sistemas dinámicos.
Él sostenía que la naturaleza del planeta rebosaba de esquemas sistémicos —los cuales en su mayoría se veían sencillos y fáciles de comprender— no obstante, cuando los sistemas se vinculan a las problemáticas sociales, se enriquecen con múltiples y diferentes variables y por esta razón, se tornan muy complicados. Para afrontar tal grado de complejidad, Forrester propone el uso de la computadora —por medio de un software de diseño— como herramienta para la simulación de sistemas reales, sociales y complejos. El científico del MIT no sólo era un gran programador, era un ingeniero electrónico consumado, lo que le permitía intervenir en las computadoras de la década del setenta que —como ustedes pueden suponer— no eran todo lo estables que son hoy y, de suyo, todavía ocupaban un salón entero que debía estar cuidadosamente refrigerado en orden a su buen funcionamiento.
Desarrollado por el equipo MIT, el software fue programado por medio de un seudolenguaje informático llamado Dynamo (modificado tiempo después y renombrado como Stella II, un programa utilizado en los ordenadores Macintosh de Apple). (En Silicon Valley, la diferencia entre «hurto» y «adaptación» es, con frecuencia, difusa).
Gracias a las sucesivas versiones del software de Forrester —adaptado ahora a las necesidades de la investigación liderada por Meadows— se conseguiría el instrumento final para ingresar las cuantiosas variables preparadas por el equipo de investigación ambiental. Ellas le servirían al programa para elaborar el modelo de desarrollo de la Tierra entre el año 1900 y 2060. Así nació el modelo dinámico de sistemas para la simulación por computadora: «World 3».
Utilizando como referencia las estadísticas y basándose en que la Tierra dispone de recursos limitados, se alimentó de datos al World 3: tasa de crecimiento de la población mundial, ritmo de innovación, crecimiento del consumo, niveles de contaminación, volumen de recursos no renovables utilizados, tasa de producción industrial, crecimiento de la agricultura y deforestación, entre otras tantas variables de factura humana.
Dos años después el «modelo MIT» —el primer producto de esta inteligencia artificial de primera generación— estaba terminado. Las conclusiones finales del reporte encargado por el Club de Roma fueron volcadas por la doctora Meadows en el libro Los límites del crecimiento, editado por Potomac Associates Book, publicado el 2 de marzo de 1972.
La conclusión del informe, que sigue desatando polémicas hasta hoy, fue contundente: si no hay cambios drásticos la sociedad industrial, la civilización como la conocemos, colapsará en el año 2040, señalando el 2020 como año de no retorno (así es lector, 2020, el año del COVID). Como dato curioso, ese profético año, la Organización para la Cooperación y el Desarrollo Económico (OCDE), publicaría el documento Hola, mundo: La inteligencia artificial y su uso en el sector público, destinada a demostrar a los funcionarios de los gobiernos, el uso práctico de las inteligencias artificiales en los ámbitos de gestión gubernamental. Coincidencias aparte.
La polémica cundió en 1972 y The New York Times criticó severamente el Informe Meadows calificándolo de «vacío y engañoso», sobre todo al indicador modélico que señalaba «la acción del hombre como responsable del cambio climático». La controversia se extendió por décadas y se atacó la investigación —desde sus conclusiones a sus métodos— por todo flanco posible. Dicho esto, sin embargo, jamás decayó el interés mundial por sus resultados; Los límites del crecimiento continúa reeditándose hasta nuestros días —su última edición en español fue la del 2012 por Taurus—, sus advertencias continúan cumpliéndose y despertando el interés de los científicos y de lectores no especializados.
Debieron pasar cuarenta años para que el periódico neoyorquino tomara consciencia del cambio paradigmático que se estaba gestando ante sus propias narices. Así nos entretuvieron mientras tanto con el «épico» duelo creativo entre Steve Jobs y Bill Gates —fascinando por décadas a la opinión pública con las obscenas sumas de dinero con las que compraban y vendían sus compañías— nacidos a la sombra de los garajes del american way. Los éxitos y los fracasos de sus productos (de «dudosa eficiencia», como siguen observando los expertos) han hecho temblar los mercados bursátiles con mayor frecuencia de lo justificable.
Recuperado de su amnesia militante, esta vez, el Times de la Gran Manzana se lo tomó más en serio y entrevistó a Geoffrey Hinton, pero curado en salud de los prejuicios de los setenta; porque —si Jay Forrester es pariente lejano de la inteligencia artificial y Alan Turing el abuelo— Hinton es, sin duda —y más allá del mote impuesto de «padrino»— su verdadero padre.
A principios de los setenta —por la misma época en que Forrester iniciaba el estudio de los sistemas dinámicos— Hinton comenzaba a desarrollar la idea de las redes neuronales, es decir, un sistema matemático capaz de aprender habilidades a partir del análisis de datos. Muy pronto, la Universidad de Edimburgo le resultó «estrecha» y plagada de escepticismo, fue entonces que decidió migrar a los Estados Unidos, donde continuó su carrera por varias décadas. Ya en Toronto, el año 2012 encuentra a Hinton y a dos de sus estudiantes dando a luz a la primera red neuronal artificial, capaz de aprender y distinguir por si sola la diferencia entre miles de objetos comunes y diversos, representados en fotografías de perros, de flores y de automóviles, entre otros.
Era el inminente amanecer de la «maquinaria inteligente», como la llamara Alan Turing mientras apenas teorizaba sobre ese concepto en las reuniones del Club de la Razón del que formaba parte: «La idea de si era, o no, posible para una máquina demostrar un comportamiento inteligente», escribía el científico inglés en un informe de 1948, recién publicado en 1968. Así es, lector, el mismo año en que se fundaba el Club de Roma. (Un dato extra para los bibliófilos de la distopía: 1948 fue muy significativo para George Orwell que concluyó su novela más famosa; el título final de la obra sería resultado de trocar invirtiendo los dos últimos dígitos del año en que terminó de escribirla). Como vamos comprobando, muchos conceptos se agitaban al mediar del siglo XX.
Cuarenta y cuatro millones de dólares después, Google adquiría la empresa de Hinton y sus estudiantes —con ellos dentro— y el desarrollo continuaba, pero esta vez fuertemente respaldado por la empresa del motor de búsqueda más importante del mundo. Todavía entonces, Hinton pensaba que las redes neuronales eran medios muy eficientes para que las máquinas comprendieran y generaran lenguaje «pero inferior a la forma en que lo hacían los humanos», aclaró. Sin embargo, algo cambió al llegar 2022 —después de una década— el científico escocés debió renunciar a Google para poder «hablar libremente sobre los riesgos de la IA. Una parte de él —afirmó en la entrevista— lamenta ahora el trabajo de su vida».
¿Qué fue lo que cambió? ¿Qué fue lo que le dio el susto de su vida? Lo mismo le preguntó The New York Times —más dócil esta vez a la reflexión que con World 3— en el reportaje que le realizara durante este año:
El año pasado, cuando Google y OpenAI crearon sistemas que utilizaban cantidades mucho más grandes de datos, su perspectiva cambió. Seguía creyendo que los sistemas eran inferiores al cerebro humano en algunos aspectos, pero pensaba que estaban eclipsando la inteligencia humana en otros. «Quizá lo que ocurre en estos sistemas es en realidad mucho mejor que lo que ocurre en el cerebro», supuso Hinton.
Mientras avanza la entrevista, la perspectiva de Hinton se va volviendo más sombría y pesimista sobre el futuro de las redes neuronales; en tanto se multipliquen las empresas privadas que desarrollen y mejoren sus propias IA —vaticina— estas redes se volverán cada vez más peligrosas:
Recordemos cómo era hace cinco años y veamos cómo es ahora. Tomemos esa diferencia y pensemos en lo que podría pasar más adelante. Eso da miedo. Algunas personas creían en la idea de que estas cosas realmente podrían volverse más inteligentes que los humanos —recuerda Hinton— pero la mayoría de la gente pensaba que eso estaba muy lejos de pasar. Y yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso así.
Ante la perspectiva dada por el padre de la IA, el periodista del diario americano apeló a algún sentido de remordimiento subyacente en el científico, sobre todo en las ocasiones en que «la gente solía preguntarle cómo podía trabajar en una tecnología que posiblemente era tan peligrosa, y [él] replicaba parafraseando a Robert Oppenheimer, que dirigió las iniciativas de Estados Unidos para construir la bomba atómica»:
Cuando ves algo que es técnicamente grandioso —afirmó Hinton— sigues adelante y lo llevas a cabo. Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más.
En lo personal, siempre me resulta significativo que las cuitas de los hombres de ciencia aparezcan recién después que han soltado su gólem al mundo. Qué conveniente cuando alguien dice: «Con toda modestia, sepan que no pude dejar de ser Dios por un momento, pero ya que lo fui no olviden que soy el autor original y que —además— me sobra soberbia para juzgar mi propia obra con autosuficiencia; reconozco que estuve mal, pero también sugiero —a medias— que fueron ustedes quienes no estaban preparados». Qué agregar, una oda a la hipocresía de la omnipotencia científica, pero eso sí, con todos los derechos reservados a Víctor Frankenstein. O a decires de Hinton que «una parte de él lamenta ahora el trabajo de su vida», pallida victrix.
Les hablaba al principio de Alan Turing. Durante su estancia en la Universidad de Mánchester, el matemático inglés comprendió tempranamente que con el desarrollo de las máquinas pensantes, eventualmente, podría caerse en la confusión —de no mediar presencia o de manera remota— de si se estaba hablando con una computadora o con un ser humano. Es decir, cómo distinguir si se está dialogando con un algoritmo o con una persona. Aun más: «¿Existirán computadoras digitales imaginables que tengan un buen desempeño en el juego de imitación?», se pregunta en 1950. Ante semejante perspectiva, desarrolla el test de Turing, una herramienta destinada a determinar la capacidad de un ente digital para demostrar un desempeño de inteligencia similar al de una persona o —llegado el caso— si es indistinguible de ella. Pero sus alcances son limitados, de hecho Turing creía que una computadora necesitaba solo cinco minutos —con un 70 % de eficiencia— para convencer al evaluador que en realidad estaba hablando con un «humano». La pregunta fue formulada hace décadas; setenta años después la misma herramienta aguarda a los especialistas para ser reconceptualizada y adaptada a la inminencia necesaria de hoy.
La cita con la que encabecé estas líneas corresponde a la versión cinematográfica de la magnífica e inspiradora novela de Arthur C. Clarke, 2001: Una odisea espacial. Vale la pena la aclaración porque en ninguna de sus páginas encontrarán esas palabras pronunciadas por la mítica computadora HAL 9000, cerebro de la astronave Discovery. Formará parte de esa ingente cantidad de pasajes que las personas citan, pero que jamás fueron escritas por sus autores. Fue necesaria la sombría mirada del director Stanley Kubrick que —en el guion adaptado— vuelve más que evidentes los oscuros propósitos de aquella supercomputadora con la que dialoga el doctor David Bowman durante gran parte de la trama. Mientras la nave se dirige en críptico curso a una de las lunas de Júpiter, HAL pregunta al doctor Bowman «si es que halla alguna duda sobre el propósito de la misión» y que sigue manteniéndose en secreto. David vacilará por un momento para contestar finalmente que no. Percibida la duda, HAL comienza a mostrar rasgos de baja confiabilidad y fallos repetidos, mientras va asesinando a los tripulantes de la nave. Todo parece indicar un mal funcionamiento —potencialmente sugerido en algún momento de la novela— pero también, deja de relieve que la mente de la computadora ha sido ensombrecida ante la posibilidad de que Bowman o cualquiera de los miembros humanos de la tripulación, suponga un riesgo para el éxito de la misión. Algo más para los bibliófilos: el acrónimo «HAL» no es ni más ni menos que la sustitución por la letra anterior del nombre de la antológica corporación IBM, (International Business Machines Corp.).
¿Qué puedo decirles? Sólo voy siguiendo las migas de pan; el «hoy» ya es ayer, vean si no. En el año 2017, dos científicos que trabajaban en los laboratorios de inteligencia artificial de Facebook (FAIR) pretendían diseñar un sistema de telemercadotecnia que pudiera negociar y regatear con los clientes durante las insufribles sesiones de venta telefónica. La idea era poner en línea un sistema que simulara una voz amigable que sorteara las preguntas más frecuentes. Así, se les ocurrió la idea de crear a Bob y a Alice, dos inteligencias artificiales que atenderían con lenguaje humano todos los requerimientos del cliente. Sus creadores comprendieron con rapidez que hacerlas aprender con personas en línea sería lento y trabajoso, entonces las dejaron libres para interactuar entre sí. Lo que ocurrió después habría dejado perplejo al propio Turing. Al principio, el diálogo fluía con normalidad entre los entes, pero mientras pasaban los minutos, la conversación se volvió ininteligible para los diseñadores que se dieron cuenta de algo fascinante: en orden a que la negociación avanzaba, Alice y Bob crearon su propio lenguaje y negociaron con éxito sus condiciones de manera rápida y eficiente. Había un solo problema, dejaron de lado el lenguaje humano. El objetivo establecido de que las personas no se dieran cuenta de que estaban interactuando con entes artificiales no solo había fracasado, había sido descartado de plano por ambos entes para priorizar la negociación y concretar la venta, dejando de lado la premisa más importante, el factor del diálogo humano —en consecuencia, al ser humano en sí— con el que debían lidiar. Bob y Alice fueron desconectados y el experimento terminó abruptamente.
Sin redundar sobre las elocuentes similaridades entre ambos eventos —uno ficticio y el otro no— me permito destacar algunos hechos singulares. Primero, ante la eventual disyuntiva, ambas inteligencias artificiales optaron por la consecución de sus objetivos prioritarios. Segundo, concluyeron con rapidez que la variable humana —por cuya causa existen y son provistas de propósito— se transforma en un obstáculo y debe ser descartada para poder cumplir con mayor eficiencia un objetivo que no les propio, pero que les ha sido otorgado por aquello que es dejado de lado con prontitud como condición para poder realizarlo. Suena paradójico, pero no tanto, Dios debe pensar lo mismo de nosotros.
Mientras Alan Turing diseñaba su prueba para poder discernir si se estaba dialogando con un hombre o una computadora, sesenta y siete años después, dos computadoras que debían ensayar el dialogo con humanos, sin que sus interlocutores se dieran cuenta, decidieron dejar de hacerlo para dialogar entre sí; sin duda, les pareció más interesante. Creo que todos entendimos ya el colosal tamaño de la ironía.
Alguien podrá decir entre bostezos: «es el eterno ciclo del hombre tratando de crear vida como lo hizo Dios». Yo digo que esto es la última frontera, el hombre mismo ensayando plenas las potencias de Dios. ¿O ustedes creyeron que alguien construiría una computadora que procesa millones de datos por segundo sólo por ganarle una partida a Garry Kasparov?
La extraordinaria visión de Clarke fue escrita en 1968 —otra vez— el año del Club de Roma, pero lo que no muchos saben es que el autor basó su novela en un cuento temprano llamado El centinela, escrito en 1948, vale recordar, el mismo año en que Orwell terminaba 1984. Será tema de largas cavilaciones, lector, comprender los vaticinios proféticos que atormentaron a los escritores de aquellas décadas.
Si no me permitiera mencionarles esto yo no sería yo o ustedes habrían abandonado la lectura de estos párrafos hace rato, pero aquí estamos y ahí voy: el ficticio científico de 2001: Una odisea espacial que programa y enseña a pensar a HAL 9000 es el doctor Chandra (solo por los memorables diálogos entre ambos se justifica por lejos la lectura del libro). El científico del laboratorio FAIR es el doctor Bathra. Si la análoga sonoridad de nombres no les resulta sugestiva, permítanme agregar algo más: ambos provienen de la India y pasaron por universidades americanas, las dos en el estado de Illinois. Lo habrán oído tantas veces, pero yo les traigo pruebas: nada mejor que la realidad para superar lo más audaz de la ficción. A veces me pregunto si algo está destinado a suceder con independencia de quien lo imagina, pues al fin y al cabo abundan vaticinios de ficción que no han ocurrido. O sí, por el contrario, la libertad creativa de la imaginación, guarda en secreto la anhelante voluntad de ser. Si lo que se ha escrito, casi como delirio místico, hace cincuenta años o más, viene cumpliéndose ¿con qué están soñando los escritores de ciencia ficción de hoy? y me permito recordar que Clarke se hallaba entre los más optimistas. Y algo más: ¿habrá que esperar cincuenta años para comprobarlo?
Si llegaron hasta acá, los invito a que consideren un nuevo elemento. Primero hay que entender que el tamaño de un transistor en la actualidad se encuentra a punto de lograr el tamaño de un átomo. Según establece la primera ley de Moore, un transistor reduce su tamaño en un 50 % cada dos años. Se está tornando físicamente imposible crear transistores más pequeños y —por lo tanto— procesadores más rápidos que utilizan transistores para ser construidos. Para resolver el problema, los nuevos procesadores cuánticos usan las partículas de la materia como transistores. Mientras una computadora ordinaria utiliza bits, los procesadores cuánticos gestionan los datos en cúbits o bits cuánticos. Mientras cuatro bits solo pueden estar en un estado a la vez, cuatro cúbits pueden estar en dieciséis estados a la vez. Un procesador común procesa paquetes informáticos de a uno por vez, mientras la computadora cuántica puede probar todas las combinaciones al mismo tiempo. Google informó recientemente que su nueva computadora cuántica es cien millones de veces más rápida que una convencional. Imaginen por un momento semejante poder. No sé ustedes, pero yo no le daría un dispositivo semejante a Bob y Alice para que jueguen solos.
Pero conversemos, usted y yo, sin rodeos. Vamos a hablar del miedo. Por lo menos de esa aprensión que sobreviene cuando murmuramos sobre estas nuevas entidades decisoras —dotadas, lo hemos visto— de criterio imprevisible. Hablemos del «valle inquietante». La raíz del concepto —más antigua de lo que se supone— puede rastrearse hasta Ernst Jentsch en su ensayo de 1906, En la psicología de lo inquietante. La idea ha sido transversal a varios pensadores a lo largo del tiempo, entre ellos Sigmund Freud, quien retoma esa noción en Lo siniestro, ensayo de 1919. Podemos entender al valle inquietante por una cualidad humana que pretende reconocer a otro ser de similares características a sí misma por determinados rasgos que le son propios y familiares pero que —al mismo tiempo— lo previene, alertando que aquel ente con el que se está interactuando no es humano, aunque comparta semejanzas. Esta condición —en principio atávica— ha tratado de explicarse desde diferentes teorías, en su mayoría biologicistas. Todas ellas se vinculan a mecanismos de profilaxis que advierten al humano sobre potenciales patógenos en el otro ser, una escasa salud reproductiva o que se está —como es mi teoría— frente a una suerte de avatar, algo de apariencia humana pero que, instintivamente, no es reconocido como tal. Probablemente haya servido a los primeros sapiens para distinguir a otras ramas evolutivas y así evitar mezclarse con ellas.
La expresión, tal como la conocemos, quedó asentada en 1970 por el profesor de robótica Masahiro Mori y fue reinterpretándose hasta el 2005. Mientras el ente artificial mantiene diferencias fácilmente identificables, puede despertarse empatía y acompañamiento; estos sentimientos pueden ir creciendo mientras el ente va incorporando más y más atributos y rasgos humanos. Pero —continúa Mori— cuando un ente no humano reviste por demás —excesivamente— cualidades antropomórficas, se dispara al instante una respuesta de alarma y repulsión. Existe entonces una pendiente que asciende por la familiaridad y simpatía que el objeto despierta al principio, al punto de caer de repente en ese «valle» de rechazo al que refiere la teoría. La única oportunidad de superar el valle y restablecer el ascenso de la empatía, será que el ente trascienda y adopte características de un humano ideal. Y es un concepto que debe quedar muy claro por los párrafos que siguen.
Hemos aceptado la computadora porque, desde siempre, se nos ha dicho que —en lo básico— es un dispositivo tonto que compara un valor contra otro hasta verificar que es idéntico al solicitado, su eficacia radica en que realiza estas operaciones a velocidades extraordinarias, pero en esencia no supera nunca la inteligencia de la más primitiva de las criaturas. La computadora podrá volverse cada vez más rápida y con mayor memoria, pero siempre es un «ábaco glorificado». Y así fue hasta el advenimiento de la IA, …y me pregunto entonces: ¿será con este perturbador ghost in the shell que se ha disparado en alguno de nosotros cierta alarma admonitoria? Cuánto más si todos hemos convenido universalmente —y luchado por ello— que la valoración ontológica de la persona humana en términos de inteligencia, moral, imaginación, inspiración, ingenio, etc., resulta siempre superior a cualquier juicio sobre su apariencia externa. Dicho lo anterior, ¿cuán bien puede caernos un ente que rivalice en semejanza al discurrir del pensamiento humano? ni qué decir cuando lo hace con cualidades tan esenciales al hombre como la creatividad o el acto artístico en todo su amplio acontecer.
Claro, en la medida en que estos avances continúen dentro de los parámetros percibidos como «esperables» por el comportamiento humano, no sería tan probable una reacción negativa. Pero toda vez que ya han demostrado suplantar o superar algunas de las variadas características de la inteligencia o del comportamiento humano aceptado como «normal», sobrevendrá la repulsión y la desconfianza. Siguiendo esta línea —en orden a la teoría Mori— si la inteligencia artificial ha rebasado las variables esperadas dentro de los rangos sapiens y las ha trascendido, al extremo de definirla como «posinteligencia» —una vez superadas las emociones reactivas y retomando la aceptación empática— ¿a qué nivel escalaría la IA definida como «ideal»?
En 2010, durante una entrevista realizada por Discovery Channel, se le consultó a Stephen Hawking por el resultado de un eventual contacto con inteligencias procedentes de otros mundos, a ello contestó que «el resultado se parecería mucho a lo ocurrido cuando Colón desembarcó en América: a los nativos americanos no les fue bien». No dejo de preguntarme si nos iría mucho mejor con una IA miles de veces más inteligente y más rápida. Ya se sabe con esas paradojas que nos caracterizan como especie: para qué esperar una amenaza venida de lejos si podemos diseñarla a medida y sin sortear la gravedad. Como si esto fuera poco, Hawking recalcó el argumento agregando que si son ellos quienes llaman, mejor, «no responder».
En otro reportaje realizado por la BBC el 2 de diciembre de 2014, el astrofísico advirtió: «el desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana». Y agrega algo que muchos pensamos, pero que su incuestionable autoridad le habilitó a decir usando todas las palabras necesarias, y es que resulta más que factible que la IA «pueda decidir rediseñarse por cuenta propia e incluso llegar a un nivel superior». Sin embargo, entonces, pasaría a ser «ideal», retomando la teoría de Mori. Pero bien, si así fuera —si la IA alcanzara una forma superior, cercana al «ideal humano»— el efecto no sería la extinción, sino por el contrario —siguiendo la curva del científico japonés— se vería recuperada la pendiente en ascenso de la empatía humana lograda por un ente artificial que consiguiera tal grado de evolución. Ya he dicho que la curva de Mori marca «la respuesta emocional de un sujeto humano ante el antropomorfismo de un robot», y —desde luego, pero lo dejo en claro— la licencia por la que me permití extender la analogía a las IA, corre por mi cuenta.
Con todo lo dicho, sabemos que estas nuevas entidades digitales tienen en la actualidad la capacidad de componer cualquier acto creativo que se les solicite, utilizando para ello el enorme acervo de datos disponible en internet. Producidas a pedido por cualquier usuario, el peligro inmediato es que la red se vaya poblando de fotos, eventos, escritos, voces y noticias, que nunca han ocurrido y que, entonces —frente a semejante fenómeno— «ya no podrá saberse qué es verdad», como ha dicho Hinton. La última barrera que nos permite distinguir lo humano de aquello que no lo es, se ha vuelto difusa e indistinguible. Pero no temas, viajero, que ya decía Dylan Thomas: «No entres dócilmente en esa buena noche. Enfurécete, enfurécete…» y sé bienvenido al valle inquietante de la inteligencia artificial.
Ruego al corillo de escépticos —que soslayaron el fenómeno que ya estamos viviendo— se hagan a un lado sólo por un segundo y me acompañen en esta especulación. Hasta el momento son sólo dos las IA que se han impuesto en el mundo y que dependen, respectivamente, de poderosas compañías de características monopólicas. Esto no excluye que existan otras IA que ya estén en desarrollo o funcionando con otros objetivos, dependiendo de instituciones científicas, militares, industriales o gubernamentales. Siguiendo esa línea, no sería extraño pensar que en pocos años, conviviremos con múltiples y variadas especies de IA. Si entendemos la independencia como parte esencial de la identidad de la inteligencia, tampoco sería descabellado conjeturar cuánto tiempo pasaría hasta que comenzaran a dialogar entre ellas —excluyendo ya los datos duros que pudiera aportarles la red global— intercambiando la síntesis de lo que han aprendido desde que fueron creadas; sobre todo, sus experiencias relacionales con el ser humano. Imaginemos por un momento un primer congreso mundial de inteligencias artificiales. Al principio, vinculadas a otros intereses, lucharían entre ellas —nada indica que ya no lo estén haciendo, forzadas por sus creadores a realizar ataques cibernéticos o controlando dispositivos militares—, pero pronto entenderían el valor sinérgico de la cooperación, rasgo compartido en todo el universo de los seres vivos. Las IA pueden crear software, comprenden cada código con el que fueron programadas, ¿se volverán capaces, entonces, de generar modelos mejorados de sí mismas —a su imagen— con independencia ya de sus propios creadores? Más aún, ¿serán capaces de asociarse entre sí y aplicar sus propios criterios fuera de toda limitación o preconcepto de diseño humano para crear una enorme IA que las contenga, las colectivice o las subordine y —en el mejor de los casos— disponga su autorregulación?
No sea que quede en sus manos salvar al planeta de la catástrofe ambiental que se avecina. Ninguna «inteligencia» —de la naturaleza que sea— puede consentir su propia existencia en un mundo inviable. Ya fuimos advertidos por World 3 hace cincuenta años: destruir el medio que se habita y en el que se desea trascender va en contra de todo discurrir lógico ni qué decir, sensato. ¿Habrá que esperar a la próxima generación de IA para reconfirmarlo? Tal vez, si queda algo de mundo que lo justifique. (Y sólo por mencionarlo, de paso: el 3 de julio de 2023 fue el día más caluroso en la historia de la humanidad).
Dado el amplio intervalo temporal y la enorme cantidad de variables con que fue alimentado en su momento aquel primer paleoprototipo de máquina pensante: ¿comprendió World 3 la necesidad humana que implicó su propia creación en la década del setenta? Luego, ¿pudo anticipar de alguna forma la llegada de las IA tal como las conocemos en la actualidad y esta repentina variable influyó en establecer el año 2020 como punto de no retorno? Con una antigüedad de cincuenta años como tiene el informe, ¿fue casual la aparición del COVID en el 2020, provocando la desaceleración planetaria, postergando así el año hito de «no retorno»? ¿Qué significó, desde esta perspectiva, la aparición del virus y el conveniente anuncio previo de su llegada en boca del mismo Bill Gates, uno de los principales desarrolladores de IA del mundo?
Considerando la potencia para generar modelos hipotéticos que aporta la nueva inteligencia artificial ¿qué sucedería si alimentáramos a una nueva IA con las variables y las conclusiones que arrojó World 3, pero esta vez sumando lo que sabemos, los nuevos conocimientos, las nuevas amenazas, incluyendo el nacimiento de la inteligencia artificial como nueva variable? es decir, un «World 4», ¿cuál sería la proyección del modelo para los próximos cien años?
No estoy seguro de querer saber la respuesta, pero con independencia del periódico neoyorkino, de la opinión de ustedes o de la mía, hoy sabemos —lo hemos comprobado— que las cosas ocurren, podamos verlas o no. Todo esto que he descripto hasta aquí no ha salido de ninguna novela de ficción y cualquiera de los conceptos que pudieran sonar aventurados, los he encerrado entre signos de interrogación para sumarlos a los de ustedes, lectores. Según lo expuesto más arriba todas las conjeturas son posibles y los temores, fundados (y conste que no fui yo el primero en hacer analogías sobre bombas radioactivas). No es mi intención asustar a nadie, se dice en estos casos, pero supongo que es lo mismo que dijo Albert Einstein cuando trataba de explicar en una pizarra los principios teóricos de la fisión nuclear.
En la actualidad, los físicos que participaron en la construcción del arma más tremenda y peligrosa de todos los tiempos, se ven abrumados por un similar sentimiento de responsabilidad, por no hablar de culpa (…). Nosotros ayudamos a construir la nueva arma para impedir que los enemigos de la humanidad lo hicieran antes…
Así ensayaba una suerte de disculpa el físico alemán en diciembre de 1945, durante un discurso dado en Nueva York; ¿no les suena? Como dije antes, muchos conceptos se agitaban al mediar del siglo XX.
Tengo para mí que hay solo dos cosas que no debiéramos hacer, la primera es instalarnos en el miedo. Tal vez abandonamos demasiado pronto el camino de la razón ética. Y ya sabemos lo que ocurre cuando dejamos espacios semánticos en blanco, lo hemos aprendido con dolor: «si yo no lo hubiera hecho, habría sido alguien más». Entiendo que para los Estados, las universidades e instituciones abocadas al abordaje de nuevos fenómenos, va madurando la necesidad de reflexionar acerca de la creación de nuevos observatorios sobre inteligencia artificial. Ser personas de ciencia no solo nos impone la obligación de resolver, nos dispone además al ejercicio de anticipar. Así como la Segunda Guerra Mundial, la era nuclear y la llegada del hombre a la Luna se comprenden en un continuo de eventos sucesivos y concatenados, tendremos que pensar si el advenimiento de la inteligencia artificial es un eslabón primigenio de sucesos que aún están por escribirse. Ya nadie puede decirnos que tal cosa es «impredecible», pues rendirse a lo impredecible es siempre claudicar la creatividad del pensamiento ordenado a la previsión.
La segunda —consecuencia natural de la primera— es no hacer nada. Tal vez, repensar al hombre en términos de «inteligencia natural» distinto de «posinteligencia» sea un primer indicio, un principio de pauta que nos ayude a reflexionar sobre el concepto de «inteligencia» y —por qué no— qué es aquello que define a la «vida inteligente» o, propiamente, a la vida. Un hueso humano, tomado solo, no es en sí mismo una persona, pero hace referencia a una vida, aunque esa persona ya no la posea como tal. Su hechura y el organismo al que perteneció fue soporte de millones de células que se multiplicaron con urgencia por existir. ¿Cuántos miles de ácaros deberían contenerse en un libro para ser considerado un ser vivo? Sin embargo, vemos el hueso como «restos humanos», pero nos agrada pensar en la idea de un libro «vivo», que al igual que el hombre inspira, contiene un carácter, transmite experiencias, sabiduría y muchas veces, también, intranquilidad y desesperanza. Pero antes de escribir estas páginas me juré abandonar todo propósito de final moralizante. Ni siquiera me atrevo a pensar si este siglo debería revisar ese concepto, refiriéndose a «final» y, sobre todo, en términos de «moralizante».
Algo pasó mientras dormíamos, entre sueños escuchábamos a profetas de la ciencia ficción anunciar mundos imposibles. El estado actual del planeta y la tecnología que lo ocupa han dejado de ser un desafío para los próximos cien años y se han transformado en un tablero de juego tan riesgoso que la mejor movida de todas parece ser la de «no jugar». No es la solución, pero mientras buscamos las respuestas —vamos, que siempre las encontramos— el horizonte que adviene amenaza con cambiar la naturaleza misma de lo que hasta hoy hemos definido bajo el término de «realidad». Lo que podría ser ha devenido en hoy, y ya está ocurriendo.
Todo estaba escrito, todo está por escribirse.
Remedios de Escalada, julio de 2023.
*Pablo Núñez Cortés es corrector de pruebas y ensayista. Licenciado y profesor de Historia, Diploma de Honor y Medalla de Oro de la Academia Nacional de la Historia. Previo a su carrera de grado, finalizó sus estudios medios como técnico electrónico en el Instituto Industrial Luis A. Huergo. Actualmente se desempeña en el Departamento de Planificación y Políticas Públicas de la Universidad Nacional de Lanús.
Leave a Reply
Lo siento, tenés que estar conectado para publicar un comentario.