¿Estamos creando un mundo en el que el ser humano sobra?
¿Estamos creando un mundo en el que el ser humano sobra?
Hace 23 años, Bill Joy, cofundador y jefe científico del gigante tecnológico Sun Microsystems, publicó un largo artículo en la revista Wired titulado Why the Future Doesn’t Need Us (Por qué el futuro no nos necesita) en el que compartía la revelación que había tenido un par de años antes. Tras una serie de encuentros con otras figuras clave de Silicon Valley como el famoso Ray Kurzweil, este tecnólogo nato con un pedigrí científico y empresarial de primera categoría cayó en la cuenta de que el universo tecnológico que el ser humano estaba tejiendo era uno en el que él mismo probablemente no tendría cabida.
Aunque su bagaje y reputación hablaran por ellos mismos, antes de exponer rigurosamente sus argumentos Joy dedicaba once párrafos para evitar cualquier sospecha de ser considerado un ludita. Como si cualquier discurso que cuestionara la necesaria correlación entre desarrollo tecnológico y progreso para nuestra especie fuera sospechoso de irracionalidad. En este sentido, los tiempos han cambiado ligeramente en los últimos años: a medida que los excesos de las grandes tecnológicas han saltado a la luz, que se han observado científicamente algunas consecuencias psicológicas y sociales adversas de la hiperconectividad o que la inteligencia artificial (IA) deja entrever riesgos sistémicos para la sociedad, hoy en día es más común escuchar discursos críticos sobre la tecnología digital, incluso por parte de los propios líderes tecnológicos que las están desarrollando.
Ser un whistle-blower tiene más caché y goza de una mayor aceptabilidad en 2023 que entonces. Hace unos meses, Geoffrey Hinton –uno de los padres detrás de la IA generativa– dimitió del alto cargo que ostentaba en Google para recuperar su libertad de palabra y afirmaba: «Una parte de mí se arrepiente del trabajo al que he dedicado gran parte de mi vida». Otras voces muy críticas –empezando por el mismísimo creador del World Wide Web, Tim Berners-Lee– alertan desde hace años sobre el giro que internet ha tomado y que le aleja de sus nobles objetivos iniciales. Por no mencionar las dudas expresadas por los líderes de las dos mayores potencias de la IA del momento: Google y OpenAI. Sundar Pichai, el CEO de la primera, dijo hace unos meses que los riesgos planteados por la IA le mantenían despierto por la noche; mientras que Sam Altman, el mediático jefe de la empresa detrás de ChatGPT, reconocía que estaba «un poco preocupado».
Geoffrey Hinton: «Una parte de mí se arrepiente del trabajo al que he dedicado gran parte de mi vida»
Volviendo al artículo que Bill Joy publicó en abril del año 2000, no solo llama la atención por su valentía sino por la clarividencia de que, juntando todas las piezas del puzle y apoyándose en una visión amplia y profunda de la industria tecnológica, ya era capaz de apreciar la esencia del reto sin precedentes que la tecnología que estábamos empezando a desarrollar iba a plantear para nuestra especie. Y, si entonces se requería un conocimiento avanzado o mucha imaginación, más de dos décadas más tarde tanto las noticias como nuestra vida cotidiana permiten al común de los mortales vislumbrar de forma mucho más concreta los escenarios dibujados por su autor entonces. Sin embargo, el debate sobre los riesgos existenciales de la tecnología que Joy lamentaba que no estuviera más avanzado sigue más o menos en el mismo punto.
Por qué el futuro no nos necesita forma parte de estos textos en los que uno está tentado de subrayar prácticamente todo mientras lo va leyendo y, por lo tanto, no resulta fácil resumirlo. Su tesis general es que la combinación entre IA, robótica, ingeniería genética y nanotecnologías presenta el riesgo de reemplazar la humanidad de distintas maneras posible, una eventualidad con la que el propio Joy, como actor de esta industria, se sentía muy incómodo.
La interrogación del tecnólogo se centra, por un lado, en el sentido de la vida y el lugar que el ser humano ocupará en un mundo en el que la máquina hará cada vez más cosas por él –y supuestamente mejor que él–, y por el otro, en escenarios de extinción más violentos para la especie humana.
Esclavizados o marginados
En el caso de que seamos capaces de crear máquinas inteligentes cuyas capacidades superen las de los humanos, distingue dos posibilidades. En un primer caso, las máquinas podrían tomar sus propias decisiones sin supervisión humana, mientras que, en el segundo, los humanos retendrían cierto control sobre ellas.
En el primero resulta imposible hacernos una idea de cómo se comportarán las máquinas cuando sean «libres» de tomar sus propias decisiones y la humanidad estaría a su merced. Aunque pueda parecer inverosímil que los humanos concedan a las máquinas un poder tan grande, predice que esto se producirá gradualmente, sin formar parte de un plan: la sociedad simplemente delegaría cada vez más en ellas para resolver problemas complejos y, a medida que los humanos pierdan la capacidad de resolverlos por sí mismos y sean dependientes, se podría afirmar que las máquinas habrían tomado el control. Tampoco sería una opción desenchufarlas ya que no seríamos capaces de vivir sin ellas.
Hemos ido externalizando una gran parte de nuestras facultades cognitivas en los smartphones y las hemos perdido
Lo que entonces podía parecer un ejercicio intelectual meramente especulativo encuentra hoy un eco concreto en muchas innovaciones. Al margen de los debates sobre la super inteligencia o inteligencia artificial general, ¿no estamos ya acercándonos a este punto? La rama de la IA que se ha impuesto en los últimos quince o veinte años –basada en el aprendizaje automático y, más en adelante, el deep learning– implica justamente una supervisión gradualmente menor de las máquinas: estas ya no son programadas para hacer algo, sino que hacen cada vez más cosas por sí mismas. A la vez hemos ido externalizando una gran parte de nuestras facultades cognitivas en los smartphones y las hemos perdido.
Esta dependencia y subsecuente pérdida de control no hará más que intensificarse a medida que las máquinas autónomas penetren en rincones cada vez más profundos de nuestras vidas. Cuando todos los coches sean autónomos, ya no sabremos conducir y nos dejaremos llevar por ellos por la ruta que ellos decidan, algo que ya hacemos cuando nos dejamos guiar por Waze. ¿Seremos capaces de producir una reflexión compleja si externalizamos nuestra mente a ChatGPT y dejamos de entrenar nuestra mente? ¿Qué sucederá si las armas letales autónomas (killer robots), a las que se delega la decisión de matar, se perfeccionan y realmente se vuelven completamente autónomas? No lo podemos saber, pero todos estos casos ilustran la pérdida de control entrevista por Joy.
En el segundo escenario –en el que los humanos mantienen cierto control sobre las máquinas– la persona media controlaría únicamente una pequeña parte de la tecnología que manejaría a nivel privado, pero el control de las infraestructuras estaría en la mano de una diminuta élite. Aunque esto siempre haya sucedido, la diferencia residirá en el hecho de que, con una tecnología cada vez más avanzada en la que dependeremos más en todas las facetas de nuestras vidas, el poder de esta élite sobre el resto de la humanidad será incomparable.
Esta advertencia corresponde a una realidad aún más palpable en la actualidad. Aunque grandes monopolios surgieron desde los principios del capitalismo industrial, los conglomerados que los componían ejercían su dominio sobre porciones limitadas de la existencia de las personas, con consecuencias sobre todo económicas. Por inmenso que fuera su peso, el poder sobre el mercado que acumulaban, y las distorsiones de la competencia de las que eran responsables, ni la Standard Oil a principios del siglo XX, ni AT&T en los 1980, o ni siquiera Microsoft en los años 1990, nos acompañaban día y noche ni penetraban en nuestras mentes como lo hacen las grandes tecnológicas de hoy. No condicionaban nuestras decisiones, nuestras relaciones sociales o la manera en la que empleábamos nuestro tiempo.
Las grandes tecnológicas actuales sí son capaces de accionar palancas que inciden en nuestro comportamiento, en nuestro pensamiento (las neurotecnologías van a permitir literalmente que accedan a nuestra actividad cerebral) y en quiénes somos. Y su gobernanza es tal que, efectivamente, un puñado de personas en el mundo controlan su rumbo. Jamás el ratio entre su influencia en nuestras vidas y el número de personas responsables de ellas ha sido tan elevado.
Extinción
La característica en la que Joy más insiste, que confiere a la tecnología del siglo XXI un nivel de riesgo incomparable con respecto a la de las de anteriores olas de innovación, consiste en su capacidad de auto-replicación: mientras que una bomba explota una sola vez, un bot puede multiplicarse y propagarse de una manera que escapa a nuestro control. Y a medida que estos bots no sean puramente digitales y sean capaces de saltar al mundo físico a raíz de los cruces entre la robótica, la IA, las nanotecnologías y las biotecnologías, los riesgos de una auto-replicación incontrolada cambiarán su naturaleza.
Los grandes monopolios del pasado no nos acompañaban día y noche ni penetraban en nuestras mentes como lo hacen las grandes tecnológicas de hoy
Para ilustrarlo, el autor evoca, entre otras imágenes, la novela The White Plague de Frank Herbert, en la que un biólogo molecular enloquecido disemina una plaga hiper contagiosa que elimina selectivamente a los humanos. En el documental reciente The Unknown: Killer Robots, el profesor de farmacología Sean Ekins, CEO de la empresa Collaboration Pharmaceuticals que utiliza la IA para concebir moléculas que maximicen las propiedades curativas, comparte una experiencia personal que presenta una visión actualizada y realista del abismo al que esta combinación de estas tecnologías nos puede llevar.
Con el propósito de una conferencia sobre los riesgos de la IA en su campo, se le ocurre remplazar un 1 por un 0 en su modelo informático, lo cual supone dar la orden contraria a la IA: concebir las moléculas más letales posible para los humanos. Al despertarse al día siguiente, el investigador encuentra con espanto un archivo en su ordenador con las fórmulas de cuarenta mil moléculas cuya nocividad extrema probablemente podría conducir a la extinción humana en el caso de que se produjeran. En este caso, todo quedó confinado en un ordenador y Ekins borró inmediatamente este archivo tras unos serios temblores. Pero es fácil imaginar cómo un terrorista, un grupo criminal, un individuo desesperado o desequilibrado, o un accidente de laboratorio, pudiera convertir este experimento en el algo funesto para nuestra especie.
Otro gran escenario de extinción de la humanidad tiene que ver con la difícil compatibilidad de los humanos con una inteligencia ajena a ellos, que les superase por creces. «Las especies biológicas casi nunca superviven encuentros con competidores superiores», argumenta Joy apoyándose en episodios históricos. O, como lo explica el filósofo Nick Boström, la coexistencia entre dos especies inteligentes no es posible. En los últimos años esta preocupación ha ganado terreno entre muchos especialistas sin que por ello se haya convertido en un verdadero debate.
Poco antes de morir, Stephen Hawking bromeaba al respecto: «Si una civilización extraterrestre nos enviara un mensaje para avisarnos de que llegaría a la Tierra en varias decenas de años, ¿acaso nos limitaríamos a responderles: «de acuerdo, llamadnos cuando lleguéis»? Probablemente no, y, sin embargo, es lo que estamos haciendo con la IA». El único campo en el que realmente se plantee esta cuestión es el económico, y más concretamente, el laboral, bajo la pregunta «¿qué trabajo nos quedará cuando las máquinas hagan todo mejor que nosotros?», pero no un verdadero cuestionamiento sobre lo que significa auto-marginarnos como especie del planeta que habitamos.
En definitiva, la búsqueda de eficiencia empujada hacia el extremo, un afán de optimización aplicado a todos los aspectos de nuestras vidas y la nostalgia de un jardín de Edén en el que no tuviéramos que trabajar y pudiéramos dedicar a disfrutar parece habernos conducido, paulatinamente, a construir un mundo en el que el ser humano es cada vez menos esencial y, por lo tanto, es más fácil prescindir de él. Aquello lo percibió Bill Joy hace veintitrés años y ahora supone un menor esfuerzo observarlo. La caja de Pandora «casi abierta» que describió podría estar ahora abierta del todo, pero la fascinación sigue premiando en detrimento de un debate más que necesario sobre el lugar que desearíamos que ocupase nuestra especie de aquí a otros veintitrés años.