Millonarios de Silicon Valley y científicos crean una organización para impedir que la inteligencia artificial derive en Terminator

Millonarios de Silicon Valley y científicos crean una organización para impedir que la inteligencia artificial derive en Terminator

OpenAI, promovida por Elon Musk y Peter Thiel, entre otros ilustres, es una organización sin ánimo de lucro que contará con 1.000 millones de dólares
14 Enero 2016

Las habilidades que están demostrando algunos robots gracias al impactante desarrollo de la Inteligencia Artificial (IA) ha metido el miedo en el cuerpo a parte de la comunidad científica, temerosa de que la IA termine en convertirse en Skynet, que así se llama al programa informático generado por esta área científica capaz de liderar el ejército de las máquinas en las películas de Terminator.

Para frenar una deriva autónoma frankensteiniana de los autómatas  que ya están presentes en los hogares, hoteles, fábricas, ciudades, brokers de Bolsa e incluso consejos de administración, como es el caso anunciado por la empresa china (Hong Kong), de capital riesgo, Deep Knowledge Ventures, un grupo de multimillonarios empresarios con el fenotipo de Silicon Valley, encabezados por visionarios como Elon Musk, cuya ambición y determinación le han llevado a fundar empresas como Tesla, la marca chic del coche eléctrico, o SpaceX, que acaba de conseguir exitosamente aterrizar un cohete lanzado al espacio para su reutilización, lo que debería abaratar mucho los viajes espaciales, Reid Hoffman, uno de los fundadores de la conocida red social Linkedin o Peter Thiel, que fundó la exitosa empresa de pagos Paypal y ha financiado muchas de internet, como Facebook,  se han comprometido a financiar con 1.000 millones de dólares una organización no lucrativa, a la que han llamado OpenAI.

Todo ello con el fin de que “la inteligencia artificial avance de la manera mejor para que se beneficie la humanidad en su conjunto, sin estar condicionada por la necesidad de generar una rentabilidad financiera”, dice  el mensaje publicado por OpenAI a modo de presentación. “Dado que su investigación estará liberada de compromisos financieros, OpenAI se podrá enfocar de mejor manera a todo aquello que tenga un impacto humano positivo. La Inteligencia artificial debería ser una extensión de la voluntad humana y, dentro del espíritu de libertad, tan ampliamente y equitativamente distribuido como sea posible”, añade la presentación.

Los filántropos y científicos que han constituido esta organización creen que es difícil predecir cuando la Inteligencia Artificial de nivel humano estará disponible, pero cuando esto ocurra consideran “que será importante tener una institución puntera en investigación que pueda dar prioridad a resultados buenos para todos por encima de intereses propios”, dicen los fundadores.

OpenAI compartirá sus patentes con todo el mundo y animará a los investigadores para que sus trabajos se hagan públicos, y tratará de alcanzar acuerdos con empresas e instituciones en la investigación conjunta y el desarrollo de las nuevas tecnologías. El director de investigación de esta ong es Ilya Sutskever, una eminencia en máquinas inteligentes, que trabajó tres años en Google Brain Team, y el Director Tecnológico es Greg Brockman, que ya lo fuera anteriormente de Stripe y fue el director de sistemas de Harvard Computers Society.

El grupo de fundadores y donantes, además de los famosos ya citados, son un total de 17 personas físicas y tres empresas, Amazon Web Services, Infosys e YC Research,  todos ellos ingenieros y científicos de muy alto nivel. La preocupación por el desarrollo ‘maligno’ de la inteligencia artificial, una pesadilla de ciencia ficción, condujo en enero de este año a la publicación de una carta, redactada por el Future of Life Institute, a la que se han adherido miles de científicos, siendo el más mediático Stephen Hawking, e incluye varios premios Nobel, en la que se describen los grandes logros que serán alcanzados en poco tiempo con su evolución,  pero también pone en guardia contra las amenazas, más graves que las atómicas, de una mala evolución de la IA. La firma de esta carta casi se puede entender como un juramento hipocrático, al estilo de los médicos, de la comunidad científica.

La Inteligencia Artificial no sólo puede dejar a millones de personas sin empleo a corto plazo,sino que a más largo plazo podría tener el suficiente potencial para actuar como una distopía en la que los algoritmos de una cibercerebro podrían generar una inteligencia superior a la de un humano rebelándose contra su programación. La carta es rotunda en su finalidad: “Nuestros sistemas de Inteligencia Artificial deben hacer lo que nosotros queremos que hagan”. La carta surgió no mucho tiempo después de que Hawking advirtiera en una entrevista en la BBC de los peligros de que la IA superara a los humanos. Una carrera armamentística basada en Inteligencia Artificial se ve como uno de los mayores peligros.

El despliegue de robots humanoides para cuidar de personas  mayores serán pronto una realidad y la formación de robots guerreros en los campos de batalla, también. La tecnomedicina permitirá dotar al cuerpo y a la mente de más poder con implantes, lo que puede dar lugar a un darwinismo diabólico, en el que la simbiosis de hombre y máquina acabará con la unicidad del animal racional al aparecer el ciborg.La amenaza ya se atisba claramente cuando vemos cómo un dron ha matado a civiles por un error del algoritmo, pero también podría hacerlo por el sabotaje de un hacker. El cine nos ha dado ya múltiples ejemplos de la amenaza de la IA, incluyendo su capacidad de seducción.

No sólo OpenAI trabaja para encauzar adecuadamente la nueva era ecléctica en la que confluyen la informática, telecomunicaciones, robótica, nanotecnología, neurología, biotecnología, y otras especialidades, el físico alemán Dirk Helbing dirige el proyecto internacional de investigación FuturICT, que reúne a más de 50  universidades y estuvo a punto de ser el proyecto estrella financiado por la Comisión Europea también con 1.000 millones, cediendo finalmente frente al Human Brain Project.

Helbing quiere con FuturICT conseguir una ciencia capaz de comprender y gestionar los nuevos problemas y oportunidades que surgen como consecuencia de los cambios tecnológicos, ambientales y sociales. Helbing recuerda que la masa de información generada en internet, Big Data, puede ser utilizado para generar la ruina de pilares de la sociedad como las empresas, y de lanzar gerras digitales. Helbing ve enormes oportunidades con esa ingente cantidad de datos, pero también teme que los algoritmos que mueven los datos puedan sesgar la forma de pensar de las personas, modificar la visión del mundo, predecir el comportamiento para manipularlo.

El experto en IA, escritor y divulgador científico, George Zarkadakis, define certeramente la Inteligencia Artificial como la tecnología que trata de reproducir al hombre, pero piensa que la tecnología neuromórfica, por la cual se podrían obtener componentes electrónicos que funcionan como las neuronas, los llama neuristores, podrían ser utilizados en los ordenadores robóticos e imitar el funcionamiento del cerebro humano. Una réplica androide del hombre podría ser posible gracias a los ordenadores cuánticos y la electrónica líquida. Dice Zarkadakis que cerebros artificiales podrían ser instalados en cuerpos biomecánicos y con propiedades homeostásicas, con capacidad de evolucionar mejorando ‘la especie’.

La amenaza es más seria de lo que puede parecer y no hay más que echar un vistazo a las firmas de la carta para comprobar la importancia que le dan las mentas más preclaras del planeta. La Inteligencia Artifical nació en 1956 cuando Walter Pitts y Warren McCulloch demostraron la equivalencia entre una neurona biológica y una función lógica. El inimaginable exponencial desarrollo de muchas ciencias desde entonces permite pensar ya en una solapación de ambas. De momento, a corto plazo, el peligro  mayor es que una minoría consiga controlar la IA en detrimento del resto

Fuente: La Celosía

¿Qué opinas de este artículo?