“No nos interesa una inteligencia artificial salvaje, démosle valores” Patrick Gatellier, coordinador del proyecto AI4EU

“No nos interesa una inteligencia artificial salvaje, démosle valores” Patrick Gatellier, coordinador del proyecto AI4EU

Patrick Gatellier está al frente del proyecto de la CE para impulsar la inteligencia artificial en Europa
19 gener 2019

Patrick Gatellier, ingeniero de la empresa francesa Thales, se ha convertido en la cara visible de la inteligencia artificial europea como coordinador del proyecto AI4EU, la iniciativa en la que la Comisión Europea ha comprometido veinte millones de euros para los próximos tres años con el objetivo de impulsar el desarrollo de esta tecnología en Europa. Entrevistado esta semana en Barcelona, donde se ha celebrado la primera reunión del AI4EU, Gatellier se muestra convencido de que aún se está a tiempo de romper el duopolio de Estados Unidos y China en este ámbito, pero también deja claro que a los ciudadanos europeos no nos interesa una inteligencia artificial salvaje, asilvestrada, y por ello el objetivo debe ser inculcar a todos estos algoritmos y desarrollos los valores europeos. El AI4EU reúne 79 centros de investigación avanzada, pymes y grandes empresas que desarrollan inteligencia artificial, entre los que figuran el Barcelona Supercomputing Center (BSC), la UPC, el Instituto de Investigaciones en Inteligencia Artificial (IIIA), la Universidad Politécnica de Madrid, Atos Spain, SmartRural y la Fundación Cartiff.

¿Qué necesita Europea para ponerse al día y competir con Estados Unidos y China en inteligencia artificial (IA)?

Hemos de usar las ventajas que tenemos, y una de las fortalezas europeas más importantes es la multiculturalidad, que somos un conjunto de países diversos, así que la inteligencia artificial no puede dar una única respuesta y debe adaptarse a las distintas culturas y a los marcos normativos locales, que por otra parte son los únicos que intentan dar una respuesta ética y legal al uso de los datos y la tecnología.

¿Qué aportará el proyecto AI4EU?

El primer objetivo es reunir todos los recursos y laboratorios de investigación que hay en Europa, que producen una cantidad enorme de resultados (el 30% de las publicaciones científicas a nivel mundial). Para ello crearemos una plataforma única con todos los recursos creados por estos investigadores, auditados para certificar que son útiles y disponibles para quien quiera usarlos para sus innovaciones. Además se establecerá un ­observatorio ético para la IA con el objetivo de que todos los pro­gramas que se diseñen respeten los conceptos paneuropeos de le­galidad, ética y respeto al género. Y el observatorio divulgará in­formación veraz y neutra sobre el alcance y límites de esta tecnología para que la gente no se deje arrastrar por el alarmismo pero al mismo tiempo también exija a los reguladores que actúen para garantizar un buen uso.

¿Cómo funcionará esta plataforma de IA europea?

Será como una gran superficie a la que puedes acceder y, en un solo puesto, comprarlo todo. Cada persona que necesite un recurso de IA podrá solicitar el listado de algoritmos que hacen aquello que busca. Y encontrará algoritmos certificados, que seguirán las guías éticas fijadas por el observatorio, y podrá comprarlos para ensamblarlos en sus productos. También se ofrecerán recursos computacionales para que las pequeñas empresas puedan hacer pruebas piloto y comprobar que esa tecnología funciona como necesitan.

Cuando se habla de los riesgos de la IA uno de los focos siempre se dirige a los datos y la información que manejan las máquinas para aprender. ¿Cómo debe regularse este aprendizaje?

La inteligencia artificial introduce el conocimiento en objetos y herramientas, y ese conocimiento debe ser justo. Para ello hay que proporcionar pautas y reglas y asegurarse de que son respetadas por los productos que entran en Europa.

Esa guía ética europea de la IA ¿será exigible a nivel interna­cional o sólo condicionará a los ­desarrolladores europeos?

No puedo hablar por la Unión Europea, pero la esperanza es que el hecho de empezar a hablar del uso ético de la inteligencia artificial llame a mucha gente a hacerlo. Hay ejemplos de que el simple hecho de señalar los problemas y decir que nosotros queremos respetar unas normas puede ser suficiente para que otros las adopten, como la política sobre combustibles fósiles por su impacto en el cambio climático. Estados Unidos insiste en usar esos combustibles pero al mismo tiempo sus empresas producen mucha energía verde para no quedarse fuera del mercado. Y la nueva ley de protección de datos europea también está condicionando a empresas no europeas, que la asumen.

¿Sería posible un acuerdo internacional sobre los límites de la IA como existe en la investigación biomédica?

No lo sé. Es difícil por la variedad y amplitud del campo que abarca la inteligencia artificial.

China está siendo pionera en implantar tecnologías de IA que afectan al día a día de sus ciudadanos: desde sistemas de identificación en los uniformes escolares para controlar el absentismo hasta sistemas de rastreo de caras en la calle o de reconocimiento de voz en las llamadas telefónicas para detectar delitos. ¿Es eso lo que nos espera en Europa?

Esa tecnología es posible; otra cosa es si es deseable y si la aceptarían los ciudadanos europeos. Porque los ciudadanos chinos no se preocupan por su privacidad, pero nosotros sí. Así que la cuestión es si aquí es aceptable.

Y esas reservas de los ciudadanos europeos ¿pueden dejar relegada a Europa y a sus empresas en esta revolución tecnológica?

Es cierto que los valores europeos no son necesariamente compartidos por otros gobiernos y eso puede causar problemas. Pero también lo es que dichos valores son un capital para Europa porque permiten que se vaya produciendo la tecnología conforme sabemos que tiene un uso razonable y no entra cualquier tecnología en el mercado. Por otra parte, la Unión Europea es un gran mercado que tiene que ser oído, y oírnos significa respetar nuestros valores, y creo que al final los desarrolladores de inteligencia artificial no renunciarán a Europa y adoptarán esos mismos valores que ven que son buenos para todos.

¿Qué pueden esperar los ciudadanos de la inteligencia artificial?

Bien utilizada lo que comportará es que los trabajos que realizan las personas sean más interesantes, más creativos y menos mecánicos. Y con ese buen uso no tiene por qué significar menos empleos. De todos modos, a través del observatorio ético de la IA proporcionaremos información pedagógica, en lenguaje llano, sobre las verdaderas capacidades y alcance de esta tecnología y también sus limitaciones.

¿Y de qué depende que esté bien utilizada?

No debemos dejar una inteligencia artificial salvaje, asilvestrada. En Europa tenemos que trabajar para incorporar nuestros valores en el diseño y uso de esta tecnología.

¿Qué opinas de este artículo?