Cuatro reflexiones sobre los ‘componentes éticos’ de la Inteligencia Artificial

Cuatro reflexiones sobre los ‘componentes éticos’ de la Inteligencia Artificial

Todos advierten sobre cuestiones éticas ante la explosión de la inteligencia artificial. Este debate, sin embargo, presenta cuestiones que merece la pena destacar
18 June 2018

“¿Cuáles son los componentes éticos y sociales que deben asumir las grandes empresas para lograr un desarrollo de la inteligencia artificial equilibrado y sostenible? Nuevas dimensiones en la relación entre individuos y sistemas artificiales”.

1. ¿Ética o éticas?

La primera reflexión que me provocó este debate fue el acierto de utilizar el plural al hablar de los componentes éticos de la inteligencia artificial, porque no hay una sola Ética, hay muchas éticas. Y, sin embargo, cuando hablamos de “la Ética aplicada a la Inteligencia Artificial”, pareciera que nos referimos a una sola Ética, como si todos los países -y todas las personas- compartiéramos la misma.

Quizá la clave esté en que pecamos de cierto ombliguismo y, desde Occidente, pensamos que nuestro sistema de valores es -o debería ser- universal, como si no pudiera haber Inteligencias Artificiales y algoritmos que se basaran en otros sistemas de valores, como -por ejemplo- el de los países islámicos, o el de países como China, que utiliza la Inteligencia Artificial para el control de los ciudadanos.

Pero es que, incluso entre las democracias occidentales, hay diferentes éticas y tradiciones religiosas y culturales: unas más próximas a la ética católica y otras, a la ética protestante. No olvidemos el famoso libro de Max Weber sobre la ética protestante y el espíritu del capitalismo, que parece ser lo que ha triunfado, muy unido a una economía de mercado y a una sociedad consumista.

2. Ética y Derecho

En cierta forma es explicable ese ombliguismo ético, si se tiene en cuenta dónde han surgido estas tecnologías y, por tanto, querámoslo o no, con qué sesgo han nacido y, sobre todo, se están aplicando por grandes empresas en un mercado muy globalizado. Y, en el terreno de los valores, no podemos olvidar la vocación universal de la Declaración Universal de Derechos Humanos de la ONU (1948).

Pero, incluso las democracias occidentales que firmaron y comparten los valores de esa Declaración, presentan diferencias en sus sistemas jurídicos, que dichas tecnologías y, sobre todo, su aplicación por grandes empresas multinacionales, deben respetar y a las que han de adaptarse. Como ha ocurrido recientemente con empresas de fuera de la UE y el nuevo Reglamento de Protección de Datos.

Quiere esto decir que el primer ‘componente ético’ de la Inteligencia Artificial ha de ser el derecho vigente, pues todo sistema jurídico tiene unos valores que han de respetarse y el código informático debe adaptarse al código jurídico, que, por ahora y en muchos campos, es distinto en cada país (el gran problema de la aplicación territorial de las leyes), aunque se buscan estándares internacionales.

3. Algoritmo y Libertad

Un tema que me preocupa mucho, es la utilización del big data y de la inteligencia artificial para el cumplimiento de las leyes. La utilización de máquinas inteligentes (perfectas) para la vigilancia exhaustiva del cumplimiento de las normas humanas (imperfectas) por los seres humanos (imperfectos) nos pondría a todos en el lado de la ilegalidad.

En el debate se habló de la Agencia Tributaria, pero también podríamos citar a la Dirección General de Tráfico. Un uso intensivo del big data y de la inteligencia artificial, unido a sensores de geolocalización, podrían ‘resolver’ el problema del tráfico definitivamente, porque, en muy poco tiempo, todos habríamos perdido los puntos del carnet y, de paso, gran parte de nuestro dinero, por las sanciones.

Sería la estrategia perfecta para aquellos que todavía se nieguen a la utilización de coches autónomos, en cuya inteligencia artificial está inserto el código de la circulación, por lo que éste ya no sería necesario, porque no tendríamos siquiera la posibilidad de infringirlo. ¿Qué pasaría entonces con nuestro Libre Albedrío? Eso sí, como no tendríamos ya Libertad, tampoco tendríamos Responsabilidad.

4. Data4Good

En cuanto a la “responsabilidad de las empresas en la sociedad hiperconectada”, el debate derivó hacia la responsabilidad social corporativa en el uso del Big Data y de la Inteligencia Artificial, utilizando los datos (convenientemente agregados) -y, sobre todo, la tecnología que tienen las grandes empresas- para proyectos sociales sin ánimo de lucro, en lo que se llama Data4Good (datos para el bien).

Lo malo del nombre Data4Good es que puede parecer que las otras cosas que hacen las empresas con el big data y la inteligencia artificial, con ánimo de lucro, no son para el bien. Hay que distinguir entre el bien común (o el interés general) y el bien o interés particular, y explicar que no es malo. No hay que demonizarlo, ni criminalizar el ánimo de lucro, porque parece que fuera, en sí mismo, un delito.

Cuando unos laboratorios farmacéuticos invierten muchos miles de millones en investigación para la cura de enfermedades, por supuesto que tienen ánimo de lucro, que es lo que mueve a cualquier empresa. Pero si, gracias al big data y a la inteligencia artificial, que es como se investiga ahora, se consigue encontrar un medicamento que salva vidas, también se beneficia de ello el Bien Común.

¿Qué opinas de este artículo?