Nueve riesgos relacionados con la inteligencia artificial

Nueve riesgos relacionados con la inteligencia artificial

Para bien y para mal, para ambas cosas, existe mucho eco mediático sobre las bondades y los riesgos que pesan sobre la inteligencia artificial y sobre las necesidades de carácter ético y regulatorio que se entienden necesarias para eliminar riesgos.
10 Marzo 2021

La inteligencia artificial es una tecnología (más bien una familia de tecnologías) avanzadas y apasionantes y, particularmente, me gusta más mirar su cara amable, sus éxitos a nivel funcional, su impacto en los negocios, su potencial para definir nuevas soluciones y su papel impulsor del desarrollo económico y el bienestar social.

A pesar de ello, no parece razonable ignorar los riesgos y problemáticas, y por ello, últimamente también me estoy ocupando de leer y entender posiciones críticas.

Así, por ejemplo, leyendo el libro ‘Rebooting AI. Building Artificial Intelligence We Can Trust‘ de de Gary Marcus y Ernest Davies, me encuentro con un listado de riesgos que esos autores ven en la inteligencia artificial y que, sin ser los únicos, si son. sus palabras, los que más les preocupan. Se trata de estos nueve riesgos:

  • Exceso de atribución: un error por el que tendemos a asignar a las máquinas características humanas (ya nos hemos referido en este blog a algo parecido al hablar de antropomorfización) y eso nos conduce, entre cosas cosas, a atribuirles más capacidades y méritos de los que realmente tienen.
  • Falta de robustez: se argumenta que los sistemas de inteligencia artificial actual tienden a no ser robustos y no funcionar bien fuera de ciertos casos concretos.
  • Dependencia de los datos de entrenamiento: en muchos casos, los algoritmos de inteligencia artificial, y en particular de machine learning, dependen en mucha medida de los datos de que han dispuesto en su entrenamiento. Un algoritmo bien entrenado y con buenos resultados para aquella situación en que ha sido entrenado, puede comportarse de manera errónea en problemas algo diferentes al original
  • Sesgos: un filtrado poco cuidadoso en los datos de entrenamiento, puede dar lugar a que se perpetúen sesgos sociales existentes cuando a lo mejor querríamos otra orientación.
  • Efecto eco: se trata de un cierto efecto de amplificación o resonancia. . Así, debido a la enorme necesidad de datos de entrenamiento necesarios hoy en día, algunas estrategias de entrenamiento recurren a datos generados de forma artificial también por algoritmos. Es más, y quizá más importante, de manera progresiva, la información existente en la realidad será consecuencia de lo que se ha deducido o decidido por los algoritmos. Eso puede provocar una cierta realimentación o eco, en que los algoritmos se refuerzan a si mismos en sus conclusiones, quizá no correctas.
  • Manipulación: en la medida en que el entrenamiento de los algoritmos se realice con datos públicos, contenidos, por ejemplo, en internet y medios sociales, existe una cierta probabilidad de que esos datos puedan ser de alguna forma trucados o manipulados.
  • Amplificación de sesgos: el efecto eco, que mencionábamos más arriba, unido a unos ciertos sesgos de partida existentes realmente a nivel social, pueden resultar en una amplificación del sesgo.
  • Objetivos erróneos: Es muy fácil establecer objetivos erróneos para un algoritmo, no porque realmente haya ninguna mala intención o negligencia sino porque no advertimos que el objetivo es inexacto o erróneo y que una interpretación, digamos ‘literal’ por parte del algoritmo de lo que debe conseguir, lleva a éste a comportamientos absurdos.
  • Daño deliberado: La inteligencia artificial ya actualmente puede ser usada deliberadamente para causar un serio daño, desde su empleo en armas autónomas hasta todo tipo de ciberataques.

Algunos riesgos se entrecruzan y mezclan un poco unos con otros, pero, por lo demás, me parecen unos riesgos bastante ciertos, por más que, eso sí, si sólo recurrimos a este listado de problemas, a esta especie de casa de los horrores de la inteligencia artificial, podemos llevarnos una visión negativa del estado y méritos reales de la inteligencia artificial. Una visión negativa que esa sí que no la comparto y que tampoco creo que sea fiel a la realidad.

De todas formas, lo importante cuando se identifican riesgos es establecer lo que se denominan, planes de mitigación (medidas para que esos riesgos no se traduzcan en problemas reales) y planes de contingencia (planes de acción en caso de que los problemas se materialicen).

En ese sentido, como punto de partida para trabajar en la mejora de la inteligencia artificial, es buena cosa disponer de identificaciones de riesgos como esta.

¿Qué opinas de este artículo?