Riesgo y regulación de datos: ¿Estamos jugando a ponernos al día con la IA?

Riesgo y regulación de datos: ¿Estamos jugando a ponernos al día con la IA?

Nadie ignora que en estos momentos hay un acalorado debate en torno a la IA, más concretamente en torno a la aparición de algoritmos de IA generativa y grandes modelos lingüísticos (LLM) como ChatGPT, Google Bard y otros.
14 Abril 2024

La rápida adopción de esta tecnología ha tenido un impacto significativo en casi todos los aspectos de la vida: estimulando conversaciones sobre si la IA sustituirá a los trabajos humanos, cuándo y cómo es éticamente apropiado utilizar herramientas LLM y cuál es la mejor manera de abordar los posibles riesgos para la privacidad y la seguridad de los datos asociados al uso de estas herramientas.

Dejando a un lado los debates éticos y filosóficos, las organizaciones que deseen implantar soluciones basadas en LLM para agilizar y automatizar procesos, o resumir y generar inteligencia a partir de conjuntos de datos masivos, deberán tener debidamente en cuenta los riesgos que ello implica.

Además de crear políticas y directrices internas sobre cómo y cuándo los empleados pueden utilizar estas herramientas, y para qué, será clave conocer el panorama legal y normativo actual en el que opera esta tecnología.

LLM: ¿QUÉ ES Y CÓMO FUNCIONA?

LLM es un tipo de algoritmo de IA que utiliza técnicas de deep learning y grandes conjuntos de datos para comprender, resumir, generar y predecir nuevos contenidos.

Las aplicaciones potenciales de los LLM, que abren nuevas posibilidades en diversos campos, son infinitas y abarcan desde los chatbots de atención al cliente hasta la detección de anomalías y el análisis del fraude en los servicios financieros.

También se están utilizando para acelerar el desarrollo de software, generar complejos resúmenes jurídicos, proporcionar información para la toma de decisiones de inversión y crear modelos que generen nuevos conocimientos sobre moléculas, proteínas y ADN para investigación.

Está claro que los LLM ya están cambiando las reglas del juego en múltiples sectores industriales y resultan muy atractivos para cualquier organización que desee aumentar su eficiencia y productividad. Pero el uso de esta tecnología plantea una serie de retos.

Por ejemplo, hay que hacer frente a problemas como las respuestas falsas o inexactas, la parcialidad de los modelos y los resultados, las infracciones de la propiedad intelectual y los derechos de autor, así como los problemas de protección de datos.

CONSIDERACIÓN DE LOS RIESGOS

Los LLM pueden recopilar, almacenar y procesar cualquier tipo de datos, incluidos datos personales y otros datos confidenciales, a una escala sin precedente Esto abre a las organizaciones algunos retos clave que surgen al determinar quién es responsable de la legitimidad y calidad de los datos utilizados para entrenar productos generativos.

Sin saberlo, las organizaciones podrían enfrentarse a importantes sanciones legales si sus modelos utilizan datos personales que no se han obtenido utilizando los permisos adecuados.

Por ejemplo, la información personal revelada a los LLM podría utilizarse posteriormente de formas adicionales que violen los permisos otorgados por las personas a las que esta información se refiere explícitamente.

En segundo lugar, ¿cómo evita una organización la generación de contenidos problemáticos, como sesgos, falsedades o discriminación?

La responsabilidad de los proveedores de soluciones y las organizaciones en términos de quién es responsable de la prevención, la supervisión y la respuesta debe entenderse y documentarse claramente.

Cuando se trata de la toma de decisiones automatizada u otros resultados, ¿quién o qué obtendrá acceso a los datos o resultados generados por los LLM, y cuáles son las implicaciones de estos sistemas en relación con los riesgos de ciberseguridad?

Por último, las organizaciones que pretendan utilizar la IA tendrán que pensar detenidamente en cómo abordan las obligaciones relacionadas con la privacidad, como responder a las solicitudes de los interesados para acceder a sus datos o eliminarlos.

CUMPLIMIENTO NORMATIVO

Los LLM están sujetos a los mismos marcos normativos y de cumplimiento que otras tecnologías de IA, pero su omnipresencia pone de relieve algunos retos en relación con el cumplimiento de los marcos existentes de privacidad y protección de datos.

Las autoridades europeas de protección de datos ya se están preparando para abordar las denuncias de infracciones del RGPD derivadas del uso de los LLM.

La Ley de IA de la UE, que fue aprobada por el Parlamento Europeo en junio de 2023, se propone regular la IA en función de su potencial para causar daños y es probable que imponga obligaciones más estrictas a los modelos de base sobre los que se construyen las soluciones LLM.

El reglamento ya ha propuesto la prohibición de determinados usos de la IA, como la puntuación social, y esboza las salvaguardias que serán necesarias para el entorno tecnológico actual, en rápida evolución.

Evidentemente, la actual avalancha de normativas sobre privacidad de datos e IA significa que las organizaciones que pretendan implantar la IA tendrán que navegar por un panorama legislativo y normativo cada vez más complejo y tendrán que asegurarse de estar totalmente al día de las novedades.

Por el momento, sin embargo, la atención debe centrarse en garantizar la aplicación de medidas de cumplimiento para que los datos se recopilen y procesen de acuerdo con los requisitos legales y reglamentarios vigentes.

¿Qué opinas de este artículo?