Por qué fracasan las restricciones a la IA (y qué funciona realmente)

Por qué fracasan las restricciones a la IA (y qué funciona realmente)

Cal Al-Dhubaib es un científico de datos reconocido mundialmente y jefe de IA en Further, una empresa de datos, nube e IA que prioriza la privacidad.
21 maig 2025

Los empleados no esperan permiso para usar IA; la utilizan para mantenerse al día con una carga de trabajo cada vez mayor. El informe de McKinsey de enero de 2025 sobre IA en la fuerza laboral muestra que los empleados usan herramientas de IA generativa (GenAI) tres veces más de lo que los gerentes esperan. El análisis de Anthropic sobre millones de conversaciones con Claude revela que más de un tercio de los trabajadores usa IA para al menos el 25% de sus tareas.

Considera a un gerente encargado de redactar un plan de mejora del desempeño. En lugar de elaborar cuidadosamente el texto y alinearlo con la política, podría ingresar detalles clave en una herramienta de IA y luego refinar el resultado —enfocándose en la precisión y personalización en lugar de empezar desde cero.

Esto plantea una pregunta crítica: si la IA ya está profundamente integrada en el trabajo diario, ¿por qué muchas empresas aún están rezagadas en establecer políticas claras?

He visto organizaciones restringir el uso de IA o imponer herramientas específicas sin proporcionar suficiente capacitación o evaluar si esas soluciones realmente satisfacen las necesidades de los empleados. Peor aún, algunas empresas no ofrecen ninguna guía, dejando a los empleados inseguros sobre si deben usar IA abiertamente, divulgar su uso o incluso identificar las herramientas aprobadas.

Tales restricciones solo empujan el uso de la IA a la clandestinidad, aumentando el riesgo en lugar de reducirlo. Afortunadamente, existen soluciones prácticas: eliminas la IA oculta no restringiéndola, sino haciendo que las opciones responsables sean más simples y atractivas.

¿Por qué surge la IA oculta?

La presión sobre los trabajadores del conocimiento nunca ha sido mayor. Más correos electrónicos. Más reuniones. Más documentación. Más presión para producir más rápido que nunca.

Los empleados generalmente no buscan romper las reglas. Más bien, llenan vacíos en los procesos con herramientas que simplifican su carga laboral. El problema central no es la IA en sí, sino que muchas empresas carecen de políticas claras y realistas que reflejen la realidad del trabajo moderno del conocimiento.

Sin alternativas adecuadas, muchos empleados recurren a herramientas de IA no aprobadas. Copian información sensible en sistemas de IA sin considerar plenamente cómo se procesa o almacena. Las herramientas de IA con ventanas de contexto más amplias permiten subir adjuntos completos, a veces exponiendo sin querer datos sensibles ocultos en documentos y eludiendo acuerdos de nivel de servicio (SLA) establecidos.

El acceso a herramientas de IA nunca ha sido tan fácil. Con soluciones como ChatGPT-4o disponibles libremente en dispositivos personales, muchos empleados las usarán con o sin alternativas sancionadas por la empresa.

Las organizaciones deben guiar el uso de IA, no restringirlo.

Las prohibiciones totales han fallado históricamente, empujando el uso de tecnología hacia territorios más riesgosos. Las empresas han visto esto con la “TI oculta”, donde las políticas restrictivas llevaron a los empleados a adoptar servicios en la nube personales o aplicaciones no autorizadas.

El mismo patrón está surgiendo con la IA. Las políticas restrictivas no eliminan el uso de IA; solo lo trasladan a canales no monitoreados, aumentando posibles responsabilidades.

Harvard ofrece un modelo práctico que funciona haciendo que el cumplimiento sea más sencillo. Proporciona directrices claras y fáciles de seguir que indican exactamente qué información puede usarse con herramientas específicas de IA. Los empleados pueden consultar listas de herramientas aprobadas, guías que especifican la sensibilidad de los datos y ejemplos documentados de aplicaciones exitosas de IA. Definir claramente lo que está permitido y simplificar el acceso a herramientas conformes elimina barreras para la adopción responsable de la IA y hace que seguir las reglas sea más fácil que romperlas.

Anticiparse a la IA oculta significa hacer que el uso responsable de la IA sea la opción más fácil.

Las organizaciones deben reconocer que la IA ya está aquí y que los empleados probablemente ya la están usando, aprobada o no. Aquí algunos pasos para empezar:

  • Mantén las políticas de IA claras y prácticas. Las reglas deben ser fáciles y rápidas de consultar y entender. Define claramente el uso aceptable y proporciona una lista sencilla de herramientas y activos de datos aprobados, junto con información de contacto para solicitar acceso.
  • Invierte en alfabetización en IA. Ofrece capacitación continua sobre capacidades, riesgos y limitaciones de la IA. Cuando los empleados comprenden cómo las consecuencias no intencionadas de sus acciones afectan la reputación y el riesgo de la marca, tienden a tomar decisiones informadas.
  • Evalúa regularmente las herramientas preferidas. Comprende qué herramientas prefieren los empleados e identifica obstáculos para la adopción de herramientas aprobadas. Celebra abiertamente cuando la IA impacta positivamente en el trabajo, fomentando la transparencia y el uso responsable continuo.
  • Proporciona mejores alternativas. Evalúa continuamente las herramientas aprobadas para asegurar que sigan siendo efectivas. Reemplaza rápidamente herramientas obsoletas con soluciones más amigables. Documenta y comparte historias de éxito internas y “recetas” de IA, y facilita una comunidad de práctica para difundir buenas prácticas.
  • Refina las políticas continuamente. La IA evoluciona rápido, y las políticas también deben hacerlo. Actualizaciones regulares basadas en la retroalimentación de los empleados y tendencias del sector mantienen la gobernanza relevante.

Muchas organizaciones han creado (o deberían considerar crear) un consejo de IA o cuerpo similar para implementar activamente estas recomendaciones. Un consejo puede refinar continuamente políticas claras y prácticas, identificar barreras para la adopción, supervisar evaluaciones regulares de herramientas y coordinar capacitaciones para aumentar la alfabetización en IA. Al asegurar que el uso responsable de la IA siga siendo la opción más simple y atractiva, estos consejos desempeñan un papel crítico en la reducción de la IA oculta.

Abrazar la IA significa abrazar el cambio en la forma de trabajar.

El trabajo avanza más rápido que nunca, y los empleados ya se están adaptando. La verdadera pregunta no es cómo regular la IA en el lugar de trabajo, sino si las organizaciones apoyarán a su fuerza laboral para convertir la IA en un activo —encontrando maneras más inteligentes y fáciles de integrarla en el trabajo diario.

Las organizaciones que tengan éxito no serán aquellas que restrinjan la IA por miedo, sino las que empoderen a su equipo con políticas claras, herramientas prácticas y expectativas realistas. El uso de la IA no es una responsabilidad; es una señal clara de que el trabajo está evolucionando. Las organizaciones más exitosas lo reconocen y evolucionan proactivamente con ello.

¿Qué opinas de este artículo?