El Reto que Nadie Cuenta: Por Qué la Adopción de IA Es Principalmente un Problema de Personas
Reflexiones sobre lo que estamos aprendiendo sobre adopción de IA en organizaciones. No es un manual, sino una conversación sobre los retos reales que enfrentan las empresas.
Hay una estadística que aparece constantemente cuando se habla de transformación digital: el 70% de las iniciativas fracasan. Es una cifra que se repite tanto que casi ha perdido significado. Pero cuando la investigas, descubres que no está lejos de la realidad.
Un estudio de Bain de 2024 encontró que el 88% de las transformaciones empresariales no logran sus objetivos originales. BCG, por su parte, reportó que el 74% de las empresas luchan por conseguir y escalar valor de sus iniciativas de IA. Y según datos recientes, el 42% de las compañías abandonaron la mayoría de sus iniciativas de IA en 2025, más del doble que el año anterior.
Lo interesante es por qué fallan. No suele ser la tecnología. Una encuesta citada por McKinsey encontró que el 91% de los líderes de datos de grandes empresas señalaban los “desafíos culturales y de gestión del cambio” como el principal obstáculo. Solo el 9% apuntaba a problemas tecnológicos.
Esto nos lleva a una conclusión incómoda: implementar IA no es principalmente un problema técnico. Es un problema de personas.
Lo que dicen los números sobre la adopción
Antes de hablar de soluciones, merece la pena entender dónde estamos realmente.
El uso de IA en empresas se ha disparado. Según el último informe de McKinsey sobre el estado de la IA, el 78% de las organizaciones usan IA en al menos una función de negocio, frente al 55% en 2023. El uso regular de IA generativa prácticamente se triplicó en un año, pasando del 33% al 71%.
Pero hay una brecha enorme entre “usar” y “extraer valor”. Solo el 6% de las organizaciones califican como “alto rendimiento” en IA, definido como conseguir más del 5% de impacto en EBIT. El resto está experimentando, pilotando, o directamente abandonando proyectos antes de llegar a producción.
Esto sugiere que el problema no es adoptar la tecnología. Es integrarla de forma que realmente cambie cómo trabaja la gente.
El papel del liderazgo visible
Algo que aparece consistentemente en la investigación es la importancia del liderazgo visible. No basta con aprobar presupuestos o firmar estrategias. Los líderes que consiguen resultados son los que usan las herramientas ellos mismos, de forma visible.
McKinsey encontró que las organizaciones de alto rendimiento en IA son tres veces más propensas a tener líderes senior que demuestran compromiso activo con las iniciativas de IA. Esto incluye modelar el uso de las herramientas, no solo hablar de ellas.
Hay algo aquí que tiene sentido intuitivo. Los empleados observan lo que hacen los líderes mucho más de lo que escuchan lo que dicen. Si el CEO habla de IA pero nunca la usa, el mensaje que llega es claro: esto no es realmente importante.
Lo contrario también aplica. Los líderes más efectivos, según MIT Sloan Management Review, no tienen miedo de parecer inexpertos mientras prueban una nueva herramienta frente a sus equipos. Esa vulnerabilidad genera permiso para que otros también experimenten.
La figura del “AI Champion”
Un concepto que aparece en la literatura y que nos parece particularmente interesante es el de los “AI Champions”: empleados que actúan como evangelistas internos de la tecnología.
Según un estudio de Writer, el 77% de los empleados que usan IA son o tienen potencial de ser AI Champions. Y el 98% de estos champions han ayudado a construir herramientas de IA para su empresa o les gustaría hacerlo.
Lo interesante es que no suelen ser los más senior. Suelen ser los más curiosos. Google Workspace publicó una guía sobre cómo fomentar estos champions internos, y la premisa es simple: en cada departamento hay alguien que ya está experimentando por su cuenta. El truco está en encontrarlo, darle recursos y legitimidad, y dejar que forme a sus compañeros desde la credibilidad de ser uno de ellos.
Adobe hizo algo similar con un programa de “embajadores” que identificó 50 empleados globales para mostrar los beneficios de la IA internamente. La lógica es que la adopción horizontal, de compañero a compañero, funciona mejor que la imposición vertical.
La pregunta de los empleos
Hay un tema que siempre aparece cuando se habla de IA en organizaciones: el miedo a perder el trabajo.
Es un miedo legítimo. Y la respuesta honesta es que no sabemos exactamente cómo va a evolucionar el mercado laboral. Pero hay una perspectiva histórica que aporta algo de contexto.
La “Paradoja de Jevons” es un concepto económico del siglo XIX que está teniendo un renacimiento inesperado. Cuando Satya Nadella (CEO de Microsoft) quiso calmar los temores tras el lanzamiento de DeepSeek, un modelo de IA chino más barato que los americanos, tuiteó: “La paradoja de Jevons vuelve a golpear”.
La paradoja dice, básicamente, que cuando una tecnología hace más eficiente el uso de un recurso, la demanda total de ese recurso suele aumentar, no disminuir. El carbón se volvió más eficiente de usar, y el consumo de carbón explotó. Los cajeros automáticos hicieron las sucursales bancarias más baratas, y el número de sucursales (y empleados de banco) aumentó.
Erik Brynjolfsson, economista de Stanford, ha argumentado que algo similar podría pasar con ciertas profesiones y la IA. Radiólogos, traductores, programadores: si la IA los hace más productivos, la demanda de sus servicios podría aumentar, no desaparecer.
Pero hay que ser honestos con los matices. La paradoja solo aplica cuando la demanda es elástica, es decir, cuando abaratar algo hace que se consuma mucho más. Y cuando la IA complementa al humano en lugar de sustituirlo completamente. Si una tarea puede automatizarse al 100% sin intervención humana, la paradoja no aplica.
La agricultura es el ejemplo clásico de cuando no aplica. En 1900, el 40% de los trabajadores americanos trabajaban en agricultura. Hoy es menos del 2%. La productividad aumentó enormemente, pero la demanda de comida no aumentó proporcionalmente (hay un límite a cuánto puede comer la gente), así que el empleo cayó.
¿En qué categoría caerán los trabajos de oficina con la IA? Honestamente, no lo sabemos. Dependerá del trabajo específico, de cómo se implemente la tecnología, y de factores económicos que nadie puede predecir con certeza.
El problema de la formación
Un dato que nos llamó la atención: según investigaciones de McKinsey, el 48% de los empleados en Estados Unidos usarían más las herramientas de IA generativa si recibieran formación formal, y el 45% las usaría más si estuvieran integradas en sus flujos de trabajo diarios.
Esto sugiere que buena parte de la infrautilización no es resistencia activa, sino simplemente falta de saber cómo usarlas bien.
Y hay un problema adicional: según Writer, el 35% de los empleados pagan de su bolsillo las herramientas de IA que usan en el trabajo. Esto crea riesgos de seguridad obvios, pero también señala una desconexión entre lo que las empresas proveen oficialmente y lo que los empleados necesitan.
Lo que no funciona
Hay algunas cosas que la investigación sugiere que no funcionan bien.
Tratar la adopción de IA como un proyecto técnico. La mayoría de organizaciones siguen tratando la implementación de IA como un desafío principalmente técnico. Pero como hemos visto, los problemas suelen ser culturales.
Los modelos de cambio lineales tradicionales. El modelo de 8 pasos de Kotter para gestión del cambio sigue siendo influyente, pero varios analistas señalan sus limitaciones para el contexto actual. Como apunta Fast Company, “el cambio no ocurre en fases ordenadas. Es cíclico, impredecible, y requiere adaptación constante”. Kotter mismo revisó su modelo en “Accelerate” para incorporar más agilidad y menos linealidad.
Dedicar poco presupuesto al cambio cultural. Un dato de McKinsey: recomiendan invertir el doble en gestión del cambio y adopción que en construir la solución técnica. Sin embargo, muchas empresas dedican solo el 10% del presupuesto de transformación a gestión del cambio.
La comunicación desde el miedo. “Si no implementamos IA, la competencia nos destruirá” es un mensaje común. Pero la investigación sugiere que el miedo paraliza más de lo que moviliza. Las organizaciones que mejor adoptan IA comunican desde la oportunidad, no desde la amenaza.
Lo que parece funcionar mejor
También hay patrones que aparecen en las organizaciones que lo hacen bien.
Empezar pequeño y visible. Victorias rápidas en tareas cotidianas (resúmenes de reuniones, clasificación de emails, primeros borradores de documentos) que la gente use cada día. Cuando funciona, piden más.
Transparencia radical. Townhalls frecuentes sobre el estado de la implementación. Demos abiertas. Honestidad absoluta sobre lo que la IA puede y no puede hacer. El rumor es el enemigo de la adopción.
Eliminar obstáculos burocráticos. Políticas de IT que bloquean herramientas por “seguridad” sin ofrecer alternativas. Procesos de aprobación de software que tardan meses. Estos obstáculos matan la adopción más rápido que cualquier resistencia cultural.
Integrar la IA en procesos existentes. Las herramientas que requieren cambiar completamente cómo trabaja la gente tienen mucha más resistencia que las que se integran en flujos existentes.
Una reflexión sobre la tensión
Hay un dato del estudio de Workplace Intelligence que nos pareció revelador: el 68% de los líderes dicen que el proceso de adoptar IA generativa ha creado tensión entre equipos de IT y otras líneas de negocio. Y el 63% reporta tensión entre ejecutivos y empleados.
También es llamativo que el 31% de los empleados (41% entre la Generación Z) admite que está saboteando activamente la estrategia de IA de su empresa. Las razones van desde miedo a la IA hasta dudas sobre la calidad de las herramientas.
Esto sugiere que la adopción de IA no es un proceso neutral. Hay conflicto real, intereses contrapuestos, y resistencia que no siempre es irracional. Los empleados que se resisten pueden estar expresando preocupaciones legítimas sobre cómo la tecnología afectará su trabajo y su valor dentro de la organización.
Ignorar esta tensión y pretender que la adopción es solo cuestión de “comunicar mejor” probablemente no funcione. Las organizaciones que mejor lo hacen parecen ser las que reconocen la tensión y la abordan directamente.
Lo que no sabemos
Nos parece importante ser honestos sobre los límites de lo que se sabe.
No sabemos cuál es el modelo de adopción “correcto” porque estamos en medio de una transformación sin precedentes claros. La IA generativa lleva apenas dos años en el mainstream, y la mayoría de organizaciones siguen experimentando.
No sabemos qué pasará con el empleo a largo plazo. La paradoja de Jevons es un marco útil, pero no es una ley universal. Algunos trabajos probablemente se crearán, otros desaparecerán, y muchos se transformarán de formas que no podemos anticipar.
No sabemos cuál es el ritmo adecuado de adopción. Ir muy rápido genera resistencia y errores costosos. Ir muy lento puede significar perder competitividad. El equilibrio correcto probablemente varía según la industria, la cultura organizacional, y factores específicos de cada empresa.
Lo que sí parece claro es que la tecnología es la parte fácil. La parte difícil son las personas.
¿Te interesa explorar cómo estas ideas aplican a tu contexto? En AIXA AI pensamos mucho sobre estos temas y nos gusta conversar con empresas que están navegando estos desafíos. Escríbenos si quieres intercambiar perspectivas.
Artículos Relacionados
Continúa explorando más contenido sobre Estrategia
Antes de Invertir en IA: Lo que Hemos Aprendido sobre Qué Funciona y Qué No
Reflexiones honestas sobre qué hace que un proyecto de IA tenga éxito o fracase. No es un checklist mágico, son las preguntas que creemos que toda empresa debería hacerse.
El Fin de los Asistentes Genéricos: Por Qué Tu Empresa Necesita IA Especializada en 2025
Los chatbots y asistentes genéricos están quedando obsoletos. Descubre por qué las empresas líderes están apostando por sistemas de IA especializados que entienden su industria y generan resultados reales.
La Paradoja de la IA en 2025: Por Qué Más Tecnología No Significa Mejor Estrategia
Reflexión sobre el estado actual de la IA empresarial y por qué muchas empresas están fallando al confundir herramientas con estrategia. Una visión crítica desde la experiencia real.
¿Te ha gustado este artículo?
Recibe más contenido como este directamente en tu correo. Guías prácticas y las últimas innovaciones en IA empresarial.
Sin spam
Datos protegidos