La IA corporativa promete productividad y entrega otra cosa: una generación que supervisa sin entender

abril 20, 2026
Anthropic, la compañía estadounidense que creó Claude, uno de los tres modelos de IA generativa más usados del mundo junto con ChatGPT y Gemini, publicó un reporte interno sobre el uso de su propia tecnología entre sus empleados. Los números son llamativos. El personal usa Claude en el 60 % de su trabajo diario y reporta ganancias de productividad cercanas al 50 %. La cantidad de pull requests por ingeniero, una métrica estándar para medir output en desarrollo de software, subió 67 % tras la adopción de Claude Code. El dato se repite en cliente.
HUB International, una aseguradora global con 20.000 empleados, reportó 85% de mejora en casos de uso específicos y un ahorro promedio de 2,5 horas semanales por empleado tras desplegar Claude a toda su fuerza laboral a fines de 2025. Wiz, firma de ciberseguridad, migró 50.000 líneas de código en 20 horas, un proyecto que sus propios ingenieros habían estimado en dos o tres meses.
Hasta ahí, la promesa parece cumplirse. El problema aparece en la letra chica del mismo informe de Anthropic. El 27 % del trabajo asistido por Claude son tareas que los empleados no hubieran hecho sin la herramienta. Tableros de datos ornamentales, refactorizaciones menores, exploraciones que antes no valían el esfuerzo. La IA no está ahorrando tiempo. Está expandiendo el universo de lo que se considera trabajo válido. Cada tarea individual puede tomar menos, pero el volumen total crece. La compañía lo reconoce en el mismo documento: el reporte describe a los empleados pasando tiempo extra entendiendo lo que la IA produjo, sobre todo en áreas donde no son expertos.
La curva de aprendizaje que nadie está dispuesto a defender
Hay una frase dentro del reporte de Fast Company que vale más que todas las cifras. Senthil Muthiah, senior partner de McKinsey & Company, advierte sobre lo que llama la compresión de la curva de aprendizaje: “Existe un peligro genuino de que creemos una generación de trabajadores que puedan supervisar a la IA antes de entender el trabajo por sí mismos”.
Jeffrey Chivers, CEO de la plataforma de litigios Syllo, lo dice de otra forma en la misma nota: si las organizaciones usan la IA solo para acelerar flujos de trabajo, evitan el proceso de aprendizaje y crean un vacío de liderazgo para el futuro.
Esta es la métrica que no aparece en ningún tablero de directorio. ¿Cuántos analistas junior están entregando entregables que no podrían defender en una reunión con el cliente? ¿Cuántos desarrolladores están mergeando código que no saben depurar cuando se rompe en producción? ¿Cuántos abogados noveles están firmando revisiones que un modelo generó en segundos? La productividad sube en el corto plazo. La competencia organizacional baja en silencio.
El efecto no se reparte por igual
La información interna de Anthropic muestran otro dato incómodo: las ganancias no se distribuyen de manera uniforme. Cat de Jong, head of applied AI de la compañía, lo describe así: los equipos que integraron Claude en profundidad se mueven a una velocidad fundamentalmente distinta a los que no, y esa diferencia genera fricción interna. En una empresa con 132 ingenieros encuestados, un 14% de los respondientes aumentó su productividad más del 100%. Son los power users. El resto está en una meseta.
En Latinoamérica y España, donde la mayoría de las estructuras corporativas se apoyan en equipos junior amplios con pocos referentes senior, el riesgo es doble. Si el junior aprende a orquestar IA sin pasar por el oficio, el hueco de conocimiento se vuelve estructural. Cuando el power user con 20 años de experiencia se jubile o cambie de empresa, no hay quien lo reemplace. El conocimiento tácito que permite corregir a la máquina se pierde.
La fragilidad es el verdadero costo
Satyen Sangani, CEO de Alation, advierte en el mismo reporte que los sistemas complejos son frágiles. Su frase exacta apunta al problema de resiliencia: habrá gente que no revise el output de la IA y termine produciendo lo que él llama AI slop, contenido o decisiones generadas en masa sin control humano real. En un banco mexicano, una aseguradora argentina o una cadena minorista española, ese slop no es un meme de Twitter. Es una recomendación crediticia, una cotización mal hecha, un contrato con una cláusula incorrecta.
La pregunta que ningún CEO de la región se está haciendo en voz alta es la que Chivers formula al final de la nota de Fast Company: los equipos de liderazgo, ¿están reinvirtiendo el tiempo ahorrado en mentoría acelerada y pensamiento de orden superior, o lo usan para inflar el margen del próximo trimestre? La diferencia entre las dos respuestas define el resultado corporativo de 2028, no el de este mes.
La IA corporativa no está fallando. Está cumpliendo exactamente lo que se le pidió: producir más, más rápido, con menos input humano visible. El costo viene después, cuando toque defender el resultado sin la máquina al lado.











