¿Cuál es el costo invisible de usar IA en el trabajo? Según investigación de Harvard
Aunque estas prácticas buscan suplir necesidades inmediatas, aumentan los riesgos de seguridad informática y de incumplimiento normativo.

Colombia es uno de los países que no sabe usar la IA // Getty Images // / Adrian Vidal
Según un estudio publicado en ‘Harvard Business Review’, la adopción de asistentes de codificación con inteligencia artificial en empresas tecnológicas no ha tenido el éxito esperado.
Esta investigación, que analizó datos de 28.698 ingenieros de software en una compañía líder, reveló que solo el 41% había probado la herramienta tras un año de su lanzamiento.
Del mismo modo, las cifras son aún más bajas entre las mujeres ingenieras (31%) y los profesionales mayores de 40 años (39%).
Por otra parte, estos resultados coinciden con un informe del ‘Pew Research Center’, que señaló que únicamente el 16% de los trabajadores estadounidenses usan IA en sus empleos, a pesar de que el 91% tiene autorización para hacerlo.
Aunque suele pensarse que la baja adopción se debe a la falta de habilidades técnicas, el estudio identificó una causa más profunda: la percepción de penalización social por recurrir a la inteligencia artificial, lo que frena su incorporación incluso en entornos altamente tecnológicos.
¿Cómo funciona la ‘penalización por competencia’ al usar IA?
El equipo conformado por Oguz A. Acar, Phyliss Jia Gai, Yanping Tu y Jiayi Ho desarrolló un experimento preregistrado con 1.026 ingenieros de software de una empresa tecnológica líder.
En este estudio, los participantes evaluaron un mismo código escrito en Python, pero algunos creían que había sido elaborado con apoyo de inteligencia artificial y otros que era completamente humano.
De esta manera, hay que decir que el hallazgo fue contundente: cuando se asumía que el código provenía de la IA, la percepción de competencia del ingeniero disminuía en promedio un 9%, aun cuando la calidad del producto era idéntica.
El sesgo resultó más marcado en el caso de las mujeres, quienes recibieron evaluaciones un 13% más bajas, frente a un 6% en los hombres.
Adicionalmente, los profesionales que no utilizaban IA tendían a ser más críticos, con un efecto especialmente severo en hombres evaluando a mujeres; una penalización del 26% adicional en comparación con colegas masculinos.
Asimismo, encuestas posteriores a 919 ingenieros confirmaron que muchos evitan usar IA por temor a afectar su reputación profesional.
¿Qué consecuencias genera y cómo pueden superarse?
La investigación también reveló que la resistencia cultural al uso de inteligencia artificial en la programación no solo limita la innovación, sino que también genera un fuerte impacto económico y organizacional.
En la compañía analizada, la falta de adopción de asistentes de codificación redujo las utilidades anuales entre un 2.5% y un 14%, cifras que representan pérdidas de cientos de millones de dólares.
Este escenario impulsa la proliferación de la llamada ‘IA en la sombra’, es decir, el uso de herramientas no autorizadas por parte de los empleados. Aunque estas prácticas buscan suplir necesidades inmediatas, aumentan los riesgos de seguridad informática y de incumplimiento normativo.
A su vez, la dinámica refuerza desigualdades estructurales, afectando en mayor medida a mujeres y a profesionales de mayor edad, quienes enfrentan estigmas adicionales.
Finalmente, los autores destacaron que las compañías que lograrán integrar la IA de manera exitosa no serán solo las que inviertan en tecnología, sino aquellas que creen un ambiente equitativo y seguro donde cada empleado pueda usarla sin miedo a repercusiones.



