
Escucha la noticia
Regular no es gobernar
Resumen generado por Inteligencia Artificial
Accede a esta función exclusiva
Resume las noticias y mantente informado sin interrupciones.
La inteligencia artificial influye en decisiones que afectan personas, recursos y servicios de manera cotidiana. Su regulación avanza y es necesaria. Sin embargo, las organizaciones no parecen estar preparadas para gobernar las decisiones que hoy delegan a sistemas automatizados. La experiencia internacional sugiere que el principal riesgo no es la ausencia de reglas, sino la falta de capacidades para ejercer la responsabilidad que estas conllevan.
En los últimos años, gobiernos y empresas han desarrollado marcos normativos para la inteligencia artificial, alineados con principios de transparencia, supervisión humana y protección de derechos. Nuestro país no es ajeno a ese proceso y ha logrado importantes avances, pero regular no equivale a gobernar. Las normas no se implementan solas y cuando las organizaciones no cuentan con las capacidades necesarias para aplicarlas, estas quedan solo como tinta sobre el papel.
Hoy tenemos políticas de uso ético de la inteligencia artificial, códigos de conducta y principios de IA responsable El desafío es que, en muchas ocasiones, estos no se ven reflejados en los procesos donde la tecnología influye en decisiones reales, como algoritmos que evalúan el riesgo crediticio y ajustan ofertas según el comportamiento de los usuarios, o chatbots de atención al cliente.
Las reglas existen, pero no se traducen en criterios operativos ni en mecanismos claros de supervisión. No siempre se define quién revisa una decisión automatizada, cuándo debe intervenir una persona o cómo se corrigen los errores. Las decisiones cruzan varias áreas. La responsabilidad se diluye.
En ese escenario, los sistemas podrían tomar decisiones injustas como negar un crédito a quien sí lo merece o desestimar a un candidato a un puesto por no ajustarse a los perfiles aprendidos del pasado. Los errores pueden mantenerse durante largos periodos sin ser detectados y, cuando el problema emerge, el daño reputacional ya está hecho.
Los datos confirman esta brecha entre norma y ejecución. Según McKinsey en su informe sobre el estado de la IA en 2023, entre el 60 % y el 70 % de los proyectos de inteligencia artificial no llegan a producción o no generan valor sostenido, principalmente por problemas organizacionales y de gobernanza. En la misma línea, Boston Consulting Group señala que solo una minoría de empresas logra beneficios reales de esta tecnología. No por falta de inversión, sino por la ausencia de liderazgo preparado para integrarla en la gestión.
El verdadero cuello de botella es la falta de capacidades. Si bien un sistema puede ejecutar una decisión, los criterios que la hacen posible fueron establecidos por personas. El uso de la inteligencia artificial no es solo un asunto técnico, es un desafío de liderazgo. Gobernarla exige saber qué decisiones se están automatizando, qué se está optimizando y qué impactos se están generando. Sobre todo, hacerse esas preguntas a tiempo.
La solución no consiste en crear más normas que frenen la innovación y la productividad. Se trata de fortalecer la gobernanza real y preparar a la alta dirección para el rol que la regulación le asigna. El máximo nivel ejecutivo no puede delegar completamente las decisiones automatizadas; su responsabilidad es gobernarlas y poner límites. En un entorno donde las exigencias serán cada vez mayores, la verdadera ventaja no la marca quién ha incorporado más reglas, sino quién está mejor preparado para cumplirlas y ejecutarlas bien.

:quality(75)/s3.amazonaws.com/arc-authors/elcomercio/eb822c15-a442-43cd-b84e-6b1e1476f3c6.png)









