La inteligencia artificial llegó para quedarse. No como una tendencia pasajera ni como un experimento tecnológico, sino como una fuerza transformadora que está redefiniendo industrias enteras. La automotriz, la salud, la educación, los servicios financieros, la logística y la defensa ya experimentan sus efectos de manera irreversible. El desarrollo de software no es la excepción, y quizás sea uno de los sectores donde su impacto resulta más profundo e inmediato.
Hoy, cualquier persona con acceso a un ordenador y a un servicio de inteligencia artificial — ChatGPT, Claude, Gemini, entre otros— puede generar código funcional en cuestión de segundos a partir de una instrucción en lenguaje natural, conocida como prompt. Lo que antes requería años de formación técnica ahora parece estar al alcance de cualquiera. Sin embargo, esa aparente democratización del desarrollo esconde riesgos que no deben subestimarse.
Cuando la velocidad no es suficiente
La capacidad de generar código de forma rápida no garantiza que ese código sea correcto, seguro o adecuado para el contexto en el que se va a utilizar. Los sistemas generados por inteligencia artificial presentan deficiencias recurrentes que van más allá de simples errores de sintaxis. Las vulnerabilidades de seguridad son frecuentes cuando no existe una supervisión experta: desde exposición de datos sensibles hasta puertas traseras
inadvertidas en la arquitectura. El código producido en una primera iteración rara vez cumple con los estándares de calidad necesarios para entornos productivos, lo que obliga a múltiples ciclos de corrección que consumen tiempo, recursos y créditos de uso. A esto se suma la tendencia a generar soluciones genéricas que ignoran las particularidades del negocio, la escalabilidad del sistema o los requerimientos no funcionales que definen la
solidez de una aplicación a largo plazo.
Estas limitaciones no invalidan a la inteligencia artificial como herramienta. La convierten en una herramienta que requiere dirección.
Del ingeniero al arquitecto: una evolución necesaria
Frente a este escenario, la pregunta no es si los ingenieros de software deben utilizar inteligencia artificial. La respuesta a eso es clara: sí, deben hacerlo. La pregunta correcta es cómo deben hacerlo, y la respuesta exige repensar el rol del profesional técnico desde sus fundamentos.
La analogía más precisa es la de la construcción. En un proyecto de obra, el arquitecto no coloca ladrillos ni mezcla concreto. Su valor está en otro lugar: en los planos, en los cálculos estructurales, en la gestión de normativas, en la coordinación de especialidades, en las decisiones que garantizan que el edificio sea funcional, seguro y duradero. Los albañiles, por su parte, ejecutan con precisión lo que el arquitecto diseñó. Sin esa dirección, la ejecución más eficiente del mundo produce resultados impredecibles.
El ingeniero de software debe asumir exactamente ese rol. Debe convertirse en arquitecto: alguien capaz de planificar con rigor la funcionalidad, definir la estructura del sistema, anticipar sus puntos de fallo y comunicar con claridad lo que necesita que se construya. La inteligencia artificial, en este modelo, opera como un programador junior altamente productivo pero sin criterio propio: ejecuta con velocidad, pero necesita que le indiquen qué hacer, cómo hacerlo y por qué hacerlo de una forma específica y no de otra.
Las decisiones que no puede tomar la IA
Dentro de este modelo, existen responsabilidades que pertenecen exclusivamente al arquitecto de software y que no pueden delegarse en ningún sistema automatizado. La seguridad es la primera de ellas: la inteligencia artificial puede sugerir mecanismos de protección, pero la decisión sobre qué estándares aplicar, qué riesgos son aceptables y cómo gestionar la información sensible debe recaer siempre en un profesional que comprenda el contexto y asuma la responsabilidad. Lo mismo aplica para las decisiones de arquitectura, donde la elección de patrones, tecnologías y modelos de integración define la viabilidad del sistema a mediano y largo plazo. Las guías de código, conocidas como guidelines, son otro ejemplo: establecen los estándares bajo los cuales se escribe, revisa y mantiene el software, y su definición requiere criterio técnico, conocimiento del equipo y visión de sostenibilidad.
En todos estos casos, la IA puede aportar perspectivas y opciones, pero no puede ni debe tomar la decisión final.
Un nuevo estándar profesional
El ingeniero de software que comprende este cambio deja de ver la inteligencia artificial como una amenaza o como un atajo, y empieza a verla como lo que realmente es: un multiplicador de capacidad que solo genera valor cuando existe una dirección experta detrás. La velocidad que ofrece la IA es extraordinaria, pero sin arquitectura, sin criterio y sin supervisión, esa velocidad simplemente acelera la llegada a un destino equivocado. Adaptarse a este nuevo estándar no es opcional. La industria ya está avanzando en esa dirección, y los profesionales que desarrollen la capacidad de dirigir sistemas de inteligencia artificial con claridad estratégica serán quienes lideren los proyectos más complejos y de mayor impacto.
La inteligencia artificial no reemplaza al ingeniero de software. Reemplaza al ingeniero que
no sabe cómo usarla.
Autor: Alexis Salvador Herrera García, Tech Lead en ENGINE CX.
Ingeniero en Sistemas Computacionales · Instituto Tecnológico de Veracruz
Maestría en Inteligencia Artificial · UNIR México
Edición: Marketing Central · ENGINE CX
Diseño y adaptación: Marketing Central
Publicación: ENGINE CX


