Descubra cómo los líderes B2B están transformando la ciberseguridad mediante la IA, priorizando el gobierno de datos y la acción frente a la teoría académica.
En el ecosistema empresarial contemporáneo, la inteligencia artificial (IA) ha dejado de ser una promesa de ciencia ficción para convertirse en un componente crítico de la infraestructura operativa. Sin embargo, existe una desconexión profunda entre el conocimiento de su existencia y su implementación efectiva. Edgardo Arrieta, Chief Information Security Officer (CISO) de GeoPark, planteó un desafío contundente durante el evento La IA aplicada al negocio, impulsado por Colsof y sus IT Talks: la necesidad urgente de cerrar el «gap de la inteligencia artificial».
Según Arrieta, las organizaciones se encuentran en una encrucijada similar a la que enfrentaron con la llegada de las calculadoras en los años 50 o el internet hace tres décadas. El temor al desplazamiento o a la obsolescencia humana suele paralizar la toma de decisiones. No obstante, el riesgo real no reside en la tecnología misma, sino en la inacción.
«El conocimiento sin acción no sirve de nada», enfatiza Arrieta, utilizando la analogía del ejercicio físico: todos sabemos que es beneficioso, pero pocos lo ejecutan con la disciplina necesaria. En el ámbito corporativo, este fenómeno se traduce en empresas que declaran ser ‘IA-driven’ en sus juntas directivas, pero carecen de desarrollos tangibles o procesos automatizados que generen un retorno de inversión (ROI) medible.
Para los tomadores de decisión en 2024 y 2025, cerrar esta brecha implica entender que la IA no es una novedad, sino un modelo matemático que ha evolucionado durante 25 años. El reto actual no es integrar la herramienta en el flujo de trabajo diario para potenciar las capacidades humanas de análisis, razonamiento y debate. La IA ya no es opcional; es el nuevo estándar de competitividad en el mercado global.
Gobierno de datos y acontabilidad: los pilares de una IA segura
Uno de los errores más críticos que cometen las empresas es lanzar iniciativas de IA sin una base sólida de gobierno de datos. La inteligencia artificial es, en esencia, un motor agnóstico que procesa la información que se le entrega sin distinguir estratos sociales, jerarquías corporativas o niveles de confidencialidad, a menos que existan restricciones explícitas.
Si usted tiene una IA en su compañía y la tiene amarrada a piso, y usted le pide el balance financiero, ella lo va a buscar y se lo va a traer. Ella no va a decir que esa información es confidencial si no tiene los controles ejecutados.
El concepto de «acontabilidad» (accountability) se vuelve fundamental. En muchas organizaciones, la responsabilidad de la tecnología y la ciberseguridad se diluye en modelos «federados» donde, al final, nadie asume la propiedad del riesgo. Un gobierno de datos robusto implica definir quién es el responsable de cada activo de información y cómo se gestionan los permisos de acceso.
Informes recientes como el Cost of a Data Breach Report 2024 de IBM subrayan que las empresas que utilizan IA y automatización para la seguridad ahorran millones de dólares, pero solo si estas herramientas operan bajo políticas de cumplimiento estrictas.
La vulnerabilidad no siempre proviene de ataques externos sofisticados, sino de la mala gestión interna. Ejemplos comunes incluyen repositorios en GitHub con credenciales expuestas o carpetas en OneDrive con permisos para «todos los usuarios» que contienen actas de juntas directivas. La IA tiene la capacidad de indexar y encontrar estos datos en segundos, algo que a un humano le tomaría meses de búsqueda manual. Por tanto, el «volver a lo básico» significa limpiar la casa antes de invitar a la IA a gestionarla. La disciplina en la organización de la información es el primer paso para una defensa proactiva.
La agilidad como ventaja competitiva: el modelo de desarrollo semanal en GeoPark
Para ilustrar cómo una compañía del sector energético puede liderar la vanguardia tecnológica, Arrieta compartió la metodología de trabajo en GeoPark. La empresa se impuso el reto de lanzar un desarrollo de IA semanal. Este ciclo de vida ultra-rápido comienza los lunes con la comprensión del problema, continúa los miércoles con el pre-desarrollo y culmina los viernes con la puesta en producción. Es un enfoque que rompe con los esquemas tradicionales de desarrollo de software que suelen tardar meses, permitiendo a la compañía adaptarse a la data correcta en el tiempo correcto.
Este nivel de agilidad no se logra simplemente contratando ingenieros, sino fomentando una cultura de experimentación responsable. La clave reside en pasar de usar la IA como un simple buscador a utilizar agentes inteligentes. Mientras que la mayoría de los usuarios utilizan prompts básicos para resumir textos o hacer consultas triviales, las empresas líderes están creando agentes que ejecutan procesos financieros, optimizan infraestructuras y automatizan la detección de amenazas.
El modelo de GeoPark demuestra que la IA puede mejorar el ejercicio profesional de manera inmediata si se eliminan los temores infundados. La capacidad de procesamiento de la IA es infinitamente superior a la humana; puede resumir y extraer información clave de cientos de libros en el tiempo que un directivo tarda en leer un capítulo. El valor humano, por tanto, se desplaza hacia la capacidad de entender, razonar y, sobre todo, cuestionar los resultados que entrega la máquina.
Navegando las alucinaciones y la obsolescencia del conocimiento
Un desafío técnico y ético que enfrentan los directivos es la naturaleza probabilística de la IA. Como explica Arrieta, las herramientas como ChatGPT, Claude o Gemini son vectores de acuerdo de palabras que aproximan resultados mediante fórmulas matemáticas. No «saben» en el sentido humano; predicen el siguiente token más probable basándose en la información proporcionada. Esto conlleva al riesgo de las «alucinaciones», donde la IA genera datos falsos con una apariencia de absoluta seguridad.
«Si usted le entrega información basura, la IA le va a devolver basura única», afirma Arrieta. La calidad del output depende directamente de la calidad del input (garbage in, garbage out). Se han reportado casos, incluso en firmas de las Big Four, donde informes entregados a clientes contenían fragmentos de prompts de IA no editados o datos erróneos debido a la falta de supervisión humana. Por ello, el rol de los líderes no es solo promover el uso de la IA, sino instaurar procesos de co-validación rigurosos. No se puede culpar a la tecnología por un error en un documento enviado a una junta directiva; la responsabilidad última siempre recae en la persona que valida esa información.
Además, el vertiginoso ritmo de actualización tecnológica hace que el aprendizaje convencional sea insuficiente. Un curso o un libro sobre IA puede quedar desactualizado en apenas tres meses. Esta realidad obliga a los profesionales a mantener una mentalidad de aprendizaje continuo y a centrarse en los principios fundamentales más que en las herramientas específicas. Hoy es GPT, mañana será una IA cuántica o una nueva iteración de modelos multimodales. Lo que permanece constante es la necesidad de un raciocinio humano que actúe como filtro y guía para estas capacidades computacionales.
El futuro pertenece a los humanos con disciplina
El mensaje final para los presidentes y directores de industria es claro: el mayor reto no es la tecnología, sino las personas y su disciplina. La inteligencia artificial es una herramienta de amplificación; si se aplica sobre procesos desordenados y falta de gobierno, amplificará el caos. Si se aplica con visión estratégica, responsabilidad y una ejecución ágil, se convierte en el motor de una transformación sin precedentes.
La invitación de los expertos es a usar la IA genuinamente en el trabajo diario, como un socio que debe ser retado y cuestionado constantemente. Generar debates con la IA, contrastar fuentes válidas y mantener un control estricto sobre el gobierno de datos son las acciones que definirán a las empresas ganadoras en la segunda mitad de esta década. En palabras de Edgardo Arrieta, se trata de «ser humanos»: entender, comprender y razonar para liderar la tecnología, en lugar de ser desplazados por ella.


