INTRODUCCIÓN
Durante las últimas décadas, la inteligencia artificial (IA) ha sido presentada por gobiernos, empresas tecnológicas y organismos multilaterales como el catalizador de una nueva era de desarrollo humano. La promesa de automatizar procesos, optimizar decisiones y resolver problemas complejos ha sido abrazada con entusiasmo en sectores tan diversos como la salud, la educación, el transporte, la justicia y la seguridad. Bajo esta narrativa tecnoptimista, la IA aparece como una herramienta universalmente beneficiosa, una suerte de "inteligencia aumentada" puesta al servicio del progreso social.
Sin embargo, este discurso oculta dimensiones mucho más problemáticas. Numerosas investigaciones han advertido que la expansión acelerada de sistemas algorítmicos se está realizando sin controles democráticos, sin transparencia en su funcionamiento y sin marcos éticos adecuados. Lejos de democratizar el conocimiento, la IA está reforzando estructuras de poder preexistentes, exacerbando desigualdades, socavando derechos fundamentales y propiciando nuevas formas de control social.
La centralización de datos, la opacidad de los algoritmos y la concentración del poder tecnológico en manos de un puñado de corporaciones y Estados han abierto la puerta a una distopía algorítmica: un modelo de gobernanza no deliberativa, en el que las decisiones sobre seguridad, movilidad, salud o ciudadanía no son tomadas por personas, sino por modelos matemáticos entrenados con sesgos históricos y diseñados con lógicas económicas utilitarias. Como señala Harari (2018), el control sobre los flujos de datos se ha convertido en la nueva fuente de poder global, desplazando a la soberanía territorial tradicional.
Esta evolución tecnológica plantea interrogantes de gran calado para la seguridad humana. ¿Quién controla los algoritmos que deciden qué es una amenaza? ¿Qué impacto tiene el uso de IA en contextos militarizados, autoritarios o desiguales? ¿Puede una tecnología no regulada comprometer los principios básicos de la dignidad humana, la libertad y la autodeterminación colectiva?
Este artículo se propone analizar la IA no como una herramienta neutral, sino como una tecnología política. Aborda su potencial de convertirse en un instrumento de dominación global que socava la seguridad humana en sus múltiples dimensiones: desde la económica hasta la política, desde la comunitaria hasta la personal. Lo hace desde un enfoque multidimensional e interdisciplinario, combinando estudios críticos de tecnología, geopolítica de los datos, derecho internacional de los derechos humanos y teoría de la seguridad. La tesis central es disruptiva: si la IA no se democratiza, regulariza y socializa, podría consolidar un nuevo régimen de poder silencioso, tecnocrático y global, que trascienda incluso las capacidades de vigilancia de los Estados autoritarios del siglo XX.
DESARROLLO
Marco Conceptual: seguridad humana e
interligencia artificial
El concepto de seguridad humana surge en la década de los noventa como respuesta a los límites del paradigma tradicional de seguridad centrado en el Estado y la amenaza militar externa. Propuesto formalmente en el Informe sobre Desarrollo Humano del Programa de las Naciones Unidas para el Desarrollo (PNUD, 1994), este enfoque desplaza el centro de gravedad hacia el individuo y reconoce que la inseguridad puede derivarse tanto de la violencia directa como de carencias estructurales, exclusión social o situación de vulnerabilidad tecnológica. La seguridad humana comprende siete dimensiones interdependientes: económica, alimentaria, sanitaria, ambiental, personal, comunitaria y política.
Desde esta perspectiva, la seguridad ya no se limita a la ausencia de guerra, sino que implica la posibilidad de vivir sin miedo ni miseria, con acceso a los bienes fundamentales y con plena garantía de derechos. Esta reconceptualización exige, por tanto, un enfoque holístico e interdisciplinario para abordar las amenazas contemporáneas que afectan la vida cotidiana de las personas.
En este marco, la inteligencia artificial representa una amenaza emergente que no encaja fácilmente en las categorías convencionales de análisis. Su carácter difuso, su capacidad de operar de manera transnacional y su implementación muchas veces silenciosa la convierten en un desafío inédito. La IA puede afectar simultáneamente múltiples dimensiones de la seguridad humana: puede propiciar desempleo estructural (seguridad económica), facilitar la desinformación masiva (seguridad política), amplificar patrones de discriminación algorítmica (seguridad personal y comunitaria) y erosionar la soberanía informativa (seguridad política).
Este artículo parte entonces de un marco conceptual que articula tres nociones clave: (1) Seguridad humana, como paradigma que centra la atención en los derechos, libertades y necesidades vitales de las personas. (2) IA como tecnología política, cuyo desarrollo, diseño y aplicación están atravesados por relaciones de poder. (3) Soberanía digital, entendida como la capacidad de los Estados y pueblos para ejercer control legítimo sobre sus infraestructuras tecnológicas, sus datos y las decisiones automatizadas que afectan a su población.
Inteligencia artificial y sesgo geopolÍtico:
una herramienta de poder global
La inteligencia artificial, a menudo presentada como un avance universal y objetivo, es en realidad una tecnología profundamente geopolítica. Su desarrollo, implementación y gobernanza no solo están determinados por capacidades técnicas, sino por relaciones asimétricas de poder, intereses estratégicos y modelos ideológicos de sociedad. Desde sus inicios, la IA ha sido monopolizada por un grupo reducido de actores globales –principalmente empresas estadounidenses y chinas–, cuyas agendas comerciales y geoestratégicas terminan imponiendo estándares tecnológicos y normas de facto sobre el resto del mundo (Kwet, 2019).
Esta concentración de poder tecnológico produce lo que se podría llamar un sesgo geopolítico estructural. A diferencia del sesgo algorítmico clásico –aquél que refleja prejuicios en los datos o en la programación–, el sesgo geopolítico se refiere al control de las infraestructuras, los marcos normativos y las arquitecturas de decisión globales. En otras palabras, no solo los algoritmos pueden discriminar, sino también las condiciones globales de su producción y circulación.
Hoy, más del 90 % de la infraestructura de cómputo en la nube, las plataformas de aprendizaje automático y los centros de datos están en manos de empresas del Norte Global (Google, Amazon, Microsoft, Baidu, Tencent, Alibaba). Esto implica que los datos de miles de millones de personas del Sur Global son procesados, almacenados y monetizados fuera de sus países, sin garantías de soberanía informativa, sin acceso al conocimiento derivado de esos datos, y sin mecanismos de reparación en caso de abusos.
La IA, en ese sentido, está configurando un nuevo orden internacional basado en la asimetría cognitiva y decisional. Quienes controlan los datos y los algoritmos vigilan también las formas de ver, clasificar, predecir e intervenir el mundo. Esto tiene consecuencias profundas para la autodeterminación de los pueblos, para la justicia global y para la seguridad humana. América Latina, en particular, corre el riesgo de ser reducida a una región extractiva de datos –como lo fue de recursos naturales– y a un laboratorio de experimentación algorítmica. Sin capacidad local de auditoría, sin soberanía normativa, sin independencia tecnológica, los países de la región enfrentan una situación de colonización digital silenciosa.
Superior TecnolÓgica y dependencia
digital del Sur Global
La noción de supremacía tecnológica se refiere al dominio sostenido que ejercen ciertos actores –ya sean Estados, conglomerados empresariales o alianzas transnacionales– sobre los recursos estratégicos, las infraestructuras, los sistemas de innovación y las capacidades normativas en el ámbito de la tecnología. En el caso de la inteligencia artificial (IA), este dominio se manifiesta en términos de liderazgo técnico o comercial, y también en la capacidad de establecer estándares, definir problemas, priorizar agendas de investigación y condicionar la adopción global de soluciones automatizadas (Mazzucato, 2019).
América Latina representa un caso paradigmático de esa dependencia. La región importa casi la totalidad de sus sistemas operativos, servidores, plataformas digitales, software de IA y servicios de computación en la nube. Las grandes corporaciones tecnológicas que operan en el continente no están sujetas a regulaciones estrictas ni pagan impuestos proporcionales a su volumen de negocio. La región no cuenta con capacidades autónomas de desarrollo de hardware ni con centros de supercómputo de escala global, lo que la condena a ser consumidora de tecnologías "listas para usar" desarrolladas bajo lógicas ajenas a sus contextos sociales y culturales.
Esta situación propicia múltiples riesgos:
- Soberanía informativa limitada: los gobiernos y las instituciones públicas no tienen control efectivo sobre los datos que se producen dentro de sus territorios.
- Vulnerabilidad estratégica: la dependencia de infraestructuras críticas alojadas en el extranjero deja expuestos a los Estados frente a bloqueos, espionaje, manipulación de sistemas o restricciones geopolíticas.
- Imposición de arquitecturas opacas: los sistemas automatizados adoptados sin auditoría local pueden contener sesgos, errores o lógicas que refuercen la exclusión en lugar de resolverla.
- Desigualdad cognitiva: la falta de capacidades locales para interpretar, adaptar o construir modelos de IA propios genera una brecha epistémica profunda.
Frente a este panorama, la lucha por la soberanía tecnológica no es un lujo ni una aspiración idealista: es una necesidad urgente para garantizar la autonomía estratégica, la seguridad humana y la justicia social en el siglo XXI.
IA en conflictos híbridos: armas
silenciosas en guerras no declaradas
En la era digital, las guerras no siempre se libran con balas. La noción de conflicto híbrido ha emergido como una categoría clave para comprender las formas contemporáneas de confrontación entre Estados, actores no estatales y coaliciones transnacionales. Estos conflictos combinan medios militares tradicionales con operaciones cibernéticas, campañas de desinformación, sabotaje digital, presión económica y manipulación algorítmica de la opinión pública. En este nuevo campo de batalla, la inteligencia artificial se ha convertido en un arma silenciosa, ubicua y cada vez más autónoma.
Uno de los elementos más preocupantes sobre el uso de IA en conflictos híbridos es su capacidad para realizar acciones ofensivas sin supervisión humana directa. En 2021, un informe del Panel de Expertos del Consejo de Seguridad de la ONU reveló que un dron autónomo de combate habría atacado a un objetivo humano en Libia sin intervención humana, marcando un hito inquietante en la automatización letal (United Nations, 2021).
Por otra parte, la IA ha sido integrada de forma creciente en operaciones de ciberinteligencia y guerra informacional. Algoritmos de aprendizaje automático son utilizados para diseñar campañas de desinformación hipersegmentadas, manipular narrativas públicas mediante bots y trolls, generar deepfakes indistinguibles de la realidad y detectar patrones de conducta en opositores políticos o líderes sociales. Estas tácticas al igual que se emplean entre potencias globales, también han sido adaptadas por grupos armados, empresas de seguridad privada e incluso gobiernos autoritarios en contextos locales.
Desde la perspectiva de la seguridad humana, la implicación de la IA en conflictos híbridos introduce amenazas profundas a la libertad de expresión, al derecho a la protesta, al acceso a la información veraz y a la privacidad. Además, su uso puede derivar en acciones encubiertas que socaven la soberanía de los Estados, afecten la estabilidad política o exacerben conflictos sociales preexistentes.
Frente a este panorama, la región de América Latina y el Caribe se encuentra en una situación crítica. La falta de capacidades técnicas para detectar, mitigar o responder a estas amenazas, sumada a la escasa integración regional en materia de ciberdefensa, deja a los países expuestos a una nueva generación de guerras invisibles.
Privaticzación de la seguridad:
algoritmos que deciden quién es una amenaza
La seguridad, tradicionalmente concebida como una función esencial del Estado, ha experimentado en las últimas décadas un proceso de externalización y privatización progresiva. Este fenómeno ha sido impulsado por el auge de las empresas de seguridad privada, el outsourcing de funciones militares y de inteligencia, y más recientemente, por la incorporación de tecnologías emergentes gestionadas por corporaciones tecnológicas globales. En este contexto, la inteligencia artificial no solo ha transformado la manera cómo se concibe la seguridad, sino también quién la controla y cómo se ejerce.
Uno de los elementos más disruptivos es la proliferación de sistemas de vigilancia predictiva, también conocidos como "predictive policing". Estos sistemas se basan en algoritmos entrenados con grandes volúmenes de datos históricos –muchas veces cargados de sesgos raciales, geográficos o socioeconómicos– para anticipar comportamientos considerados riesgosos. Como han demostrado diversos estudios, esta lógica tiende a replicar patrones de discriminación estructural, ubicando a ciertas comunidades bajo sospecha permanente y reproduciendo lo que se ha denominado "racismo algorítmico".
La privatización de la seguridad a través de la IA también implica un deslizamiento funcional: algoritmos que antes servían para recomendaciones comerciales o segmentación de clientes son ahora utilizados para establecer perfiles de riesgo, gestionar fronteras, determinar prioridades de patrullaje o decidir si una persona merece vigilancia adicional. Esta lógica de "seguridad como servicio" no solo transforma las capacidades estatales, sino que plantea dilemas éticos sobre la delegación de decisiones que afectan derechos fundamentales a entidades opacas, automatizadas y sin responsabilidad legal.
En América Latina, esta tendencia es particularmente peligrosa debido a tres factores: (1) la debilidad institucional para regular el uso de tecnologías emergentes, (2) la alta desigualdad social que amplifica los impactos discriminatorios de los algoritmos, y (3) la fragmentación del sistema judicial que impide establecer mecanismos eficaces de reparación ante violaciones.
Frente a este escenario, se requiere una doctrina pública de seguridad digital y algorítmica que recupere el control estatal, garantice los principios de legalidad y proporcionalidad, y prohíba la adopción de tecnologías que no sean auditables, explicables y respetuosas de los derechos humanos.
Implicaciones para América Latina y el Caribe
América Latina y el Caribe se encuentran en un punto de inflexión frente al avance acelerado de la inteligencia artificial y su penetración en los distintos ámbitos de la vida pública y privada. A diferencia de otras regiones que han logrado posicionarse como productoras de tecnología, la región latinoamericana continúa siendo, en gran medida, una importadora neta de sistemas, plataformas y soluciones algorítmicas diseñadas en contextos culturales, políticos y económicos distintos. Esta situación conlleva riesgos no solo tecnológicos, sino también políticos, jurídicos, sociales y estratégicos.
Entre las principales implicaciones que se derivan para la región se destacan las siguientes:
- Riesgo de colonización digital: La región puede convertirse en un nuevo laboratorio de experimentación para tecnologías de vigilancia, control social y gestión algorítmica importadas del Norte Global.
- Erosión de la soberanía informativa: El almacenamiento y procesamiento de datos personales, financieros, biométricos y conductuales de millones de ciudadanos en infraestructuras alojadas fuera de la región impide el ejercicio efectivo de soberanía.
- Fragmentación institucional y desarticulación regional: La falta de políticas públicas integrales sobre IA, sumada a la escasa cooperación entre países latinoamericanos, dificulta el desarrollo de respuestas comunes.
- Amplificación de las desigualdades internas: En regiones marcadas por profundas desigualdades socioeconómicas, raciales y de género, el uso acrítico de sistemas algorítmicos puede reforzar exclusiones históricas y consolidar nuevas formas de discriminación automática.
- Condición de vulnerabilidad frente a amenazas híbridas: América Latina, con sistemas de ciberdefensa incipientes y escasa capacidad de detección, se encuentra particularmente expuesta a operaciones de desinformación, manipulación electoral, sabotaje digital y espionaje algorítmico.
Frente a este escenario, es urgente que América Latina y el Caribe desarrollen una agenda regional de soberanía digital e inteligencia artificial, articulada sobre tres ejes estratégicos:
- Normativo: elaboración de marcos jurídicos comunes que regulen el uso de la IA en función del interés público, los derechos humanos y la transparencia algorítmica.
- Institucional: fortalecimiento de capacidades estatales para supervisar, auditar y eventualmente producir tecnologías propias, mediante agencias nacionales y redes de cooperación regional.
- Epistémico: promoción de una visión latinoamericana de la IA que reconozca las especificidades culturales, sociales y económicas de la región, y que impulse un pensamiento tecnológico descolonizador, autónomo y orientado al bienestar colectivo.
CONCLUSIONES
¿Seguridad humana o algoritmos de control?
La inteligencia artificial se ha convertido en un elemento constitutivo del poder global contemporáneo. Ya no es simplemente una herramienta técnica, sino una arquitectura invisible que organiza flujos de información toma decisiones automatizadas y moldea conductas individuales y colectivas. Esta transformación no es neutra: está cargada de relaciones de poder, conflictos de interés, lógicas de mercado y estrategias de dominación. En este contexto, la pregunta que da título a esta conclusión se vuelve urgente: ¿Nos dirigimos hacia un horizonte de seguridad humana potenciada por la tecnología, o hacia un modelo de control algorítmico que erosiona nuestras libertades fundamentales?
A lo largo de este artículo se ha argumentado que, en su configuración actual, la IA no solo no garantiza la seguridad humana, sino que amenaza sus fundamentos. La concentración del poder tecnológico en manos de un puñado de actores, la opacidad de los sistemas de decisión automatizados, la externalización de funciones soberanas a empresas privadas y el uso creciente de IA en conflictos híbridos y en contextos de vigilancia social, configuran un escenario de inseguridad estructural global.
Desde una perspectiva crítica, la IA no puede ser tratada como una herramienta meramente técnica, ni como un destino inevitable. Es, ante todo, un campo de disputa: una construcción política y social que puede ser orientada hacia fines emancipadores o hacia formas cada vez más sofisticadas de control, exclusión y subordinación. La alternativa entre seguridad humana o algoritmos de control no es una disyuntiva tecnológica, sino profundamente ética y geopolítica.
América Latina y el Caribe, como parte del Sur Global, enfrentan el desafío histórico de no repetir la lógica de dependencia que caracterizó su relación con los recursos naturales, el capital financiero o las tecnologías industriales del siglo XX. La región tiene la oportunidad –y la obligación– de construir una soberanía digital basada en principios democráticos, derechos humanos, justicia social y cooperación regional. Esto implica no solo regular y limitar los riesgos de la IA, sino también imaginar y producir formas alternativas de inteligencia tecnológica centradas en el cuidado de la vida, el bien común y la dignidad humana.
Para ello, se requieren políticas integrales, instituciones fuertes, marcos jurídicos sólidos, capacidad científica local, pensamiento crítico y voluntad política. La IA no es en sí misma ni buena ni mala: su significado dependerá del proyecto civilizatorio al que se adscriba. Lo que está en juego no es solo la eficiencia de los servicios públicos o la competitividad económica, sino el tipo de sociedad que queremos construir.
En última instancia, el poder de los algoritmos debe estar subordinado al de los pueblos. La seguridad humana, entendida desde su enfoque multidimensional –económica, alimentaria, sanitaria, ambiental, personal, comunitaria y política– no puede ser delegada a sistemas automatizados ni reducida a parámetros de eficiencia técnica. Estos algoritmos, si no son diseñados, regulados y supervisados bajo principios éticos y democráticos, corren el riesgo de erosionar las bases mismas de la dignidad humana. Por ello, es indispensable recuperar el sentido político, ético y humanista de la tecnología. Solo así será posible orientar la inteligencia artificial hacia un modelo civilizatorio que garantice libertad, justicia social y autodeterminación de los pueblos en el siglo XXI.