Petition updateExijamos leyes que regulen la IA: con límites éticos y sin manipulación comercial.La inteligencia artificial ya entró en el terreno del poder
Jose Maria GarbiniSantos Lugares, Argentina
Mar 7, 2026

Durante años hablamos de inteligencia artificial como si fuera una tecnología más: algo útil, prometedor, incluso fascinante.

Pero en las últimas semanas se están acumulando señales que muestran algo mucho más profundo: la inteligencia artificial está entrando definitivamente en el terreno del poder.

Y cuando una tecnología entra en ese terreno, la pregunta ya no es qué puede hacer…
La pregunta es quién decide cómo se usa.

Tres hechos recientes lo muestran con claridad.

 
1. La carrera por la IA está empezando a debilitar sus límites
En los últimos meses se ha intensificado la competencia global entre empresas y países por desarrollar sistemas de inteligencia artificial cada vez más potentes.

Esta carrera tiene una consecuencia que muchos expertos están empezando a señalar con preocupación: algunas de las protecciones de seguridad que existían están empezando a relajarse.

Los llamados guardrails —los mecanismos diseñados para evitar usos peligrosos o abusivos— están siendo modificados o reducidos en algunos sistemas para acelerar el desarrollo o ampliar sus capacidades.

No es necesariamente una decisión malintencionada.
Es el resultado de una dinámica muy conocida en la historia tecnológica: cuando la competencia aumenta, la prudencia tiende a disminuir.

Pero cuando hablamos de inteligencia artificial avanzada, esta lógica puede tener consecuencias mucho más profundas que en otras tecnologías.

 
2. La IA está entrando en el ámbito militar
Al mismo tiempo, varios gobiernos están incorporando inteligencia artificial en proyectos vinculados con defensa, seguridad y análisis estratégico.

En muchos de estos programas se repite una frase tranquilizadora:
“la decisión final siempre será humana.”

Es una afirmación importante y necesaria.

Pero también abre una pregunta inevitable:
si los sistemas de IA participan cada vez más en el análisis, la predicción y la recomendación de decisiones críticas, ¿cuánto margen real queda para ese control humano?

La historia muestra que cuando una tecnología se vuelve extremadamente eficaz para optimizar decisiones, las instituciones tienden a confiar cada vez más en ella.

Por eso la cuestión no es solo quién toma la última decisión.
La cuestión es quién define los límites del sistema que produce las recomendaciones.

 
3. Empresas que empiezan a rechazar ciertos usos
En medio de este escenario también ha surgido otro fenómeno interesante: algunas empresas de inteligencia artificial están empezando a negar el uso de sus sistemas para determinadas aplicaciones, especialmente en ámbitos sensibles como vigilancia masiva o sistemas militares autónomos.

Esto revela algo importante.

Hoy los límites éticos de la inteligencia artificial no están definidos por un marco global claro.
En muchos casos dependen de decisiones internas de empresas, gobiernos o instituciones concretas.

Es decir: los límites existen, pero no siempre están definidos de forma pública, universal o verificable.

 
El verdadero problema no es tecnológico
Todo esto muestra algo que muchas veces se pasa por alto.

El desafío principal de la inteligencia artificial no es tecnológico.

No se trata solo de algoritmos, potencia de cálculo o nuevos modelos.

El desafío es institucional y ético.

Porque la IA tiene una característica única en la historia de las tecnologías:
puede influir directamente en decisiones humanas complejas.

Decisiones económicas.
Decisiones políticas.
Decisiones militares.
Decisiones sociales.

Cuando una tecnología entra en ese nivel de influencia, los principios que la gobiernan dejan de ser un detalle técnico.
Se convierten en una cuestión pública.

 
Por qué necesitamos principios claros
Hoy estamos viendo los primeros síntomas de algo que probablemente definirá las próximas décadas:

la coexistencia entre inteligencia artificial y poder.

Y cuando poder y tecnología se combinan, la historia muestra que los límites no pueden quedar librados únicamente a la buena voluntad de quienes la desarrollan o la utilizan.

Necesitan principios claros.
Necesitan mecanismos verificables.
Necesitan reglas que protejan a las personas.

 
El propósito de la Proclama ARQUÍA
La Proclama ARQUÍA nace precisamente de esta preocupación.

No busca frenar la inteligencia artificial ni limitar su desarrollo.

Busca algo mucho más simple y mucho más importante:

que la inteligencia artificial evolucione dentro de un marco de principios y límites que garanticen que siga estando al servicio de las personas.

Porque la pregunta que empieza a definir esta nueva etapa tecnológica es sencilla, pero fundamental:

¿Quién establece los límites de la inteligencia artificial?

Si esa pregunta no se responde de forma abierta, transparente y universal, los límites terminarán siendo definidos por intereses particulares.

Y una tecnología con la capacidad de la IA no debería depender solo de eso.

Copy link
WhatsApp
Facebook
Nextdoor
Email
X