top of page

¿Quién decide el futuro del trabajo, la política y la cultura?

Un pequeño grupo de líderes toman decisiones sobre algo que afecta  millones de personas que quedan como simples observadores. Imagen: IA Chatgpt 
Un pequeño grupo de líderes toman decisiones sobre algo que afecta millones de personas que quedan como simples observadores. Imagen: IA Chatgpt 

Hay una pregunta que los gobiernos, las empresas tecnológicas y los organismos

internacionales llevan meses esquivando con elegancia quirúrgica: ¿quién decide cómo

se distribuyen los beneficios de la inteligencia artificial?


La respuesta honesta es incómoda: nadie. O más precisamente — el mercado, que es la forma polite de decir nadie.


No existe hoy sujeto político alguno que esté tomando esa decisión de manera colectiva,

deliberada y democrática. No hay una asamblea, no hay un tratado vinculante, no hay

siquiera un consenso mínimo sobre qué se está distribuyendo y entre quiénes. Lo que

hay es una carrera entre cuatro o cinco empresas privadas estadounidenses y dos o tres

chinas, con los demás países del mundo en el rol que les toca históricamente: espectadores que pagan la entrada.


Mientras tanto, los gobiernos reaccionan. Siempre tarde, siempre detrás del hecho consumado. La Unión Europea aprobó su AI Act con la solemnidad de quien cierra la puerta del establo cuando el caballo ya está en otro continente. América Latina, por su parte, debate marcos regulatorios que se volverán obsoletos antes de ser implementados, en países donde la mitad de la población no tiene acceso estable a internet.


Y la ciudadanía — esa entidad abstracta que supuestamente legitima todo esto — ni siquiera tiene el vocabulario para participar del debate. No porque sea ignorante, sino porque nadie se tomó el trabajo de construir ese vocabulario en común. Se habla de "modelos", "tokens", "alineación", "AGI", como si fueran términos técnicos neutros y no decisiones políticas disfrazadas de ingeniería.


El reparto ya ocurrió


Conviene detenerse aquí, porque hay una ilusión reconfortante que vale la pena desmantelar: la idea de que todavía estamos a tiempo. Que la IA es una tecnología emergente, que el debate está abierto, que las instituciones pueden todavía darle forma.


Es parcialmente cierto y fundamentalmente falso.


Es cierto que la tecnología seguirá desarrollándose y que hay decisiones importantes por delante. Pero el reparto estructural — quién tiene los datos, quién tiene la infraestructura de cómputo, quién tiene el capital para entrenar modelos de frontera — ese reparto ya ocurrió. Y ocurrió sin deliberación pública, sin mandato democrático, sin que nadie lo pusiera en una boleta electoral.


Esta no es una novedad histórica. Es el mismo mecanismo con el que se distribuyeron — o no se distribuyeron — los beneficios de la revolución industrial, del petróleo, de internet. Siempre hay un momento en que la tecnología avanza más rápido que la política, y en ese intervalo alguien se queda con todo. Después vienen las regulaciones, los impuestos, los discursos sobre inclusión digital. Pero el reparto ya ocurrió.


La diferencia esta vez es la velocidad y la escala. Y también, hay que decirlo, la naturaleza de lo que se está concentrando: no carbón, no código, sino capacidad cognitiva. La posibilidad de pensar, analizar, crear, decidir — a escala industrial, en manos privadas.


El sur global como consumidor cautivo


Para los países del norte global que albergan estas empresas, la IA puede ser una ventaja

competitiva enorme. Para el resto del mundo, el riesgo es convertirse en consumidores pasivos de tecnología que no controlan, no diseñan y no regulan.


No es una metáfora. Es una estructura económica reconocible. América Latina exportó

materias primas durante siglos y compró manufacturas. Hoy exporta talento técnico — que emigra o trabaja en remoto para esas mismas empresas — e importa productos de IA desarrollados en función de otras realidades, otros idiomas, otros sesgos culturales.


Es una nueva forma de dependencia, más sutil que el colonialismo clásico, pero estructuralmente análoga.


El problema no es solo económico. Es cognitivo. Los modelos de inteligencia artificial aprenden de datos. Y los datos no son neutrales: reflejan las culturas, los idiomas, las

historias, las jerarquías de las sociedades que los producen. Un modelo entrenado

mayoritariamente en inglés, con datos estadounidenses y europeos, no es una herramienta universal. Es una herramienta particular presentada como universal. La diferencia importa.


La tecnocracia que no se llama así


Hay una palabra que empieza a circular en estos debates: tecnocracia. Gobierno de los técnicos. Pero el riesgo real es más específico y más oscuro que eso.


Una tecnocracia clásica implica que los expertos gobiernan en nombre del bien común, con algún tipo de rendición de cuentas. Lo que se está configurando es distinto: un puñado de empresas privadas que controlan infraestructura cognitiva global, sin mandato democrático, sin obligación de rendir cuentas a nadie que no sea sus accionistas, y con una influencia sobre el funcionamiento de las sociedades que ningún gobierno electo tiene hoy en la mayoría de los países.


No es tecnocracia. Es oligarquía tecnológica. Y la diferencia no es semántica.


Los líderes de estas empresas toman decisiones — sobre qué capacidades desarrollar, a quién dárselas, bajo qué condiciones, con qué salvaguardas — que afectan a miles de millones de personas que no votaron por ellos, no pueden destituirlos y difícilmente

pueden siquiera leer los documentos técnicos donde esas decisiones se justifican.


El vocabulario como campo de batalla


Hay algo que llama la atención cuando se sigue de cerca el debate público sobre inteligencia artificial: la dificultad para nombrarlo en términos políticos. Se habla de "riesgos", "oportunidades", "gobernanza", "marcos éticos". Todo ese vocabulario es técnicamente correcto y políticamente anestesiante.


Decir "gobernanza de la IA" suena neutro, experto, manejable. Decir "quién tiene el poder sobre la infraestructura cognitiva del planeta y a quién le rinde cuentas" suena

incómodo, confrontacional, político. Y es exactamente la misma pregunta.


Esta no es una sutileza académica. El lenguaje que usamos para describir un problema determina las soluciones que somos capaces de imaginar. Si describimos la IA como un

problema técnico, buscaremos soluciones técnicas. Si la describimos como un problema de poder, buscaremos soluciones políticas. Y las soluciones técnicas aplicadas a problemas de poder tienen un historial bastante consistente: no funcionan, o funcionan para quienes ya tienen el poder.


La abdicación como decisión


Volvemos, entonces, a la pregunta original. ¿Quién decide cómo se distribuyen los beneficios de la inteligencia artificial?


La respuesta sigue siendo nadie. Pero "nadie decide" no es una ausencia de decisión. Es una decisión. La decisión de dejar que el mercado resuelva, de que las instituciones lleguen tarde, de que la ciudadanía participe del debate cuando ya no queden decisiones relevantes por tomar.


Es una abdicación colectiva, silenciosa y perfectamente organizada. Y tiene consecuencias concretas: una concentración de poder sin precedentes en la historia reciente, una brecha tecnológica que se amplía entre países y dentro de los países, y un déficit democrático que los discursos sobre "IA responsable" no alcanzan a tapar.


La pregunta no es tecnológica. Nunca lo fue. Es política, en el sentido más clásico y urgente del término: ¿quién tiene el poder, cómo se legitima, y a quién le rinde cuentas?


Por ahora, la respuesta sigue siendo nadie. Y eso, curiosamente, también es una decisión. Probablemente la más importante que estamos tomando sin darnos cuenta.




21

¡Gracias por suscribirte!

Suscríbete a nuestro boletín gratuito de noticias

Únete a nuestras redes y comparte la información

  • X
  • White Facebook Icon
  • LinkedIn

© 2022 Informe21

bottom of page