Atenuación

Un proyecto se atasca y alguien convoca una reunión con doce personas. La reunión produce seis acciones, tres malentendidos y dos subgrupos que necesitarán sus propias reuniones. Un paper reciente demuestra que lo mismo ocurre con los agentes de inteligencia artificial: cuando se controla el presupuesto computacional, un solo agente iguala o supera a un sistema multi-agente. La teoría de la información explica por qué. Brooks, Parnas, Coase y Ohno ya lo sabían.

May 5, 202612 min read
Atenuación

El HMS Agamemnon tendiendo el cable telegráfico transatlántico en 1858. Una ballena cruza la línea. La señal se atenuaba tanto que un mensaje de 98 palabras tardó 17 horas en transmitirse. El cable falló a las tres semanas. Acuarela de Robert Charles Dudley, c. 1865. Metropolitan Museum of Art, donación de Cyrus W. Field.

Un proyecto se atasca. El plazo aprieta, los requisitos se contradicen, nadie tiene el cuadro completo. Alguien decide que lo que falta es coordinación y convoca una reunión con doce personas. Cada una aporta su perspectiva parcial. La reunión dura noventa minutos. Produce seis acciones, tres malentendidos y dos subgrupos que necesitarán sus propias reuniones la semana siguiente. El proyecto sigue atascado, pero ahora hay más gente involucrada, más hilos abiertos, más superficie donde las cosas pueden salir mal.

No faltaba gente pensando. Faltaba una persona con el contexto suficiente y el tiempo necesario para pensar el problema entero.

Un paper reciente de Dat Tran y Douwe Kiela dice que lo mismo ocurre con los agentes de inteligencia artificial. En Single-Agent LLMs Outperform Multi-Agent Systems on Multi-Hop Reasoning Under Equal Thinking Token Budgets, los investigadores controlaron algo que hasta ahora nadie controlaba: el presupuesto computacional. Dieron a un solo agente LLM exactamente los mismos tokens de razonamiento que a un sistema de múltiples agentes coordinados y midieron quién resolvía mejor problemas complejos de razonamiento en cadena. El resultado: el agente único igualó o superó al sistema multi-agente en casi todas las condiciones. Las ventajas que habían reportado otros estudios eran artefactos de haber dado más recursos al sistema multi-agente, no de una arquitectura superior.

La sorpresa no debería ser tanta. Llevamos medio siglo descubriendo lo mismo en otros campos.

El hombre mítico

En 1975, Frederick Brooks publicó The Mythical Man-Month, un libro sobre los desastres del proyecto OS/360 de IBM que se convirtió en el texto fundacional de la ingeniería del software. Su ley más famosa es sencilla: añadir gente a un proyecto retrasado lo retrasa más. La razón es aritmética. Si tienes n personas trabajando en un problema, los canales de comunicación entre ellas crecen como n(n−1)/2. Dos personas necesitan un canal. Cinco necesitan diez. Doce necesitan sesenta y seis. Cada canal consume tiempo, genera malentendidos, requiere alineación.

Pero el argumento más profundo de Brooks no era cuantitativo — era cualitativo. Lo que realmente importaba era la integridad conceptual: la capacidad de que un sistema refleje una visión coherente, como si hubiera sido diseñado por una sola mente. Cuando muchas personas contribuyen sin esa coherencia, cada una resuelve su parte de forma localmente razonable pero globalmente contradictoria. El resultado es un sistema que funciona por piezas pero no funciona como un todo.

Men and months are interchangeable commodities only when a task can be partitioned among many workers with no communication among them. This is true of reaping wheat or picking cotton; it is not even approximately true of systems programming.

— Frederick Brooks, The Mythical Man-Month (1975)

El paper de Tran y Kiela encuentra exactamente esto. El sistema multi-agente secuencial — donde un planificador descompone el problema y varios trabajadores lo resuelven por partes — "explora más entidades pero deriva". Cubre más territorio, pero pierde el hilo. El agente único, en cambio, mantiene lo que los investigadores llaman tighter constraint anchoring: una sujeción más firme a las restricciones del problema original. Más territorio cubierto, menos coherencia. Es la ley de Brooks, replicada cincuenta años después en un laboratorio de inteligencia artificial.

La desigualdad del procesamiento de datos

Los investigadores fundamentan su análisis en un teorema de la teoría de la información llamado Data Processing Inequality. La idea, que se remonta al trabajo fundacional de Claude Shannon en 1948 sobre la teoría matemática de la comunicación, es intuitiva una vez que la entiendes: si la información pasa por una cadena de pasos de procesamiento, cada paso solo puede preservar o perder información. Nunca crearla. No es una tendencia empírica. Es un teorema. Cada nodo intermedio es un cuello de botella potencial donde la señal se degrada.

En un sistema multi-agente, cada agente que resume, reformula o traduce el problema para el siguiente es un nodo de esa cadena. Cada resumen pierde matices. Cada reformulación introduce su propia interpretación. Cada traducción entre agentes es una transmisión por un canal ruidoso. La información del problema original se degrada con cada handoff.

Un estudio paralelo de Yubin Kim y colegas de Google y MIT pone números a esta degradación. En Towards a Science of Scaling Agent Systems, evaluaron 260 configuraciones distintas de agentes y encontraron que los sistemas de agentes independientes pueden amplificar los errores de base hasta 17 veces. En tareas que requerían el uso de dieciséis herramientas, la eficiencia de coordinación del agente único era de 0,466 mientras que los sistemas multi-agente caían a entre 0,074 y 0,234 — una penalización de entre dos y seis veces. Cada agente adicional no es gratis: consume presupuesto de tokens que podría haberse dedicado a razonar.

Pero la metáfora del teorema va más allá de los LLMs. Cada handoff en una organización — cada reunión que resume lo que se habló en otra reunión, cada capa de gestión que traduce decisiones estratégicas en tareas operativas, cada intermediario que filtra lo que sube y lo que baja — es un nodo de procesamiento donde se cumple la misma desigualdad. Conway lo describió como ley: las organizaciones diseñan sistemas que reflejan su estructura de comunicación. Más intermediarios, más restricciones estructurales, más lugares donde la señal se pierde.

A firm will tend to expand until the costs of organizing an extra transaction within the firm become equal to the costs of carrying out the same transaction by means of an exchange on the open market.

— Ronald Coase, The Nature of the Firm (1937)

Ronald Coase llegó a la misma frontera desde la economía. En The Nature of the Firm (1937), preguntó algo que nadie preguntaba: si el mercado es tan eficiente, ¿por qué existen las empresas? Su respuesta fue que coordinar actividades en el mercado abierto tiene costes de transacción — buscar proveedores, negociar contratos, verificar calidad. La empresa existe porque internalizar esas actividades es más barato que contratarlas fuera. Y la empresa crece hasta que el coste de coordinar internamente supera el coste de ir al mercado.

Sustituye "empresa" por "agente único" y "mercado" por "sistema multi-agente". El agente único crece hasta que el coste de mantener todo el contexto en una sola ventana supera el beneficio de la coherencia. Esa frontera es exactamente lo que el paper de Stanford mide con el presupuesto de tokens. Y como Coase predijo, la frontera no es fija — se mueve con la tecnología. A medida que las ventanas de contexto de los LLMs crecen, la frontera se desplaza a favor del agente único.

Haz una cosa y hazla bien

Hay una tradición de diseño que lleva medio siglo conviviendo con este problema. En 1978, Doug McIlroy escribió el prólogo del manual de Unix con tres reglas que se convirtieron en filosofía: haz programas que hagan una sola cosa y la hagan bien; haz programas que trabajen juntos; haz que manejen flujos de texto, porque es la interfaz universal.

El pipe de Unix es, estrictamente hablando, una arquitectura multi-agente. Cuatro programas independientes encadenados, cada uno ignorante de lo que hacen los demás, coordinados por un flujo de texto que pasa de uno al siguiente. Pero es una arquitectura diseñada con una economía brutal. Cada herramienta oculta su implementación. Ninguna necesita entender el contexto de las demás. La interfaz entre ellas — texto plano, línea por línea — es la más estrecha posible.

Unix funciona no porque evite la descomposición sino porque minimiza la pérdida de información en cada handoff. El texto plano es la interfaz universal precisamente porque acepta la pérdida: renuncia a la riqueza de las estructuras internas a cambio de la universalidad del formato. Cada herramienta recibe lo mínimo necesario para hacer su trabajo y produce lo mínimo necesario para el siguiente.

Herbert Simon formalizó este principio en The Architecture of Complexity (1962). Los sistemas complejos que sobreviven, argumentó Simon, son casi descomponibles: están formados por subsistemas con interacciones internas fuertes e interacciones externas débiles. Las interfaces entre módulos son estrechas. Cuando lo son, la descomposición ayuda. Cuando cada componente necesita el contexto completo del sistema, la descomposición destroza más de lo que construye.

Every module is characterized by its knowledge of a design decision which it hides from all others. Its interface or definition was chosen to reveal as little as possible about its inner workings.

— David Parnas, On the Criteria To Be Used in Decomposing Systems into Modules (1972)

David Parnas llevó la misma intuición al diseño de software en 1972. En On the Criteria To Be Used in Decomposing Systems into Modules, demostró con un ejemplo concreto que la forma obvia de descomponer un sistema — siguiendo los pasos de su procesamiento — produce diseños frágiles. Es exactamente lo que hace un sistema multi-agente secuencial: un planificador descompone la tarea en pasos y asigna un agente a cada uno. Parnas mostró que la descomposición correcta no sigue el flujo de procesamiento sino las decisiones de diseño que podrían cambiar, con interfaces que ocultan los detalles internos. El pipe de Unix funciona porque cada herramienta esconde cómo hace lo que hace. El sistema multi-agente secuencial falla porque cada agente necesita interpretar lo que hicieron los anteriores — una interfaz ancha, ambigua, costosa.

El desperdicio invisible

Taiichi Ohno clasificó siete tipos de desperdicio en el sistema de producción de Toyota. El más insidioso era lo que llamaba sobreprocesamiento: hacer más trabajo del necesario para producir valor. No es un fallo por defecto — es un fallo por exceso. Trabajo que se hace, que consume recursos, que parece productivo, pero que no añade nada que el cliente necesite.

En un sistema multi-agente, cada agente que resume el problema para el siguiente, cada reformulación, cada síntesis intermedia, es trabajo que puede estar destruyendo señal en lugar de crearla. El paper de Stanford encontró que los sistemas multi-agente producen "trazas de razonamiento más largas" y "exploran más entidades" — pero esa exploración adicional no se traduce en mejores respuestas. Es sobreprocesamiento: más tokens gastados, más territorio recorrido, menos valor producido. Ohno lo habría reconocido inmediatamente.

Pero Ohno no era un centralista. Toyota no funcionaba porque una persona lo controlara todo. Funcionaba porque cada trabajador tenía la autoridad de tirar del andon cord — de parar la línea de producción entera cuando detectaba un problema. El sistema era distribuido, no concentrado. La clave no era que una sola mente tomara todas las decisiones, sino que cada persona estuviera empoderada para actuar sobre lo que podía ver desde su posición.

What magical trick makes us intelligent? The trick is that there is no trick. The power of intelligence stems from our vast diversity, not from any single, perfect principle.

— Marvin Minsky, The Society of Mind (1986)

El paper de Stanford encuentra algo parecido. Hay un régimen donde el sistema multi-agente se vuelve competitivo: cuando el contexto está degradado. Cuando la información de entrada es ruidosa, contradictoria o demasiado grande para que un solo agente la procese con coherencia, la descomposición ayuda — porque cada agente puede filtrar un tipo distinto de ruido. Es el equivalente del trabajador en la línea de Toyota que ve algo que el jefe de planta, desde su despacho, no puede ver.

El estudio de Google y MIT cuantifica el umbral: el sistema multi-agente solo aporta cuando la precisión del agente único cae por debajo del 45%. Por encima de eso — cuando el agente único es razonablemente competente —, añadir agentes no ayuda. Amplifica errores y consume presupuesto.

Marvin Minsky planteó en The Society of Mind (1986) la versión más ambiciosa del argumento contrario: la mente humana es, en sí misma, una sociedad de agentes. No hay un homúnculo central que piense. Hay cientos de procesos simples, ninguno inteligente por sí solo, que colectivamente producen lo que llamamos pensamiento. La inteligencia emerge de la interacción, no de un agente omnisciente.

Pero los agentes de Minsky eran extremadamente simples, con interfaces extremadamente estrechas. Como herramientas Unix, no como LLMs que intentan comprender todo el contexto que reciben. La lección que se extrae es sutil: el multi-agente funciona cuando los agentes son baratos y las interfaces son claras. Falla cuando los agentes son caros — en tokens, en latencia, en complejidad — y las interfaces son ambiguas. Un resumen en lenguaje natural entre dos LLMs es una interfaz cara y ruidosa. Un flujo de texto plano entre dos herramientas Unix es una interfaz barata y precisa.


Volvamos a la reunión del principio. No falló porque las doce personas fueran incompetentes. Falló porque el problema, en ese momento, no era descomponible — necesitaba una persona con el contexto completo y el espacio para pensar. La conclusión del paper de Stanford es modesta: propone "ir más allá de las afirmaciones generales sobre la superioridad multi-agente hacia la comprensión de cuándo el overhead de coordinación está justificado".

Es una conclusión que Brooks, Parnas, Coase, Ohno y Simon habrían firmado sin leer el paper. La novedad no está en la respuesta sino en el material donde se formula la pregunta: ya no hablamos de programadores, ni de trabajadores en una línea de montaje, ni de departamentos en una empresa. Hablamos de agentes de inteligencia artificial. Pero la pregunta es la misma que ha animado la teoría organizacional, la arquitectura de software y la economía de la firma durante setenta años.

¿Cuándo necesita un problema un equipo y cuándo necesita una mente?

La teoría de la información dice que cada handoff pierde algo. La experiencia dice que algunos handoffs crean algo también — filtran ruido, aportan perspectivas que una sola mirada no alcanza, detectan errores que el ojo único no ve. Lo difícil es saber cuál es cuál. Y esa frontera no es fija. Se mueve con la capacidad del agente — humano o artificial —, con la calidad de las interfaces, con la estructura del problema. El estudio de Google y MIT encontró que el umbral de saturación desaparece cuando el agente único supera cierto nivel de competencia. Es decir: lo que hoy necesita un equipo, mañana puede necesitar solo una mente más capaz.

Igual que en las organizaciones. El umbral cambia cuando la persona crece.

2026 © Íñigo Medina