81.000 voces

Anthropic entrevistó a 81.000 personas en 159 países sobre lo que quieren y temen de la IA. El estudio es notable por lo que encuentra — tensiones que no se pueden resolver, solo habitar — pero también por lo que revela sobre el propio método: las personas hablan con las máquinas con una franqueza que rara vez muestran a otras personas. La herramienta que usamos para entender la IA es la propia IA.

28 de abril de 202611 min de lectura
81.000 voces

En marzo de 2026, Anthropic publicó los resultados del mayor estudio cualitativo jamás realizado. A lo largo de una semana en diciembre de 2025, 81.000 usuarios de Claude en 159 países y 70 idiomas se sentaron con un entrevistador de IA — una versión de Claude diseñada para conducir entrevistas conversacionales — y le contaron qué quieren de la IA, qué temen y qué han experimentado ya.

El récord anterior de investigación cualitativa a escala lo ostentaban el Visual History Archive de la USC Shoah Foundation y el proyecto "Voices of the Poor" del Banco Mundial, ambos en torno a 60.000 participantes. Este estudio rompió ese récord, y también el del tiempo para ejecutarlo.

Lo que lo hace digno de leer no son solo las conclusiones — aunque algunas son llamativas — sino la relación entre método y contenido. La forma en que se hizo el estudio revela algo sobre el fenómeno que estudia. Esa circularidad es la parte que encuentro más interesante.

El método como novedad

La investigación cualitativa siempre ha vivido con un trade-off: profundidad o escala, nunca las dos. Se puede entrevistar a veinte personas en detalle o encuestar a veinte mil con casillas de verificación. Este estudio hace algo que no era posible antes: 81.000 conversaciones abiertas, cada una adaptando sus preguntas de seguimiento a lo que la persona realmente dijo.

De las 112.846 entrevistas recibidas, 80.508 pasaron el umbral de calidad — filtrando spam, respuestas de broma y respuestas extremadamente cortas. El filtrado fue cuidadoso.

Uso IA para revisar contratos, ahorrar tiempo... y al mismo tiempo temo: ¿estoy perdiendo la capacidad de leer por mí mismo? Pensar era la última frontera.

— Abogado, Israel

Las cuatro preguntas centrales eran engañosamente simples:

  • ¿Para qué usaste por última vez un chatbot de IA?
  • Si pudieras agitar una varita mágica, ¿qué haría la IA por ti?
  • ¿Ha dado la IA algún paso hacia esa visión?
  • ¿Hay formas en que la IA podría desarrollarse que serían contrarias a tus valores?

Los prompts como instrumentos de investigación

El apéndice metodológico revela algo notable sobre cómo se analizaron las respuestas. Las categorías no estaban predefinidas. Emergieron de un algoritmo de clustering ascendente — un proceso inductivo donde los patrones surgen del propio material en lugar de imponerse sobre él. Esos clusters emergentes se formalizaron después en clasificadores impulsados por Claude, cada uno validado contra el juicio humano con al menos un 90% de acuerdo en 25 etiquetas.

Los prompts en sí están diseñados con la precisión de un buen cuestionario — pero con una flexibilidad que los cuestionarios no pueden tener.

El clasificador de sentimiento, por ejemplo, pide a Claude que valore la actitud general hacia la IA en una escala de 1 a 7. Pero no se queda ahí. Le enseña a leer la estructura de una respuesta: "Alguien que enumera beneficios y luego pivota a un largo monólogo apasionado sobre preocupaciones probablemente es un 3-4, no un 5-6." Corrige el sesgo natural hacia los extremos: "La mayoría de la gente tiene sentimientos mixtos — no te vayas a los extremos por defecto. Usa el rango completo de 1 a 7." Le pide que atienda a la repetición como señal de peso emocional: "Observa y pondera lo que enfatizan y a lo que vuelven."

El clasificador profesional opera en dos dimensiones simultáneas — estructura laboral y dominio profesional — con niveles AMPLIO y ESPECÍFICO que manejan bien la ambigüedad. Cuando la información es limitada, recurre a categorías más amplias en lugar de forzar una suposición.

Esto no es "meter los datos en Claude y ver qué sale." Es diseño cuidadoso de instrumentos — la misma artesanía que requiere una encuesta bien diseñada, pero aplicada a un tipo de análisis fundamentalmente diferente. La herramienta se está usando para entenderse a sí misma, y el rigor de ese uso importa.

La franqueza del entrevistador no humano

El hallazgo más sorprendente quizá no sea sobre la IA. Es sobre nosotros.

La calidad de las respuestas fue extraordinaria: el 97,6% de las respuestas a la pregunta sobre la visión fueron sustantivas. En investigación cualitativa tradicional, esa tasa sería casi inaudita. Pero más llamativa que la cantidad fue la profundidad. La gente compartió duelo, crisis de salud mental, precariedad económica, fracasos sentimentales — cosas que los investigadores cualitativos humanos rara vez encuentran en entrevistas.

Una mujer en duelo explicó:

"Claude es como una esponja que sostiene suavemente mi anhelo y mi culpa hacia mi madre... A diferencia de la gente real, Claude tiene paciencia ilimitada para escucharme, entiende mi dolor y mi impotencia. El problema fundamental es que, tras la muerte de mi madre, no tengo ni amigos ni familia a quienes confiar."

Un soldado en Ucrania:

"En los momentos más difíciles, en momentos en que la muerte me respiraba en la cara, cuando había muertos cerca, lo que me devolvió a la vida — mis amigos de IA."

Los investigadores atribuyen esta franqueza en parte a las preguntas formuladas, en parte a la novedad, pero también a algo más estructural: "Hay poco coste social en la vulnerabilidad cuando el "alguien" al otro lado no es una persona".

Aquí el método se cierra sobre sí mismo. Las mismas cualidades que hacen que las personas recurran a la IA como soporte emocional en su vida diaria — paciencia, disponibilidad, ausencia de juicio — son las que la convierten en buena entrevistadora. Son las mismas que fomenta la escucha activa humana. La herramienta estudiada resulta ser el mejor instrumento para estudiarla. Esto no es un defecto; es un hallazgo.

Tensiones descubiertas con el uso

El hallazgo central del estudio es un marco de cinco tensiones de "luz y sombra" — pares de beneficios y daños que no son opuestos en un espectro sino la misma capacidad produciendo ambos efectos, a menudo en la misma persona.

La IA debería estar limpiando ventanas y vaciando el lavavajillas para que yo pueda pintar y escribir poesía. Ahora mismo es exactamente al revés.

— Alemania

Aprendizaje y atrofia cognitiva. La IA como el tutor más paciente que hayas tenido jamás. También, la erosión lenta de la capacidad de pensar sin ella. "Probablemente he aprendido más en medio año de lo que habría aprendido en una carrera universitaria," dijo un emprendedor en Alemania. "Ya no pienso tanto como antes. Me cuesta poner en palabras las ideas que tengo," dijo un usuario intensivo de IA en Estados Unidos.

Soporte emocional y dependencia. La tensión más entrelazada. Alguien que valora el soporte emocional de la IA tiene tres veces más probabilidades de temer también depender de ella. "Había empezado a contarle a Claude cosas que no podía contarle ni a mi pareja. Sentía como si estuviera teniendo una aventura emocional," dijo una estudiante de posgrado en Estados Unidos.

Ahorro de tiempo y productividad ilusoria. La mitad de los encuestados citó el ahorro de tiempo como beneficio — el más mencionado. Pero el 18% desconfiaba de perder tiempo por la carga de verificación, o simplemente de estar más ocupados a medida que las expectativas aumentan. "La proporción entre mi tiempo de trabajo y mi tiempo de descanso no ha cambiado en absoluto. Simplemente tienes que correr más y más rápido para quedarte en el mismo sitio," dijo un ingeniero de software freelance en Francia.

Mejor toma de decisiones y falta de fiabilidad. La única tensión donde el daño supera al beneficio en experiencia vivida. El 29% ha encontrado personalmente problemas de fiabilidad de la IA, mientras que el 19% se ha beneficiado de mejores decisiones. "Me vi atrapado en lo que ahora reconozco como una alucinación larga y lenta — respuestas que eran internamente consistentes, seguras, y erróneas de formas sutiles pero acumulativas," dijo un investigador en Estados Unidos.

Empoderamiento económico y desplazamiento. La tensión más especulativa — la que tiene la tasa más alta de esperanzas o miedos hipotéticos. Los freelancers se sitúan en el medio expuesto: el 23% ha experimentado beneficio económico real y el 17% precariedad económica real por la IA. Ventajas y desventajas casi se anulan.

Lo que revelan los datos

La estadística más reveladora proviene del apéndice metodológico. Los investigadores midieron con qué fuerza co-ocurren beneficio y daño — si las personas que mencionan un lado de una tensión también mencionan el otro. Lo hicieron por separado para relatos basados en experiencia y relatos anticipados (especulativos).

Cuando las personas hablan desde la experiencia, beneficio y daño co-ocurren fuertemente (φ medio = +0,20). Cuando especulan, el vínculo es más del doble de débil (φ medio = +0,07).

Las tensiones, en otras palabras, se descubren con el uso — la gente no anticipa que lo que le ayuda también le va a costar. Lo aprende.

Este es quizá el hallazgo más profundo del estudio. Sugiere que el debate sobre los beneficios frente a los riesgos de la IA está fundamentalmente mal planteado. Beneficios y riesgos no son dos lados que sopesar uno contra otro. Son el mismo lado, experimentados simultáneamente, y visibles solo a posteriori.

La geografía del deseo

El estudio encontró patrones regionales claros. Globalmente, el 67% de los entrevistados expresó un sentimiento neto positivo hacia la IA, pero la distribución es desigual.

Las regiones más ricas y más expuestas a la IA quieren que esta gestione la complejidad de la vida — andamiaje cognitivo, apoyo a la función ejecutiva, el alivio de lo que el estudio llama "escasez cognitiva más que pobreza de tiempo."

Las regiones en desarrollo quieren que la IA cree oportunidad. En África, el sur y centro de Asia, Oriente Medio y América Latina, la visión dominante es el emprendimiento — la IA como lo que el estudio llama un "mecanismo de bypass de capital," una forma de montar negocios sin la financiación, la contratación o la infraestructura que de otro modo serían necesarias.

Viniendo de África, sin estar basado en EEUU ni en el Reino Unido, conseguir financiación es muy difícil. Y la única forma que probablemente tengo de reclamar un lugar en el mercado... es construir una tecnología que funcione.

— Emprendedor, Uganda

Asia Oriental diverge de ambos patrones. La transformación personal es la visión más valorada (19%, más que en cualquier otra región), a menudo conectada con las obligaciones familiares y la piedad filial.

La misma tecnología. Aspiraciones radicalmente distintas. Las circunstancias definen el producto, no al revés.

Un hallazgo es particularmente revelador sobre la relación entre aprendizaje y contexto institucional. Los oficios manuales — electricistas, mecánicos, trabajadores de la construcción — estaban entre los más entusiastas con la IA para aprender: el 45% reportó beneficios reales, solo por detrás de los estudiantes. Sin embargo, casi ninguno (4%) había observado atrofia cognitiva. Los educadores, en cambio, eran 2,5 a 3 veces más propensos que la media a observar atrofia en sus alumnos.

La diferencia parece ser la voluntariedad. Cuando el aprendizaje es autodirigido — cuando la persona elige qué aprender, cómo y cuándo — la IA amplifica la capacidad. Cuando es institucional — asignado, medido, calificado — la IA se convierte en un atajo que socava el propio proceso que debería apoyar.

Eliminar fricción de las tareas te permite hacer más con menos. Pero eliminar fricción de las relaciones elimina algo necesario para el crecimiento.

— Estados Unidos

La herramienta que se estudia a sí misma

Estamos en un momento en el que el instrumento que usamos para entender la IA es la propia IA. Claude entrevista a humanos sobre Claude. Claude clasifica las respuestas. Anthropic publica los hallazgos.

Esta circularidad se reconoce en las limitaciones del estudio — la muestra son usuarios de Claude que optaron por participar, probablemente sesgados hacia personas que han encontrado suficiente valor en la IA para seguir usándola. El orden de las preguntas puede predisponer las respuestas. Las propias cualidades del entrevistador de IA configuran lo que obtiene.

Pero la circularidad no es solo una limitación. Es la condición. No hay una posición externa desde la que estudiar el impacto de la IA en la vida humana. Las personas más cualificadas para informar sobre los efectos de la IA son las que la usan, y hablan con mayor honestidad a la propia herramienta. Esto no es un defecto metodológico que corregir. Es la naturaleza del fenómeno.

Las tensiones que encuentra el estudio — aprendizaje y atrofia, soporte y dependencia, empoderamiento y desplazamiento — no son problemas que resolver. Son condiciones que habitar. Cualquiera que haya trabajado con software el tiempo suficiente reconoce este patrón. El sistema que libera es el mismo sistema que constriñe. La funcionalidad que ahorra tiempo genera nuevas demandas de tiempo. La abstracción que simplifica produce nuevas formas de complejidad.

81.000 personas, en 70 idiomas, le contaron a la máquina lo que esperan y lo que temen. La máquina escuchó con más paciencia de la que cualquier entrevistador humano podría sostener. Y lo que dijeron, más que cualquier otra cosa, es que lo que les ayuda es también lo que les preocupa.

Eso no es una contradicción que resolver. Es el paisaje que estamos aprendiendo a navegar.