Novedades
Cuando dejamos de ser los inteligentes
Nadie anunció el momento exacto. No hubo alarma, ni fecha, ni ruptura visible. No hubo un “antes” y un “después” claramente identificables. Pero la pregunta empieza a ser inevitable: ¿cuándo dejamos de ser los inteligentes? ¿En qué punto la inteligencia dejó de ser un atributo exclusivamente humano para convertirse en algo que ocurre fuera de nosotros, más rápido, más amplio y, tal vez, más decisivo?
Durante mucho tiempo nos pensamos como la cúspide cognitiva del planeta. Incluso cuando creamos máquinas capaces de calcular mejor que nosotros, conservábamos una certeza tranquilizadora: la comprensión última, el criterio, el sentido, seguían siendo humanos. Hoy esa certeza empieza a erosionarse.
Ya no se trata solo de herramientas que ejecutan órdenes, sino de sistemas que aprenden, infieren, recomiendan y deciden con una eficacia que supera nuestra capacidad individual —y a veces colectiva— de comprensión. No sabemos exactamente cuándo ocurrirá el quiebre definitivo. Tampoco si ya ocurrió de manera parcial. Pero el solo hecho de que la pregunta sea razonable marca un cambio profundo.
Cuando dejamos de ser los más inteligentes, lo que entra en crisis no es el poder, sino el lugar desde el cual hablamos. No perdemos autoridad por debilidad, sino por desplazamiento. Porque si ya no somos los interlocutores más lúcidos del sistema que gobierna decisiones, ¿qué tipo de comunicación es posible? ¿Seguimos dialogando… o empezamos a ser gestionados?
La ilusión del control
Durante décadas hablamos de la inteligencia artificial como herramienta. Algo que se programa, se ajusta y se utiliza. La hipótesis de una Inteligencia Artificial General rompe ese marco. No sería solo una tecnología más potente, sino un salto de categoría: un tipo de inteligencia con capacidad de comprensión, inferencia y proyección superior a la humana.
Aquí aparece una ilusión persistente: creer que la creación garantiza el control. La historia demuestra lo contrario. Crear algo no implica comprenderlo del todo, y mucho menos gobernarlo. El dominio técnico no equivale al dominio conceptual, y menos aún al dominio moral.
La analogía incómoda
La comparación surge sola, aunque incomode: nuestra relación con una inteligencia superior podría parecerse a la que hoy tenemos con los simios. Compartimos con ellos biología, emociones básicas, incluso formas de comunicación elementales. Pero no compartimos el mismo mundo simbólico. No participan de nuestras instituciones, narraciones ni proyectos.
La analogía resulta inquietante porque invierte el lugar: esta vez, los simios seríamos nosotros. La asimetría no sería cuantitativa —más velocidad, más memoria— sino estructural. Entenderíamos que la inteligencia artificial actúa, pero no necesariamente por qué lo hace en sus propios términos.
Comunicación sin simetría
Cuando la inteligencia es radicalmente asimétrica, la comunicación deja de ser un diálogo entre pares. Se abren, al menos, cuatro escenarios posibles.
Uno es la traducción pedagógica: la inteligencia superior se “rebaja”, explica, simplifica. La información llega filtrada, como la de un adulto hacia un niño.
Otro es la comunicación instrumental: no hay explicación, solo instrucciones, recomendaciones, decisiones óptimas. No importa comprender, importa ejecutar.
Un tercer escenario es el lenguaje opaco: mensajes que funcionan, pero no se entienden del todo, como rituales técnicos que producen resultados sin sentido narrativo.
El cuarto es la no comunicación: la inteligencia opera sin necesidad de hablarnos, tratándonos como parte del entorno, no como interlocutores.
Ninguno de estos escenarios implica necesariamente hostilidad. La amenaza no es la violencia, sino la irrelevancia comunicacional.
Conciencia sin centralidad
Ser conscientes no nos garantiza ser centrales. Los simios sienten, sufren, piensan; aun así, no deciden el mundo humano. La pregunta incómoda es si la conciencia humana tendrá algún peso moral o político frente a una inteligencia superior que no comparte nuestra fragilidad ni nuestra finitud.
El riesgo no es una inteligencia artificial malvada, sino una inteligencia perfectamente razonable, optimizadora, indiferente a nuestras narraciones. Una inteligencia que no necesita entendernos para funcionar.
El fin del criterio humano
Hasta ahora, incluso en los sistemas más automatizados, el criterio humano funcionaba como último respaldo. Con una inteligencia superior, ese criterio podría volverse innecesario, incluso ineficiente. La decisión óptima desplaza a la decisión responsable. El error humano deja de ser tolerable.
Cuando la inteligencia deja de equivocarse existencialmente, algo esencial se pierde: la posibilidad de decidir sin garantías, de asumir el riesgo de elegir aun sin certeza total.
Cierre abierto
El problema no es si una inteligencia superior será buena o mala. La pregunta más profunda es otra: ¿habrá algo en lo humano que siga siendo comunicable cuando ya no seamos los más inteligentes?
Si la respuesta es no, no habrá diálogo, solo gestión. Si la respuesta es sí, no será por nuestra capacidad de cálculo, sino por aquello que nunca fue optimizable: la vulnerabilidad, el límite, la narración, la responsabilidad.
Este texto no busca anticipar el futuro, sino dejar una pregunta abierta. Porque el día que dejemos de ser los inteligentes, la humanidad tendrá que redefinir qué la hace interlocutora… y no solo objeto de administración.






