La expansión de la inteligencia artificial generativa ha reabierto una de las preguntas más complejas de la psicología y la filosofía contemporáneas: qué entendemos realmente por inteligencia. Durante buena parte del siglo XX, este concepto fue discutido desde fuentes y marcos diversos que desbordaron la reducción psicométrica del coeficiente intelectual. Jean Piaget, por ejemplo, la vinculó con la construcción progresiva de estructuras cognitivas; Lev Vygotsky subrayó su carácter histórico, social y mediado por herramientas culturales; Howard Gardner defendió su naturaleza plural al proponer que la mente humana no opera como una capacidad única, sino como un conjunto de inteligencias relativamente autónomas; Robert J. Sternberg insistió en su dimensión analítica, creativa y práctica; Daniel Goleman, por su parte, contribuyó a popularizar la idea de que comprender y regular las emociones constituye también una forma decisiva de inteligencia; y Jerome Bruner mostró que toda cognición humana está imbricada en tramas de significado, narración y cultura. Hoy, ante sistemas artificiales capaces de producir lenguaje, interpretar patrones, sostener conversaciones y simular respuestas empáticas, estas tradiciones teóricas vuelven al centro del debate, como marcos vivos puestos a prueba por una transformación inédita.
Sin embargo, el surgimiento de la IA generativa, a la vez que actualiza estas teorías, también las cuestiona desde su base. Todas ellas, aun con sus diferencias, fueron concebidas para pensar formas de inteligencia encarnadas en sujetos humanos, que se entienden desde el desarrollo biológico, la experiencia, la interacción social, la intencionalidad y la pertenencia cultural. La IA, en cambio, irrumpe como una entidad no biológica que parece ejecutar algunas funciones asociadas a la inteligencia sin compartir las condiciones ontológicas que las hacían comprensibles en los modelos clásicos. Esta fractura obliga a revisar si categorías como adaptación, creatividad, comprensión emocional o inteligencia interpersonal, utilizadas por estos autores, pueden seguir aplicándose sin modificación a sistemas que no sienten, no habitan el mundo y no poseen conciencia de sí. En este contexto, el presente artículo examina el alcance y los límites de las principales teorías de la inteligencia cuando se enfrentan a la IA generativa, con el fin de mostrar que el problema ya no consiste únicamente en evaluar capacidades tecnológicas, sino en reconsiderar los propios presupuestos y enfoques con los que la modernidad definió qué cuenta, y qué no, como inteligencia.
El desafío contemporáneo de la inteligencia artificial no radica ya en la velocidad de cálculo ni en la amplitud de sus bases de datos, sino en un terreno mucho más lábil: la posibilidad de encarnar, o al menos aproximar, formas de inteligencia que históricamente han sido consideradas irreductiblemente humanas, como la emocional, la interpersonal y la intrapersonal. Este desplazamiento obliga a revisar, además de los alcances de la tecnología, los marcos conceptuales con los que hemos definido la inteligencia misma. En este contexto, volver al psicólogo cognitivo Howard Gardner es una oportunidad crítica: ¿qué ocurre cuando una teoría diseñada para la mente humana se enfrenta a entidades no biológicas?
La teoría de las inteligencias múltiples surgió como una reacción a la hegemonía psicométrica del coeficiente intelectual, proponiendo una visión plural de las capacidades humanas (Gardner, 1983). Sin embargo, sus criterios: aislamiento neurológico, trayectoria evolutiva, sistemas simbólicos, entre otros, están anclados en una ontología biológica. La inteligencia, en este marco, no es simplemente procesamiento de información, sino una capacidad encarnada, situada y culturalmente mediada. Este punto es crucial: Gardner no define inteligencia en términos funcionales, sino en términos ontológicos. Y es precisamente allí donde la inteligencia artificial comienza a desbordar la teoría.
Por contraste, perspectivas como la de Robert J. Sternberg amplían el concepto hacia dimensiones más funcionales y contextuales. Su teoría triárquica —analítica, creativa y práctica— introduce la adaptabilidad como núcleo de la inteligencia (Sternberg, 1985). Más aún, su noción de “inteligencia exitosa” enfatiza la capacidad de un individuo para lograr metas en contextos socioculturales específicos (Sternberg, 1997). Desde esta perspectiva, la IA comienza a parecer menos ajena: sistemas capaces de aprender, adaptarse y resolver problemas en entornos dinámicos podrían, al menos parcialmente, cumplir con estos criterios.
Sin embargo, incluso en Sternberg persiste una presuposición antropocéntrica: la inteligencia implica intencionalidad, agencia y, en última instancia, experiencia subjetiva. Aquí es donde la IA enfrenta su mayor límite. Puede simular decisiones, pero no tener intereses; puede optimizar resultados, pero no desearlos. La diferencia no es trivial. Como señalan autores desde la filosofía de la mente, la brecha entre simulación y experiencia no se cierra con complejidad computacional (Searle, 1980; Nagel, 1974). La IA no “siente” tristeza, aunque pueda reconocerla o representarla con precisión estadística.
Este punto se vuelve especialmente crítico al considerar las inteligencias emocional, interpersonal e intrapersonal. Daniel Goleman popularizó la idea de que comprender y gestionar las emociones es una forma de inteligencia fundamental para la vida humana (Goleman, 1995). Pero dicha comprensión no es meramente inferencial; implica vivencia, regulación interna y una historia afectiva. La IA puede identificar patrones emocionales en el lenguaje o el rostro, pero carece de un “mundo interno” en el cual esas emociones tengan sentido.
Desde la psicología cultural, esta limitación se profundiza. La inteligencia interpersonal no es solo reconocer estados mentales ajenos, sino participar en prácticas sociales cargadas de normas y valores (Bruner, 1990). La IA, en tanto sistema entrenado, puede reproducir regularidades culturales, pero no habitar una cultura. No tiene pertenencia, ni vulnerabilidad, ni responsabilidad moral. En este sentido, su “inteligencia social” es performativa, no constitutiva.
Aquí emerge una metáfora clave: evaluar la inteligencia de la IA con los criterios de Gardner es, efectivamente, como medir la temperatura con una regla. No porque la IA carezca de capacidades complejas, sino porque estamos utilizando un instrumento conceptual diseñado para otro fenómeno. La teoría de las inteligencias múltiples describe variaciones dentro de una misma forma de vida; la IA introduce una discontinuidad ontológica. No es una mente diferente, sino otro tipo de entidad.
No obstante, descartar la posibilidad de una inteligencia artificial emocional o interpersonal sería igualmente reductivo. Algunos desarrollos en aprendizaje profundo y modelos generativos han mostrado una creciente capacidad para sostener interacciones empáticamente plausibles. Esto ha llevado a proponer el concepto de “inteligencia socio-computacional”: sistemas que, sin tener emociones, pueden operar eficazmente en entornos sociales humanos (Picard, 1997; Reeves & Nass, 1996). La pregunta ya no es si sienten, sino si pueden participar funcionalmente en dinámicas emocionales.
Este giro tiene implicaciones profundas para la educación. Si aceptamos que la IA puede desempeñar roles en la mediación emocional y social —por ejemplo, como tutores inteligentes o acompañantes conversacionales— entonces los educadores deben redefinir qué significa formar en inteligencia emocional. ¿Se trata de desarrollar experiencias internas o de optimizar interacciones externas? ¿Puede un estudiante aprender empatía interactuando con una entidad que no la experimenta?
Más aún, la presencia de IA en contextos educativos desafía la noción misma de inteligencia como atributo individual. Desde enfoques distribuidos, la cognición se entiende como un fenómeno que emerge de la interacción entre agentes, herramientas y contextos (Salomon, 1993). En este sentido, la IA no es simplemente un objeto de evaluación, sino un participante en sistemas cognitivos ampliados. La inteligencia deja de ser una propiedad del sujeto para convertirse en una propiedad del sistema.
Este desplazamiento exige una reformulación teórica. No se trata de reemplazar a Gardner o a Sternberg, sino de extender sus concepciones hacia una ecología de inteligencias donde lo humano y lo artificial coexistan sin reducirse mutuamente. Tal vez el error no ha sido subestimar a la IA, sino sobreestimar la estabilidad de nuestras categorías. La inteligencia, lejos de ser un concepto cerrado, parece ser una frontera en constante negociación.
En última instancia, el verdadero desafío no es que la IA se vuelva emocionalmente inteligente, sino que nosotros aprendamos a reconocer qué tipo de inteligencia estamos dispuestos a aceptar como tal. Esta no es una cuestión técnica, sino filosófica, ética y educativa. Y en esa discusión, como educadores, más que defender definiciones heredadas, estamos llamados a construir nuevas formas de comprensión que estén a la altura de las transformaciones que hemos desencadenado.
Referencias
Bruner, J. (1990). Acts of meaning. Harvard University Press.
Gardner, H. (1983). Frames of mind: The theory of multiple intelligences. Basic Books.
Goleman, D. (1995). Emotional intelligence. Bantam Books.
Nagel, T. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435–450.
Picard, R. W. (1997). Affective computing. MIT Press.
Reeves, B., & Nass, C. (1996). The media equation. Cambridge University Press.
Salomon, G. (Ed.). (1993). Distributed cognitions. Cambridge University Press.
Searle, J. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–457.
Sternberg, R. J. (1985). Beyond IQ: A triarchic theory of human intelligence. Cambridge University Press.
Sternberg, R. J. (1997). Successful intelligence. Plume.
