
¿Ya alcanzó la IA la inteligencia humana?
feb 16
3 min de lectura

En su ya clásico artículo “Computing Machinery and Intelligence”, Alan Turing propone el llamado “juego de la imitación”. La idea es conocida: una máquina podría considerarse inteligente si, durante una conversación, una persona no logra distinguir si está interactuando con otro ser humano o con una máquina. Este criterio pasaría posteriormente a conocerse como el Test de Turing.
Lo relevante en esta propuesta es que Turing desplaza el foco desde los procesos internos hacia el comportamiento observable. No importa cómo la máquina produce sus respuestas, sino qué hace. Precisamente por esto, Turing descarta la pregunta metafísica “¿Puede una máquina pensar?” y la reemplaza por una operacional: “¿Puede una máquina imitar el comportamiento de un ser humano?”.
Este punto es crucial. Si hoy le hacemos una pregunta a un modelo de lenguaje grande (LLM) y obtenemos una respuesta coherente, podríamos preguntarnos: ¿implica esto que el modelo tuvo la voluntad de responder? Desde la perspectiva del Test de Turing, esta pregunta es irrelevante. Indagar por la intención o la experiencia interna del sistema equivale a volver al problema que Turing buscaba evitar. Lo único que importa es si la respuesta se parece a la que daría un ser humano en una situación equivalente.
En esta línea, el artículo “Does AI already have human-level intelligence? The evidence is clear”, publicado el 2 de febrero de 2026 en la revista Nature, sostiene que la respuesta es afirmativa: la inteligencia artificial ya habría alcanzado un nivel comparable al humano. Esta conclusión se apoya en los múltiples logros recientes de los LLM en tareas cognitivas complejas.
Sin embargo —y aquí aparece la tensión— los propios autores reconocen que muchos expertos en inteligencia artificial consideran que la Inteligencia Artificial General (IAG) aún está muy lejos de alcanzarse. Un ejemplo claro es Yann LeCun, quien ha afirmado que “los LLM no son un camino hacia la superinteligencia, ni siquiera hacia la inteligencia humana”.
¿De dónde surge esta diferencia de opiniones? Según los autores, el problema no está tanto en los resultados empíricos, sino en la falta de acuerdo sobre qué entendemos por IAG. Antes de definirla, proponen descartar cuatro supuestos comunes:
1. la IAG no requiere ser perfecta,
2. no necesita ser universal,
3. no tiene por qué funcionar del mismo modo que la mente humana, y
4. no implica necesariamente una inteligencia superior a la humana.
En lugar de una definición estricta, los autores —siguiendo el espíritu de Turing— proponen evaluar la inteligencia artificial por niveles de desempeño. Identifican tres:
1. nivel Test de Turing,
2. nivel experto, y
3. nivel superior al humano.
Respecto del primero, es razonable afirmar que los LLM actuales ya lo superan. Lo interesante es que este nivel exige desempeños equivalentes a pruebas de nivel escolar o universitario básico. El segundo nivel, el de experto, implica resolver problemas propios de un doctorado, de un programador altamente especializado o de una persona que domine múltiples idiomas. Según los autores, los LLM también habrían superado este umbral. El tercer nivel —superior al humano— no sería necesario para hablar de IAG, ya que ningún ser humano posee consistentemente ese tipo de capacidades.
Si este diagnóstico es correcto, surge una pregunta inevitable: ¿para qué necesitamos talento humano en las empresas, si este puede ser reemplazado por inteligencia artificial?
La respuesta no es simple. Para aproximarnos a ella, será necesario profundizar en algunos conceptos clave y, sobre todo, analizar casos reales de implementación de IA en organizaciones, donde la relación entre tecnología, trabajo y decisión humana se vuelve mucho más concreta.
Estamos conversando!!





