

En el estudio Remote Labor Index: Measuring AI Automation of Remote Work se concluye que los actuales modelos de lenguaje de gran escala (LLM) presentan un desempeño muy bajo al intentar cumplir con proyectos reales de punta a punta. Según los autores, las principales razones de este bajo desempeño serían que un LLM no puede:
1. detectar errores relevantes,
2. evaluar la calidad desde la perspectiva de un “cliente razonable”,
3. corregir inconsistencias entre subtareas,
4. mantener coherencia multimodal (video, audio, 3D, código, etc.).
Si observamos estas razones, notamos que entre ellas no aparece la capacidad de planificar. Sin embargo, para comprender correctamente este punto, es necesario distinguir dos formas distintas de entender qué es un plan.
En un primer sentido, el plan puede entenderse como un formato discursivo. En este caso, planificar consiste en producir una articulación lingüística plausible de pasos, fases, subtareas y dependencias orientadas a un objetivo. Por ejemplo, si se le pide a Gemini que explique cómo hacer arroz, el sistema entregará una secuencia ordenada de pasos: ese es el plan. Este es precisamente el tipo de planificación que realizan los LLM, ya que pueden reproducir con gran solvencia las formas típicas en que una actividad suele describirse como un plan.
Desde este punto de vista, lo que genera un LLM es un plan convincente a nivel discursivo. No obstante, sabemos que esto no implica necesariamente que el plan funcione de manera efectiva en la práctica.
Frente a esto, alguien podría objetar: “yo le he pedido a ChatGPT que me haga un plan para hacer X y ha resultado perfecto”. Y, efectivamente, eso puede ocurrir. Sin embargo, lo que conviene reconocer es que, en la mayoría de esos casos, aquello que se quiere hacer ya ha sido realizado muchas veces antes. El LLM no está inventando el plan, sino reproduciendo una estructura que ya ha aprendido a partir de ejemplos previos.
Existe, no obstante, un segundo sentido de plan, mucho más exigente. Aquí el plan no es un documento ni una secuencia fija de pasos, sino un proceso dinámico de control y verificación. Planificar, en este caso, implica sostener un bucle continuo entre acción, resultado, evaluación y corrección. El plan se ajusta en función de lo que ocurre en el mundo, de los errores que aparecen, de las inconsistencias que emergen entre subtareas y de los criterios de suficiencia que permiten decidir cuándo algo está “bien hecho”.
Este tipo de planificación supone la capacidad de distinguir errores relevantes de errores triviales, evaluar la calidad del resultado desde estándares compartidos (por ejemplo, los de un “cliente razonable”) y mantener la coherencia del conjunto a lo largo del tiempo. En este sentido, el plan no se crea ni se ejecuta únicamente desde una evaluación discursiva, sino desde los resultados concretos obtenidos, que es precisamente donde los LLM muestran limitaciones estructurales.
Aunque pueden generar planes discursivos convincentes y ejecutar tareas aisladas con éxito, los LLM carecen de un criterio normativo estable que les permita cerrar el proceso: decidir cuándo un resultado es aceptable, cuándo requiere corrección o cuándo una desviación compromete el sentido del conjunto. No se trata de una limitación transitoria ni de una simple falta de datos o de capacidad de cómputo, sino de una consecuencia directa de su modo de operación como sistemas de cálculo estadístico, y no de comprensión situada.
La distinción entre estos dos sentidos de plan permite comprender por qué, en proyectos reales y complejos, la intervención humana sigue siendo indispensable. Allí donde el plan es solo un formato discursivo, la automatización resulta eficaz. Allí donde el plan debe operar con mecanismos de control y verificación, la presencia humana no es un complemento opcional, sino una condición de posibilidad.
Desde esta perspectiva, human-in-the-loop no implica reducir el valor de la IA en los procesos de gestión del talento, sino ubicarla correctamente. La IA puede automatizar con gran eficacia la generación de planes, la ejecución de tareas específicas y el procesamiento de grandes volúmenes de información. Sin embargo, cuando se trata de proyectos reales —aquellos que impactan decisiones, personas y resultados de negocio—, el control, la validación y el cierre siguen requiriendo intervención humana.
Diseñar soluciones de IA efectivas en la Gestión del Talento no consiste en eliminar al humano del proceso, sino en definir con precisión dónde la IA ejecuta y dónde el humano decide. En ese equilibrio, el enfoque human-in-the-loop deja de ser una restricción y se transforma en el principio que permite que la automatización sea no solo eficiente, sino también responsable y sostenible.
Estamos conversando!!!





