top of page

¿Puede la IA dudar?

8 de oct de 2025

3 min de lectura




Hace más de un mes que estoy con esta pregunta, ¿puede una herramienta como ChatGPT dudar o es sólo una simulación?


¿Por qué es esta pregunta importante? Porque todo cambio, mejora o innovación comienza con una duda.


¿Sería esto importante para la gestión del talento? Esta pregunta la podríamos reformular de la siguiente manera: si reemplazo a todas las personas de una empresa por herramientas de IA, ¿perdería algo la empresa?


La respuesta que hoy tengo, aunque provisoria e incompleta, es que una IA no puede dudar, aunque si puede simular una duda.


El caso que he explorado es un tipo de duda en particular, que es, como lo llamó un amigo, un tipo de duda existencial. El tipo de duda sobre la cual he pensado es la duda metódica cartesiana. ¿Qué es esto? Si has escuchado algo como “pienso, luego existo”, entonces ya conoces la conclusión de esta forma de dudar.


El objetivo de este tipo de duda (planteada de Rene Descartes) es ver si podemos alcanzar algún punto de certeza absoluta. Lo primero que hace es establecer que cualquier cosa de la que pueda dudar será tomada como falsa. Por ejemplo, si alguna vez me he equivocado al pensar que algo era de un color, pero era de otro… o he confundido a una persona con otra, entonces puedo decir que mis sentidos me han engañado. Y si las capacidades de conocer que implican mis sentidos me han engañado alguna vez, entonces debo tomar como falso todo lo que me presenten mis sentidos.


¿Qué significaría realizar este tipo de duda para una herramienta como ChatGPT? Veamos. Para que este tipo de herramienta pueda funcionar necesita:


1) un modelo,

2) un proceso de entrenamiento,

3) capacidad de cómputo,

4) datos.


Si hacemos que ChatGPT dude, según la duda cartesiana, tendría que decir que no puede confiar en el modelo, puesto que se han creado modelos erróneos. Siguiendo esta línea, no podría confiar en el proceso de entrenamiento ni en la capacidad de cómputo ni en los datos.


Pero, si ChatGPT efectivamente hace esto, ¡entonces dejaría de funcionar! Por lo tanto, una herramienta que se base en un modelo, un proceso de entrenamiento, capacidad de cómputo y datos, no puede llevar a cabo la duda metódica cartesiana.


¿Qué podemos aprender de esto sí, al final del día, no requerimos que una IA tenga este tipo de dudas? Pienso que hay dos conclusiones que podemos sacar de esto:


a) Si la duda es el punto inicial para un cambio, mejora o innovación; pero la IA no puede dudar (a lo menos no de la forma planteada aquí). Entonces, si pensáramos en reemplazar a todas las personas de una empresa por una IA, la empresa si perdería algo: su capacidad de evolucionar.


b) Tomando en cuenta los elementos requeridos para que una IA pueda funcionar, podemos identificar preguntas que deberíamos hacer cuando incorporamos, por ejemplo, un modelo predictivo de Machine Learning (ML).


1) ¿Cuál es el modelo que está usando? en la actualidad existen diferentes modelos, los cuales ya han pasado a ser estándares en el mercado. Lo que podrías preguntar es cómo hacen el ajuste fino de cada modelo y cómo seleccionan cuál es el mejor modelo.


2) ¿Cuál es el proceso de entrenamiento? si bien existen prácticas estándares de entrenamiento, lo que puedes cuestionar es cómo se trabajará la parte exploratoria de los datos.


3) ¿Cuál es la capacidad de cómputo requerida? en estos días, esto no debería ser un problema para un modelo de ML, pero si lo es para los actuales LLM.


4) ¿Cuáles son los datos que estamos usando? este si es un punto crucial del cual te debes preocupar. Ten cuidado con lo siguiente. Si quieres predecir lo que pasará con las personas de tu empresa, entonces debes tener mucho cuidado en asumir que datos que no son los de tu empresa te ayudarán a tener un buen pronóstico.


Eso por hoy, estamos conversando.

8 de oct de 2025

3 min de lectura

0

11

0

Entradas relacionadas

Comentarios

Comparte lo que piensasSé el primero en escribir un comentario.
bottom of page