
La última versión de ChatGPT ha sido presentada con una afirmación ambiciosa: su capacidad de razonamiento alcanzaría el nivel de un doctorado en múltiples áreas del conocimiento. La idea de una inteligencia artificial con habilidades equivalentes a las de un investigador experto despierta expectativas y temores a partes iguales. Sin embargo, las pruebas iniciales revelan que la realidad es más compleja.
Promesas frente a limitaciones
De acuerdo con la información difundida, el modelo ha mejorado en tareas de lógica, resolución de problemas complejos y generación de contenido especializado. Puede redactar ensayos de nivel académico, resumir investigaciones con rigor técnico e incluso resolver problemas avanzados de matemáticas. Pero junto a estas capacidades, surgen ejemplos que evidencian sus fallas básicas, como la imposibilidad de etiquetar correctamente un mapa o cometer errores en tareas visuales elementales.
¿Qué significa “inteligencia de doctorado”?
El término ha generado controversia entre expertos en inteligencia artificial. Para algunos, medir la inteligencia de un modelo en comparación con un grado académico humano es una simplificación arriesgada: un doctorado implica no solo conocimiento profundo, sino también creatividad, pensamiento crítico y experiencia práctica, cualidades que aún resultan difíciles de emular en máquinas.
La paradoja de la IA
El caso de ChatGPT muestra una paradoja recurrente: la IA puede resolver problemas complejos en contextos abstractos, pero falla en tareas que para los humanos resultan intuitivas y cotidianas. Esta brecha plantea interrogantes sobre la verdadera naturaleza de la “inteligencia” artificial y hasta qué punto es comparable con la humana.
Impacto social y expectativas
Más allá de las comparaciones académicas, lo relevante es cómo estas herramientas transforman la vida diaria. Empresas, universidades y gobiernos ya utilizan ChatGPT para automatizar procesos, analizar datos o generar contenido. No obstante, las fallas prácticas generan dudas sobre su fiabilidad en entornos críticos como la educación, la salud o la justicia.
La opinión de los especialistas
Investigadores en ética y desarrollo de IA advierten sobre el riesgo de “sobrevender” las capacidades del modelo. La narrativa del “doctorado” puede generar una confianza excesiva en sus respuestas, sin considerar que aún puede cometer errores graves o producir información engañosa si no se supervisa.
La última versión de ChatGPT representa un avance notable en el desarrollo de la inteligencia artificial, pero también recuerda que no estamos frente a una mente humana. Sus fallas muestran que la IA, por sofisticada que sea, sigue siendo una herramienta dependiente de los datos con los que fue entrenada y de los límites de su programación.
En lugar de preguntarnos si ChatGPT “piensa como un doctorado”, la verdadera cuestión es cómo aprovechar sus capacidades sin caer en la ilusión de que reemplaza al conocimiento humano.
También puedes leer: Ocho tecnologías que están cambiando la lucha contra la contaminación












