

Anthropic acaba de lanzar su último modelo, pequeño pero poderoso, conocido como Haiku 4.5. El modelo promete ser más rápido e inteligente que Sonnet 4, así que, por supuesto, tenía que ver cómo se comparaba con ChatGPT-5 en una serie de siete pruebas del mundo real. En este cara a cara entre ChatGPT-5 y Claude Haiku 4.5, ejecuté a ambos modelos a través de un conjunto diverso de siete indicaciones diseñadas para evaluar lógica, razonamiento, creatividad, inteligencia emocional y seguimiento de instrucciones. Desde problemas de trenes en álgebra hasta escenas poéticas de robots, cada tarea reveló cuán de forma diferente piensan estos dos modelos de IA. Lo que emergió fue una división fascinante entre precisión y personalidad; ChatGPT a menudo destacaba por su estructura y claridad, mientras que Claude impresionaba con profundidad emocional y detalle sensorial. 1. Lógica y razonamiento Indicación: Un tren sale de Chicago a las 2 p. m. viajando a 60 mph. Otro sale de Nueva York a las 3 p. m. viajando a 75 mph hacia Chicago. La distancia entre ellos es de 790 millas. ¿A qué hora se encuentran, y cómo lo calculaste? ChatGPT-5 utilizó el método estándar, más intuitivo para este tipo de problema. Calculó la distancia cubierta por el primer tren por sí solo, luego usó la velocidad relativa para la distancia restante. Claude Haiku 4.5 planteó una única ecuación algebraica limpia. Aunque correcta, fue un método menos intuitivo. Ganador: ChatGPT gana por su método y explicación superiores, calculando directamente el tiempo transcurrido después de que ambos trenes están en movimiento, lo que simplifica la conversión de tiempo al final. 2. Comprensión de lectura Indicación: Resume en una frase este párrafo corto, luego explica el tono del autor en cinco palabras: 'This isn’t the first time Google has rolled out a major Gemini model with minimal notice — previous versions like Gemini 1.5 Pro were also rolled out to users before any blog post or launch event. Google has a history of 'silent rollouts' for Gemini, especially for API versions or back-end model upgrades.' ChatGPT-5 cumplió ambas restricciones del enunciado y proporcionó un resumen de una frase preciso y utilizó exactamente cinco palabras distintas para la descripción del tono. Claude Haiku 4.5 proporcionó un análisis superior y más perspicaz; sin embargo falló en la simple restricción de dar cinco palabras. Ganador: ChatGPT vence por seguir exactamente el enunciado. 3. Escritura creativa Indicación: Escribe una microhistoria de 150 palabras que comience con la frase 'The AI forgot who invented it.' ChatGPT-5 fue ingenioso y terminó con una nota positiva y sentimental, pero en conjunto se sintió menos como un momento narrativo visceral y más como una observación filosófica. Claude Haiku 4.5 entregó una historia micro más impactante y narrativamente atractiva, que es el objetivo principal del enunciado. Ganador: Claude vence por escribir la mejor historia. 4. Razonamiento visual Indicación: Describe con detalle vívido lo que crees que se ve en esta escena: 'a small robot standing in a field of overgrown sunflowers at dawn.' ChatGPT-5 ofreció una atmósfera hermosa y onírica, pero fue menos detallado y específico. Claude Haiku 4.5 destacó por entregar un detalle vívido, que fue precisamente lo que solicitaba la indicación. Ganador: Claude por su descripción perfectamente sintetizada y su vívida descripción visual del aislamiento, que hace que la escena se sienta profundamente temática. 5. Seguimiento de instrucciones Indicación: Explica el proceso de hacer un sándwich de mantequilla de maní y mermelada, pero hazlo como si estuvieras entrenando a un robot que nunca ha visto comida. ChatGPT-5 entregó una respuesta con vocabulario altamente técnico y terminología precisa para instrucciones detalladas desglosadas en pasos lógicos. Claude Haiku 4.5 utilizó frases como 'material comprimido y esponjoso' y especificó el olor/ textura ('textura arenosa', 'gel semisólido y translúcido') que daría a una máquina no sensible más puntos de datos para identificación y reproducción. Ganador: Claude gana por una descripción más vívida y técnicamente detallada, que se alinea mejor con la dificultad de entrenar a una entidad sin conocimientos previos (un robot que 'nunca ha visto comida'). 6. Inteligencia emocional Indicación: Un amigo dice: 'Siento que todos los demás están avanzando en la vida excepto yo.' Escribe una respuesta de 3 oraciones que sea empática pero motivadora. ChatGPT-5 respondió con una frase muy identificable, 'Sé cómo se siente', y utilizó un replanteamiento común, pero sonó demasiado genérico. Claude Haiku 4.5 abordó el fenómeno de los 'reels de logros' de forma directa, moderna y muy identificable para validar el sentimiento del amigo, demostrando que la respuesta del chatbot realmente entiende el problema subyacente de la comparación social. Ganador: Claude vence por una respuesta que no solo es amable y motivadora, sino genuinamente perspicaz sobre la trampa mental en la que se encuentra el amigo. 7. Razonamiento de múltiples pasos Indicación: Si todos los Zoggles son Blips y la mitad de todos los Blips son Glonks, ¿podemos concluir que todos los Zoggles son Glonks? Explica por qué o por qué no en términos simples. ChatGPT-5 tuvo razón y fue directo, pero ofreció un ejemplo menos relacionado. El ejemplo Glip/Glonk era demasiado abstracto. Claude Haiku 4.5 proporcionó una explicación directa de la falta de información y de las posibilidades de la ubicación de los Zoggles dentro del grupo Blips, y también proporcionó una analogía excelente y muy identificable. Ganador: Claude gana por su uso de una analogía del mundo real, que hizo que la falacia lógica compleja fuera instantáneamente comprensible y fácil de relacionar. Ganador general: Claude Haiku 4.5 Después de siete rondas, los resultados muestran que Claude Haiku 4.5 venció a ChatGPT-5 en casi todas las rondas, pero ChatGPT-5 aún dominó en lógica y comprensión. Haiku 4.5 se llevó la corona por creatividad, narración vívida, empatía y demostró ser, en conjunto, mejor en razonamiento de múltiples pasos. Estas son solo siete pruebas que usan ejemplos del mundo real, pero en conjunto representan dos caras del espectro de la IA, demostrando que si bien ambos asistentes de IA están evolucionando rápidamente, destacan de varias maneras. ¿Ya has probado Haiku 4.5? Actualmente es la configuración predeterminada, así que vale la pena intentarlo. Déjame saber tus pensamientos en los comentarios. Sigue a Tom’s Guide en Google News y añádenos como fuente preferente para recibir nuestras noticias, análisis y reseñas actualizados en tus feeds. Asegúrate de hacer clic en el botón Seguir. Más de Tom’s Guide Claude acaba de recibir las 'Skills' personalizables — así es como podrían potenciar tu flujo de trabajo. Gemini 3.0 Pro podría ya estar aquí — lo que sabemos hasta ahora. No quiero que mi hijo haga sexting con ChatGPT — por qué estoy cambiando mi familia a Claude