Cómo mejorar radicalmente las respuestas a problemas lógicos de ChatGPT

Mejora radicalmente las respuestas a los problemas lógicos proporcionados por ChatGPT de una manera muy sencilla, utilizando un método respaldado por Google DeepMind.

¿Te imaginas si ChatGPT pudiera razonar? Es decir, evaluar diferentes opciones, contrastarlas y siempre brindar la mejor respuesta. En otras palabras, si pudiera pensar de manera más similar a nosotros, los seres humanos, y así proporcionar respuestas correctas a razonamientos que son más contraintuitivos.

Aunque ChatGPT es un generador de lenguaje con una capacidad sorprendente para brindar respuestas plausibles y válidas en la mayoría de los casos, sigue siendo bastante limitado, incluso en su versión GPT-4, cuando se trata de proporcionar respuestas que requieren un razonamiento profundo o un pensamiento lateral.

Al menos eso es lo que creía hasta que leí un artículo de Google, que es absolutamente revelador. Descubrí que ya es posible hacer que ChatGPT razone de manera más profunda.

La clave siempre está en el Pro (Programa de Optimización). Hoy te voy a explicar cómo lograr que ChatGPT pase de pensar de manera lineal a tener un pensamiento arborescente, lo cual cambia completamente el juego.

Puedes ver el siguiente video de Xavier Mitjana: te recomiendo suscribirte a su excelente canal de Youtube

Índice
  1. Limitaciones de ChatGPT
  2. El Método del "Tree of Mind"
    1. Ejemplo fácil
  3. Conclusiones

Limitaciones de ChatGPT

ChatGPT, en su forma básica, no tiene la capacidad de pensar de manera compleja. Básicamente, genera respuestas plausibles de manera lineal y secuencial.

Es decir, cuando interactuamos con él, utilizamos estrategias que nos llevan desde un punto A hasta un punto B, que es esencialmente el resultado que buscamos.

Al hacerle preguntas a ChatGPT, validamos cada uno de los pasos intermedios. Si nos desviamos en algún paso incorrecto, debemos reformular la pregunta y, utilizando nuestro criterio humano, poner a ChatGPT nuevamente en el camino correcto. Si no lo hacemos, ChatGPT continuará avanzando y llegará a un resultado muy diferente al que buscamos.

En este uso habitual, ChatGPT no tiene la capacidad de validar múltiples escenarios al mismo tiempo y elegir automáticamente la mejor opción o llegar a la mejor conclusión para seguir avanzando de manera autónoma. En otras palabras, no es capaz de identificar sus propios errores a menos que se los indiquemos.

Veamos un ejemplo rápido para ilustrar esto:

Imaginemos que le planteamos a ChatGPT el siguiente problema lógico: "Pedro acaba de lavar 10 pantalones y los está secando al sol. Comprueba que tarda 10 horas en que se sequen por completo. Si hubiera lavado 7 pantalones, ¿cuánto tiempo habrían tardado en secarse?".

Estas son las dos respuestas que obtuve por parte de ChatGPT en dos conversaciones distintas:

Conversación 1:

  • ChatGPT: Tardaría 7 horas.

Conversación 2:

  • ChatGPT: También tardarían 10 horas.

Lo que podemos observar es que ChatGPT tiene la capacidad de dar la respuesta correcta, pero hacerlo depende hasta cierto punto de la aleatoriedad.

Esto se debe a que ChatGPT no considera los múltiples planteamientos lógicos desde los cuales se puede abordar una solución al mismo tiempo.

Pero, ¿qué sucedería si pudiera hacerlo? ¿Y si lograrlo dependiera solo del programa adecuado? Esta es la teoría del "Tree of Mind" que se plantea en el artículo de Google.

Cómo comenzar a usar ChatGPT

Comenzando con ChatGPT: Cómo empezar a usar la herramienta de chat con inteligencia artificial

ChatGPT es una herramienta de chat con inteligencia artificial que utiliza los modelos de lenguaje ...

Trucos para crear textos profesionales con ChatGPT: Guía completa

ChatGPT es una inteligencia artificial que te ayuda a escribir textos profesionales de manera fácil ...

El Método del "Tree of Mind"

En el artículo de Google DeepMind, explican de manera fantástica la teoría del "Tree of Mind". Cuando usamos ChatGPT de la manera más básica, simplemente le damos una solicitud y esperamos un resultado.

Como hemos visto, esto es insuficiente en la mayoría de los casos debido a las limitaciones de ChatGPT y a la dificultad de diseñar una única indicación lo suficientemente precisa como para llegar a una respuesta concluyente cuando el objetivo es un tanto complejo.

El segundo caso que se plantea en el artículo es utilizar un enfoque de "cadena de pensamientos". Básicamente, este enfoque se basa en forzar a ChatGPT a diseñar una secuencia lineal de pensamientos que le permita llegar al resultado deseado.

Por ejemplo, se puede agregar una indicación del tipo "haz esto paso a paso y explícame cada uno de los pasos". Sin embargo, este sistema tiene una gran limitación: no permite que ChatGPT corrija sus propios errores.

Si hay un error en algún punto de la cadena de pensamientos, se llegará a una respuesta incorrecta. Nosotros, como usuarios, debemos supervisar que cada uno de los pensamientos sea correcto.

Desde esta idea, y para intentar lograr que ChatGPT pueda seguir una cadena de pensamientos válida con una única indicación, Google propone otra estrategia: la "cadena de pensamientos autoconsistentes".

Esta estrategia consiste en obligar a ChatGPT a plantear varias cadenas de pensamiento independientes que lleguen a resultados diferentes, y luego elegir la opción que parezca más plausible.

Para lograr esto, podemos pedirle a ChatGPT que resuelva el problema paso a paso de tres maneras diferentes y que elija entre las diferentes soluciones la que considere más razonable.

Esto supone un avance sustancial, ya que con una única indicación ChatGPT podrá escoger entre tres posibles resultados. Sin embargo, en el proceso para llegar a cada uno de estos resultados, no tendrá en cuenta cómo las otras cadenas de pensamiento han llegado a un resultado diferente.

Estamos muy cerca de lograr que ChatGPT razone. Con una sola indicación, ahora somos capaces de que ChatGPT articule diferentes líneas de razonamiento. Solo falta que interactúen entre ellas. Y es así como se plantea la teoría del "Tree of Mind" o "pensamiento arborescente".

En este enfoque, ChatGPT evalúa automáticamente diferentes hipótesis y elige la que considera más correcta, contrastando los pensamientos de las otras cadenas en cada paso.

Es decir, ChatGPT automáticamente plantea varias hipótesis, defiende cada una de ellas, discute y consolida las mejores hasta llegar a un resultado final único.

Este enfoque se asemeja más al modo en que realmente pensamos los seres humanos y puede lograrse con la indicación adecuada.

Ejemplo fácil

Retomemos el ejemplo del secado de los pantalones y, en lugar de pedir una única respuesta, utilizaremos la siguiente indicación:

"Necesito que actúes como tres expertos en física. Cada uno de ellos planteará una hipótesis distinta sobre el resultado del siguiente problema. Es importante que cada uno plantee una línea de razonamiento completamente distinta. Cuando hayan terminado, quiero que continúen la conversación entre estos tres expertos para que contrasten los diferentes resultados y lleguen a una conclusión consensuada. Es importante que haya disposición a aceptar la posición más razonable por parte de los demás. La respuesta debe ser un número concreto de horas. Quiero que me muestres todo el proceso de la conversación en tablas, donde en cada columna veamos la intervención de cada uno de los expertos. Finalmente, propongan la respuesta consensuada como resultado final.
El problema es el siguiente: Pedro acaba de lavar pantalones, lavó 10 pares y los colgó para que se sequen al sol. Comprobó que necesitó 10 horas para que todos los pantalones estuvieran secos. Si hubiera lavado 7 pantalones, ¿cuánto tiempo habrían necesitado para secarse? Todas las condiciones ambientales se mantienen constantes e ideales.
"

Una vez que hemos dado esta indicación, la magia sucede automáticamente. ChatGPT presenta tres hipótesis: que se secan en 7 horas, que tardan 10 horas y una tercera hipótesis en la que no puede dar una respuesta concluyente.

En el siguiente paso, dentro de la misma respuesta, ChatGPT genera una tabla donde los tres físicos argumentan sus posiciones. Después de tres iteraciones, pueden llegar a una respuesta consensuada.

La respuesta consensuada es la siguiente: considerando que todas las condiciones ambientales se mantienen constantes e ideales, y que los pantalones se disponen de manera que todos estén expuestos al sol por igual, el tiempo requerido para que se sequen sería el mismo sin importar si son 7 u 10 pares.
Por lo tanto, si Pedro hubiera lavado 7 pantalones, habrían necesitado 10 horas para secarse.

En otras palabras, la respuesta correcta se obtuvo al considerar todas las opciones, incluso las incorrectas. Esto es revolucionario, ya que abre la posibilidad de diseñar un nuevo funcionamiento interno para este tipo de herramientas, similar a AutoGPT pero sin AutoGPT.

De esta manera, los modelos de generación de lenguaje podrán dar respuestas lógicas más complejas, analizando el problema de fondo de manera más profunda.

Conclusiones

En resumen, utilizando el método del "Tree of Mind", podemos optimizar drásticamente las respuestas de ChatGPT y lograr que razonen de manera más profunda y lógica.

Este enfoque permite que ChatGPT genere diferentes cadenas de pensamiento, las confronte y elija la opción más razonable, llegando así a respuestas más acertadas en problemas lógicos y contra intuitivos.

Si bien ChatGPT sigue siendo un modelo de lenguaje y no posee una capacidad de razonamiento real, este método respaldado por Google DeepMind nos acerca un paso más a la posibilidad de tener generadores de lenguaje más inteligentes y capaces de brindar respuestas más complejas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir