Tras el boom inicial de ChatGPT, que ya cumplió un año de estar a disposición del público, los usuarios más frecuentes están alertando por un nuevo problema en el funcionamiento del bot de inteligencia artificial.
Según vienen señalando muchos mensajes en las redes sociales en los últimos días, ChatGPT se habría vuelto «perezoso» al momento de generar sus respuestas. Esto quiere decir que devuelve textos con apreciaciones generales, faltas de precisión y datos concretos, y más cortas de lo que solían ser antes.
Las redes sociales Reddit y X son los lugares donde se concentran la mayor parte de las quejas acerca de ChatGPT. Hay que recordar que si bien es un servicio que se puede utilizar de manera gratuita, su versión más avanzada (que usa el motor de IA GPT-4) es paga. Esto hace que los usuarios sean cada vez más exigentes, dado que esperan que la inteligencia artificial sea una herramienta que los ayude a resolver problemas y trabajos cotidianos.
Insolito: ¿ChatGPT quiere que le den propina?
Ante las débiles respuestas de ChatGPT, varios de sus usuarios buscaron la forma de incentivar a la inteligencia artificial para que mejorase los resultados. Por ejemplo, programadores descubrieron que, si proponían a la IA darle una propina, obtenían resultados mejores, más largos y más detallados.
En esa misma línea, otros usuarios advirtieron a ChatGPT que debía esforzarse en sus respuestas porque «100 abuelas morirían si fallaba» y uno hasta le indicó a la IA que no tenía dedos para escribir. Esto bastó para obtener una devolución más precisa y extensa de parte del chatbot.
Sin embargo, la recomendación más común para obtener buenos resultados en ChatGPT es, como siempre, ingresar instrucciones (prompts) lo más precisas posibles.
ChatGPT «Perezoso»: Que dijeron sus creadores
Ante las numerosas quejas, llegó una declaración de OpenAI, la empresa creadora de ChatGPT. Mediante un mensaje en la red X, dijo: «Hemos escuchado todos sus comentarios acerca de que GPT-4 se está volviendo más perezoso. No hemos actualizado el modelo desde el 11 de noviembre y ciertamente esto no es intencional. El comportamiento del modelo puede ser impredecible y estamos buscando solucionarlo».
Además, desde la compañía afirmaron que están continuamente evaluando mejoras, pero que no se trata de un proceso simple. «Diferentes ejercicios de entrenamiento, incluso utilizando la misma información, pueden producir modelos notablemente diferentes», dijeron. Y detallaron que eso arroja resultados con «distinta personalidad, estilo de escritura, comportamiento de rechazo, evaluación del rendimiento e incluso sesgos políticos marcados, algo que no se desea en absoluto al momento de crear una inteligencia artificial de uso masivo».
Publicado originalmente en el Diario de la Ciudad