¿ChatGPT estaba embrujado? Sus respuestas sin sentido ya tienen una explicación

0
56

ESTADOS UNIDOS.- Durante varias horas, la inteligencia artificial de OpenAI estuvo emitiendo respuestas sin sentido. A través de redes sociales, usuarios compartieron cómo ChatGPT brindaba respuestas con poca coherencia, además que mezclaba idiomas.

Los usuarios señalaron que este era un comportamiento extraño para la IA y esperaban que OpenAI solucionara el problema pronto.

“Aparentemente ChatGPT se está descarrilando en este momento y nadie puede explicar por qué”, contó un usuario a través de la plataforma de X y compartió imágenes en donde se podía apreciar que las respuestas del chatbot eran bastante extrañas.

Una vez que las quejas comenzaron, OpenAI dio a conocer que estaban “investigando informes de respuestas inesperadas de ChatGPT”, sin embargo, no dio más detalles de por qué ocurrían estos problemas. Hasta ahora.

A través de un comunicado, OpenAI explicó que los problemas presentados en el chatbot surgieron debido a “una optimización de la experiencia del usuario”, la cual introdujo un “error en la forma en la que el modelo procesa el lenguaje”.

De acuerdo con la compañía de Sam Altman, ChatGPT “genera respuestas mediante un muestreo aleatorio de palabras basado en probabilidades. Su ‘lenguaje’ consiste en números que se asignan a tokens”

En el proceso, el modelo comenzó a presentar errores pues elegía números “ligeramente incorrectos”, lo cual provocaba que ChatGPT emitiera palabras sin sentido.

Una vez que OpenAI detectó el error que presentaba el chatbot resolvieron el asunto, por lo que ahora la compañía confirma que no existen más incidentes en su modelo. Sin embargo, seguirán monitoreando las respuestas del chatbot para evitar otro problema de este tipo.

Todo parece indicar que el problema solo afectaba a usuarios que utilizan ChatGPT en su versión plus (basado en GPT-4).

En 2021, expertos en modelos de inteligencia artificial, designaron el término “loros estocásticos” a IA que imita el lenguaje con base en patrones estadísticos de datos. Este sistema, no le permite al modelo comprender el significado real de sus respuestas, por lo que es obvio que no se dará cuenta por sí solo cuando esta sea incorrecta.

En un estudio titulado “Sobre los peligros de los loros estocásticos: ¿pueden los modelos lingüísticos ser demasiado grandes?”, la experta en inteligencia artificial, Timnit Gebru, explica los peligros que podrían causar las respuestas incorrectas de los modelos de IA y el impacto que podría generar en diversos sectores.

Y aunque el problema que presentó ChatGPT no fue “grave”, es un claro ejemplo del cuidado que se debe tener con los “loros estocásticos”.

Mantente informado las 24 horas, los 7 días de la semana. Da click en el enlace y descarga nuestra App!