Un estudio ha revelado que las últimas versiones de ChatGPT, como o3 y o4-mini, cometen errores en sus respuestas con el doble de frecuencia en comparación con el modelo anterior o3-mini. Estos errores, conocidos como “alucinaciones”, son información incorrecta que la IA proporciona con confianza.
Las pruebas que evalúan el conocimiento de ChatGPT sobre personas revelaron que o3 comete errores en el 33% de los casos, y o4-mini en el 43%. En comparación, o3-mini solo cometía errores en el 15% de los casos.
Otra prueba demostró que o3 puede inventar sus propias acciones, por ejemplo, afirmar que realiza acciones que en realidad son imposibles dentro de ChatGPT.
Los desarrolladores creen que proporcionar a la IA acceso a la búsqueda web podría ayudar a reducir la cantidad de alucinaciones, como ya ocurrió con el modelo o4 no razonante.