Tecnología

Ariucinaciones de AI: ¿Por qué ChatGPT y otros chatbots continúan dando respuestas inventadas? | TECNOLOGÍA – El boletin Peruano

De la popularización de chatgpt y otros chatbots de inteligencia artificialEsta tecnología ha sido masificada y evolucionada rápidamente. Sin embargo, a pesar de sus avances, aún no puede superar un problema clave: alucinaciones, esos momentos en que IA genera respuestas falsas con tal seguridad que podrían pasar por la verdad.

Uno reciente OpenAI – Desarrollador de ChatGPT – argumenta que estas alucinaciones no pueden eliminarse por completo en los sistemas actuales. La razón está en los modelos de evaluación, que priorizan la precisión por encima del reconocimiento de la incertidumbre.

MIRAR: Operai y el suicidio preocupante de un menor: cómo usar y qué protocolos deben seguir un asistente de IA

«Parte del problema es que las metodologías de evaluación actuales crean el incentivo incorrecto: los modelos, cuando se evalúan solo por precisión, tienden a adivinar antes de admitir ‘no sé'»La compañía señala. «Es como un examen de opción múltiple: si no sabe la respuesta, adivinar puede darle un éxito de éxito, mientras lo deja en blanco garantiza cero puntos».

El informe agrega que, aunque los modelos se reproducen con ortografía de coherencia o reglas de sintaxis, no pueden inferirse con los hechos de certeza raros de los patrones estadísticos. Por lo tanto, incluso con una precisión del 100% en las pruebas, siempre habrá preguntas sin una respuesta clara y, en consecuencia, al margen de alucinaciones.

Sin embargo, Openai asegura que estos no sean inevitables. Una forma de solución sería modificar la forma de evaluar: «Una solución clara es penalizar los errores cometidos con confianza en lugar de incertidumbre. Además, se debe otorgar crédito parcial cuando el modelo expresa dudas»concluye la investigación.