Las alucinaciones de la IA: el problema de las mentiras confiadas y la solución de Stanford

Las "alucinaciones" de los LLMs son un fallo de seguridad: la IA inventa datos con total convicción. Expertos proponen forzar al modelo a dudar y verificar sus vacíos antes de responder.






