Antwort #49: September 27, 2025, 13:09:05
Benchmarks, an denen Modelle trainiert und verglichen werden, bestrafen Unsicherheit fast immer. In neun von zehn untersuchten Tests gibt es null Punkte für "Ich weiß es nicht". Ein Modell, das ehrlich abbricht, steht also schlechter da als eines, das selbstbewusst Falsches behauptet.
...
Als Ausweg schlagen sie explizite Vertrauensgrenzen vor: KIs sollen nur dann antworten, wenn ihre Wahrscheinlichkeit für Richtigkeit über einem Schwellenwert liegt. Damit ließe sich die Zahl falscher Antworten deutlich senken. Doch die Nebenwirkungen wären massiv: Chatbots müssten in bis zu 30 Prozent der Fälle passen - für viele Nutzer kaum akzeptabel:
https://winfuture.de/news,153872.html