Weiß nicht, gibt's nicht: Wenn GPT die Antwort nicht kennt, dann wird einfach eine erfunden. Das kannte man auch früher schon und nannte es "sicheres Auftreten bei völliger Ahnungslosigkeit". Forscher zeigen jetzt, dass je größer ein Sprachmodell wird, desto unzuverlässiger werden die Antworten. t3n |