Ich postuliere Weizenbaums Gesetz:
Wird etwas als „Künstliche Intelligenz“ bezeichnet, dient das der Verschleierung und Verdummung.
#Chatbots – egal wie einfach oder komplex gemacht sie sind – nutzen den ELIZA-Effekt: eine Wahrnehmungsverzerrung, die Menschen dazu bringt, tendenziell zu glauben, was gut formuliert ist.
https://en.wikipedia.org/wiki/ELIZA_effect
Die fatale Tendenz, Chatbots zu anthropomorphisieren, wird verstärkt, wenn in diesem Zusammenhang von „künstlicher Intelligenz“ gesprochen wird. Wenn sie LLMs verwenden, dann sagt das und nicht „KI“.
Vielleicht ist es weniger fatal, Chatbots mit Tieren zu vergleichen. @emilymbender hat dafür „stochastische Papageien“ vorgeschlagen.
Wenn ich lese, was @lcamtuf dazu schreibt, bin ich entgegen seiner Empfehlung doch versucht, Chatbots zu vermenschlichen – als Trickbetrüger.
https://lcamtuf.substack.com/p/llms-are-better-than-you-think-at
Damit tue ich der Software natürlich unrecht. Es sind die Firmen, die LLMs so trainieren, anpassen und auf die Menschheit loslassen, die wie #Trickbetrüger agieren.
Vielleicht sollte ich das erklären. Ein großes Problem mit LLMs ist, dass sie nur sprachliches Wissen haben und darüber hinaus kein Weltwissen und keine Vorstellung von Wahr und Falasch. Darum „halluzinieren“ sie – oder auf deutsch: sie labern Scheiße. (Zu sagen, sie halluzinieren oder lügen, ist leider schon wieder eine Vermenschlichung. Sie produzieren Müll.)
Das kann ja ganz amüsant sein. Aber es gibt zu viele Leute, die das nicht wissen. Schließlich werden sie ja von verbrecherischen Firmen beworben, als seien sie weiterentwickelte #Suchmaschinen oder #Expertensysteme. Sind sie aber nicht.