digitalcourage.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
Diese Instanz wird betrieben von Digitalcourage e.V. für die Allgemeinheit. Damit wir das nachhaltig tun können, erheben wir einen jährlichen Vorausbeitrag von 1€/Monat per SEPA-Lastschrifteinzug.

Server stats:

848
active users

Ich postuliere Weizenbaums Gesetz:

Wird etwas als „Künstliche Intelligenz“ bezeichnet, dient das der Verschleierung und Verdummung.

– egal wie einfach oder komplex gemacht sie sind – nutzen den ELIZA-Effekt: eine Wahrnehmungsverzerrung, die Menschen dazu bringt, tendenziell zu glauben, was gut formuliert ist.
en.wikipedia.org/wiki/ELIZA_ef

Die fatale Tendenz, Chatbots zu anthropomorphisieren, wird verstärkt, wenn in diesem Zusammenhang von „künstlicher Intelligenz“ gesprochen wird. Wenn sie LLMs verwenden, dann sagt das und nicht „KI“.

Vielleicht ist es weniger fatal, Chatbots mit Tieren zu vergleichen. @emilymbender hat dafür „stochastische Papageien“ vorgeschlagen.

Wenn ich lese, was @lcamtuf dazu schreibt, bin ich entgegen seiner Empfehlung doch versucht, Chatbots zu vermenschlichen – als Trickbetrüger.
lcamtuf.substack.com/p/llms-ar

en.wikipedia.orgELIZA effect - Wikipedia
#Chatsbot#llm#bard

Damit tue ich der Software natürlich unrecht. Es sind die Firmen, die LLMs so trainieren, anpassen und auf die Menschheit loslassen, die wie agieren.

Christian Pietsch (old acct.)

Vielleicht sollte ich das erklären. Ein großes Problem mit LLMs ist, dass sie nur sprachliches Wissen haben und darüber hinaus kein Weltwissen und keine Vorstellung von Wahr und Falasch. Darum „halluzinieren“ sie – oder auf deutsch: sie labern Scheiße. (Zu sagen, sie halluzinieren oder lügen, ist leider schon wieder eine Vermenschlichung. Sie produzieren Müll.)

Das kann ja ganz amüsant sein. Aber es gibt zu viele Leute, die das nicht wissen. Schließlich werden sie ja von verbrecherischen Firmen beworben, als seien sie weiterentwickelte oder . Sind sie aber nicht.