digitalcourage.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
Diese Instanz wird betrieben von Digitalcourage e.V. für die Allgemeinheit. Damit wir das nachhaltig tun können, erheben wir einen jährlichen Vorausbeitrag von 1€/Monat per SEPA-Lastschrifteinzug.

Server stats:

860
active users

Christian Pietsch (old acct.)

Ich postuliere Weizenbaums Gesetz:

Wird etwas als „Künstliche Intelligenz“ bezeichnet, dient das der Verschleierung und Verdummung.

Was in dem Vortrag von @kathrinpassig vielleicht nicht ausreichend deutlich wird, was ich aber in KI-Vorlesungen in Edinburgh und Saarbrücken gelernt habe:

– Es gab schon mehrere -Hype-Phasen. Auf diese folgten Phasen der Ernüchterung, die z.T. “AI winter” genannt wurden, weil die Forschungsgelder gestrichen wurden und niemand investieren wollte.

– Um wieder an Geld zu kommen, machten die Forschenden große Versprechungen und mystifizierten ihre Forschung mit der Überschrift „Künstliche Intelligenz“. Eine . Klartext wäre gewesen: „Gebt mir Geld, damit ich etwas bauen kann, das nicht funktioniert.“

– Irgendwann gab es wieder Geld. Die Ergebnisse waren ernüchternd, und der -Zyklus ging von vorne los.

Viele dieser Fehlinvestitionen, die Enttäuschungen und die falschen Vorstellungen in der Bevölkerung über „KI“ blieben uns erspart, wenn sich alle an die von Kathrin Passig ergänzten Empfehlungen von Emily Tucker halten würden:
techpolicy.press/artifice-and-

Tech Policy PressArtifice and IntelligenceEmily Tucker, Executive Director of the Center on Privacy & Technology at Georgetown Law, on tech, vocabulary and power.

– egal wie einfach oder komplex gemacht sie sind – nutzen den ELIZA-Effekt: eine Wahrnehmungsverzerrung, die Menschen dazu bringt, tendenziell zu glauben, was gut formuliert ist.
en.wikipedia.org/wiki/ELIZA_ef

Die fatale Tendenz, Chatbots zu anthropomorphisieren, wird verstärkt, wenn in diesem Zusammenhang von „künstlicher Intelligenz“ gesprochen wird. Wenn sie LLMs verwenden, dann sagt das und nicht „KI“.

Vielleicht ist es weniger fatal, Chatbots mit Tieren zu vergleichen. @emilymbender hat dafür „stochastische Papageien“ vorgeschlagen.

Wenn ich lese, was @lcamtuf dazu schreibt, bin ich entgegen seiner Empfehlung doch versucht, Chatbots zu vermenschlichen – als Trickbetrüger.
lcamtuf.substack.com/p/llms-ar

en.wikipedia.orgELIZA effect - Wikipedia
#Chatsbot#llm#bard

Damit tue ich der Software natürlich unrecht. Es sind die Firmen, die LLMs so trainieren, anpassen und auf die Menschheit loslassen, die wie agieren.

Vielleicht sollte ich das erklären. Ein großes Problem mit LLMs ist, dass sie nur sprachliches Wissen haben und darüber hinaus kein Weltwissen und keine Vorstellung von Wahr und Falasch. Darum „halluzinieren“ sie – oder auf deutsch: sie labern Scheiße. (Zu sagen, sie halluzinieren oder lügen, ist leider schon wieder eine Vermenschlichung. Sie produzieren Müll.)

Das kann ja ganz amüsant sein. Aber es gibt zu viele Leute, die das nicht wissen. Schließlich werden sie ja von verbrecherischen Firmen beworben, als seien sie weiterentwickelte oder . Sind sie aber nicht.

@chpietsch Ja kaum ist der Streik vorbei wird hier schon wieder Post- uliert. 😎

@brunoleuschner

Die dümmliche Art, mit der üblicherweise über clever programmierte IT-Systeme berichtet wird, führt zu einer Verblödung, die über die natürliche Dummheit hinausgeht.

Ich empfehle dazu diesen Vortrag von @kathrinpassig:
tube.xn--baw-joa.social/videos

@chpietsch Meine ganz persönliche Heuristik jede AI/KI an ihre Grenze zu bringen: Nach der zweit- oder drittbesten Lösung zu fragen und diese auch begründet zu erhalten. Ein Optimum, gerade bei statistischen Modellen, das kann jeder 😉

@TheTomas Es gibt keine KI/AI :-)

Aber du erinnerst mich an etwas, das ein KI-Dozent von mir an der Uni Edinburgh gern sagte: Künstliche neuronale Netze (heute sagt man “deep learning”) sind das zweitbeste »Machine Learning«-Verfahren für jeden Zweck. Das allerbeste Verfahren ist von Fall zu Fall ein anderes.

Was damals (und leider zu oft auch heute) kaum bedacht wurde: Bei der Auswahl des Verfahrens sollte es eine wichtige Rolle spielen, wie gut das System seine Ergebnisse erklären kann. Das Ziel ist nachvollziehbare »KI« ( statt ).

@chpietsch

Es ist auch ein geschickter psychologischer Schachzug (z.B. von ChatGPT), den Antworttext nicht ad hoc anzuzeigen, sondern sich - wie von einem Wesen geschrieben - nach und nach aufbauen zu lassen. Das macht das Ganze auch erheblich menschlicher. ...

@emilymbender @lcamtuf

@chpietsch Solange alle Medien von KI reden und nicht von LLM ist es für Frau Mustermann der denkende, fühlende Computer.

Aber KI verkauft sich besser als LLM.

@chpietsch

Seit Thilo Sarrazins "Intelligenzgen" (beschrieben im Buch "Deutschland schafft sich ab") stehe ich eh dem Terminus "Intelligenz" seeehhhr kritisch gegenüber.