Ich postuliere Weizenbaums Gesetz:
Wird etwas als „Künstliche Intelligenz“ bezeichnet, dient das der Verschleierung und Verdummung.
Zur Erläuterung empfehle ich Kathrin Passigs Vortrag: https://tube.xn--baw-joa.social/videos/watch/1c464828-a83e-4ff9-b264-197ba7968204
Was in dem Vortrag von @kathrinpassig vielleicht nicht ausreichend deutlich wird, was ich aber in KI-Vorlesungen in Edinburgh und Saarbrücken gelernt habe:
– Es gab schon mehrere #AI-Hype-Phasen. Auf diese folgten Phasen der Ernüchterung, die z.T. “AI winter” genannt wurden, weil die Forschungsgelder gestrichen wurden und niemand investieren wollte.
– Um wieder an Geld zu kommen, machten die Forschenden große Versprechungen und mystifizierten ihre Forschung mit der Überschrift „Künstliche Intelligenz“. Eine #Nebelkerze. Klartext wäre gewesen: „Gebt mir Geld, damit ich etwas bauen kann, das nicht funktioniert.“
– Irgendwann gab es wieder Geld. Die Ergebnisse waren ernüchternd, und der #Hype-Zyklus ging von vorne los.
Viele dieser Fehlinvestitionen, die Enttäuschungen und die falschen Vorstellungen in der Bevölkerung über „KI“ blieben uns erspart, wenn sich alle an die von Kathrin Passig ergänzten Empfehlungen von Emily Tucker halten würden:
https://techpolicy.press/artifice-and-intelligence
#Chatbots – egal wie einfach oder komplex gemacht sie sind – nutzen den ELIZA-Effekt: eine Wahrnehmungsverzerrung, die Menschen dazu bringt, tendenziell zu glauben, was gut formuliert ist.
https://en.wikipedia.org/wiki/ELIZA_effect
Die fatale Tendenz, Chatbots zu anthropomorphisieren, wird verstärkt, wenn in diesem Zusammenhang von „künstlicher Intelligenz“ gesprochen wird. Wenn sie LLMs verwenden, dann sagt das und nicht „KI“.
Vielleicht ist es weniger fatal, Chatbots mit Tieren zu vergleichen. @emilymbender hat dafür „stochastische Papageien“ vorgeschlagen.
Wenn ich lese, was @lcamtuf dazu schreibt, bin ich entgegen seiner Empfehlung doch versucht, Chatbots zu vermenschlichen – als Trickbetrüger.
https://lcamtuf.substack.com/p/llms-are-better-than-you-think-at
Damit tue ich der Software natürlich unrecht. Es sind die Firmen, die LLMs so trainieren, anpassen und auf die Menschheit loslassen, die wie #Trickbetrüger agieren.
Vielleicht sollte ich das erklären. Ein großes Problem mit LLMs ist, dass sie nur sprachliches Wissen haben und darüber hinaus kein Weltwissen und keine Vorstellung von Wahr und Falasch. Darum „halluzinieren“ sie – oder auf deutsch: sie labern Scheiße. (Zu sagen, sie halluzinieren oder lügen, ist leider schon wieder eine Vermenschlichung. Sie produzieren Müll.)
Das kann ja ganz amüsant sein. Aber es gibt zu viele Leute, die das nicht wissen. Schließlich werden sie ja von verbrecherischen Firmen beworben, als seien sie weiterentwickelte #Suchmaschinen oder #Expertensysteme. Sind sie aber nicht.
@chpietsch Ja kaum ist der Streik vorbei wird hier schon wieder Post- uliert.
@chpietsch
Natürliche Dummheit
Die dümmliche Art, mit der üblicherweise über clever programmierte IT-Systeme berichtet wird, führt zu einer Verblödung, die über die natürliche Dummheit hinausgeht.
Ich empfehle dazu diesen Vortrag von @kathrinpassig:
https://tube.xn--baw-joa.social/videos/watch/1c464828-a83e-4ff9-b264-197ba7968204
@chpietsch Meine ganz persönliche Heuristik jede AI/KI an ihre Grenze zu bringen: Nach der zweit- oder drittbesten Lösung zu fragen und diese auch begründet zu erhalten. Ein Optimum, gerade bei statistischen Modellen, das kann jeder
@TheTomas Es gibt keine KI/AI :-)
Aber du erinnerst mich an etwas, das ein KI-Dozent von mir an der Uni Edinburgh gern sagte: Künstliche neuronale Netze (heute sagt man “deep learning”) sind das zweitbeste »Machine Learning«-Verfahren für jeden Zweck. Das allerbeste Verfahren ist von Fall zu Fall ein anderes.
Was damals (und leider zu oft auch heute) kaum bedacht wurde: Bei der Auswahl des Verfahrens sollte es eine wichtige Rolle spielen, wie gut das System seine Ergebnisse erklären kann. Das Ziel ist nachvollziehbare »KI« (#explainableAI statt #blackBoxAI).
@chpietsch Oh passend zum Stichwort #blackBoxAI:
https://www.vice.com/en/article/epzyva/ai-chatgpt-tokens-words-break-reddit
Es ist auch ein geschickter psychologischer Schachzug (z.B. von ChatGPT), den Antworttext nicht ad hoc anzuzeigen, sondern sich - wie von einem Wesen geschrieben - nach und nach aufbauen zu lassen. Das macht das Ganze auch erheblich menschlicher. ...
@chpietsch Solange alle Medien von KI reden und nicht von LLM ist es für Frau Mustermann der denkende, fühlende Computer.
Aber KI verkauft sich besser als LLM.
@chpietsch kann ich so unterschreiben
@chpietsch
Ist das der Weizenbaum? Es gibt noch einen anderen. Seinen Bruder, auch Informatiker.
Seit Thilo Sarrazins "Intelligenzgen" (beschrieben im Buch "Deutschland schafft sich ab") stehe ich eh dem Terminus "Intelligenz" seeehhhr kritisch gegenüber.