Bei der #Edunautika (= ein Barcamp zu guter Bldung im digitalen wandel in Hamburg am 17./18. Juni) möchte ich gerne eine Session anbieten zum Thema: (Warum) sollten wir als Pädagog*innen Lernenden nichts beibringen, das Maschinen besser können? Und was heißt das konkret?
Habt ihr zu dieser Frage Meinungen, Ideen oder Fragen, die aus Eurer Sicht mit in die Diskussion einfließen sollten.
Mit Verlaub: Ich habe selten eine so schlechte Idee gehört.
Beim Einsatz von Maschinen ist es wichtig zu verstehen, wie sie funktionieren. Natürlich auch bei Konstruktion, Herstellung und Reparatur.
Das gilt auch bei der Benutzung von Computern. Wenn die nur als Black boxes gesehen werden, ist eine mündige Nutzung unmöglich.
Wir dürfen nicht zulassen, dass Computer uns die Entscheidungen abnehmen. Ich traue keiner Software, die ihre Ergebnisse nicht begründen kann. Manche Machine-Learning-Verfahren (explainable #AI, #XAI) können das, andere nicht.
Dafür hat mir Martin Rost <https://maroki.de> die Augen geöffnet. Zum Einstieg empfehle ich seinen Heise-Artikel
https://www.heise.de/hintergrund/Kuenstliche-Intelligenz-trifft-Datenschutz-4337027.html
„Zudem muss eine Organisation vermeiden, Personen zu Objekten von (KI-)Automaten zu machen, weil es dann sogar gänzlich an der Legitimation für eine Datenverarbeitung fehlt. Eine Konstellation, die aus Subjekten Objekte macht, ist nicht grundrechtskonform und einwilligungsfähig.“
#KünstlicheIntelligenz
@chpietsch
Ich sehe den Widerspruch nicht.
Wie Maschinen funktionieren und das einschätzen/ abwägen/ hinterfragen zu können, sind doch genau Aspekte, die Maschinen nicht besser können - und die deshalb unbedingt gelehrt und gelernt werden müssen.
Zumindest wäre das ein Teil meiner Antwort auf die Frage.
Den Text werde ich mir ansehen. Danke dafür!