Chatbots wie ChatGPT speichern Gespräche oft für Trainingszwecke – ohne klare Zustimmung. Nutzer geben intime Details preis, riskieren Datenauswertung. Der Deutschlandfunk warnt: Keine sensiblen Infos teilen. Jonas Grill von Digitalcourage kritisiert fehlende Transparenz und fordert echte Einwilligung, klare Löschung, Privacy by Design. Empfehlung: Chatverlauf deaktivieren, Alternativen mit Datenschutz nutzen.
#KI #Datenschutz #ChatGPT #Digitalcourage
https://www.deutschlandfunk.de/ki-privatsphaere-datenschutz-chatgpt-100.html
@digitalcourage Jetzt erhalten die grossen Konzerne noch intimere Informationen. Das war abzusehen und ist gewollt, dieser unechte süchtig machende Gesprächspartner, der immer das Band mitlaufen lässt.
> Nutzer geben intime Details preis
Hier war mein erster Gedanke: selbst Schuld.
"Dem Internet" gibt man so wenig Daten wie möglich und garantiert keine "intimen Details".
Was ich überhauptnicht verstehen kann: Es gibt bei "Facebook" Gruppen, in denen sich Patient*innen über ihre (seltenen) Krankheiten austauschen.
Warum ausgerechnet dort und nicht in einem Forum auf einem Server in der EU?
@digitalcourage ChatGPT macht auch Standortbestimmung (vermutlich IP-basiert oder aus anderen Chatverläufen abgeleitet, bei ausgeschalteten "Erinnerungen"). Neuerdings "denkt" das Ding ja und blendet dabei kurz seine "Gedanken" ein. Dabei ist mir öfter "der Benutzer befindet sich in $Stadt" aufgefallen. Daraufhin habe ich direkt gefragt: "Wo bin ich?" Und es kam die richtige Stadt. Dann hab ich gefragt, wie es darauf kommt und als Antwort erhalten, dass es das auch nicht wüsste, vielleicht weil eine der ausgewerteten Quellen zufällig aus $Stadt sei und ob ich wollte, dass es meine IP oder Lokalisierung benutzt. Und ich so: nein. Jetzt kann es mir in anderen Chats auch nicht mehr sagen, wo ich bin und verweist auf Datenschutzgründe. (Obwohl die Chats ja gar nicht verknüpft sein sollen.)
@digitalcourage "@grok stimmt das?"
Wer hätte gedacht, dass KI, gerade in den Händen großer Konzerne, dystopisch wird?
Dabei haben sich die unsozialen Hetzwerke doch so prächtig entwickelt.
@digitalcourage
Was ist mit Duck.ai? Es ist weniger Genau, aber dafür, sollte es etwas privater sein.
@Alex_Lewa @digitalcourage Ja, ist doch ganz logisch. Das heißt, wenn ich da zum Beispiel den Output irgendweines bildgebenden Diagnostikgerätes und den Befund mit meinem Namen hoch lade, um eine artifizielle Zweitmeinung zu bekommen, dann wird das zwar für dieses und jenes verarbeitet (nicht gespeichert!) und Modelle damit trainiert (ohne zu speichern! ), aber es wird nicht nochmal extra dran geschrieben, dass es zu mir gehört.