Das von Microsoft unterstützte Startup OpenAI sah sich am Montag einer Datenschutzbeschwerde der Interessengruppe NOYB ausgesetzt, weil es angeblich falsche Informationen, die von seinem generativen KI-Chatbot ChatGPT geliefert wurden, nicht korrigiert hat, was möglicherweise gegen die EU-Datenschutzbestimmungen verstößt.

ChatGPT, der Ende 2022 den GenAI-Boom auslöste, kann menschliche Konversation imitieren und Aufgaben wie das Erstellen von Zusammenfassungen langer Texte, das Schreiben von Gedichten und sogar das Generieren von Ideen für eine Mottoparty übernehmen.

NOYB sagte, dass der Beschwerdeführer in seinem Fall, der auch eine Person des öffentlichen Lebens ist, ChatGPT nach seinem Geburtstag fragte und wiederholt falsche Informationen erhielt, anstatt dass der Chatbot den Nutzern mitteilte, dass er nicht über die notwendigen Daten verfügt.

Die Gruppe sagte, dass OpenAI die Bitte des Beschwerdeführers, die Daten zu berichtigen oder zu löschen, mit der Begründung ablehnte, dass es nicht möglich sei, die Daten zu korrigieren und dass es außerdem versäumt habe, Informationen über die verarbeiteten Daten, ihre Quellen oder Empfänger offenzulegen.

NOYB teilte mit, dass es eine Beschwerde bei der österreichischen Datenschutzbehörde eingereicht hat, in der es diese auffordert, die Datenverarbeitung von OpenAI und die Maßnahmen zu untersuchen, die getroffen wurden, um die Richtigkeit der von den großen Sprachmodellen des Unternehmens verarbeiteten personenbezogenen Daten sicherzustellen.

"Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT mit dem EU-Recht in Einklang zu bringen, wenn sie Daten über Personen verarbeiten", sagte Maartje de Graaf, NOYB-Datenschutzanwältin, in einer Erklärung.

"Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht dazu verwendet werden, Daten über Einzelpersonen zu generieren. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt", sagte sie.

In der Vergangenheit hat OpenAI eingeräumt, dass das Tool dazu neigt, mit "plausibel klingenden, aber falschen oder unsinnigen Antworten" zu antworten, ein Problem, das es zu beheben gilt.