Datenschützer der Bundesländer nehmen ChatGPT unter die Lupe

Bildagentur PantherMedia / [email protected]
ChatGPT gerät in den Fokus der Datenschützer: S"Offensichtlich sind die Risiken umfassender"

ChatGPT schürt hohe Erwartungen. Die künstliche Intelligenz schürt aber auch Ängste. Nun nehmen die Datenschützer der Bundesländer den Chatbot anscheinend genauer unter die Lupe.

Die Datenschützer der Bundesländer nehmen einem Bericht zufolge den auf künstlicher Intelligenz basierenden Text-Automaten ChatGPT genauer unter die Lupe. „Die Taskforce KI der
Datenschutzkonferenz hat das Thema übernommen
„, sagte die Vorsitzende des Gremiums, Schleswig-Holsteins Datenschützerin Marit Hansen, dem Medienhaus Table Media. „Offensichtlich sind die Risiken umfassender als „nur“ Datenschutz, sodass nicht nur Datenschutzaufsicht und Landesmedienanstalten gefordert sind, sondern auch Politik und Gesetzgebung“, sagte die Landesbeauftragte.

Fragen zur Datenschutzgrundverordnung müssen geklärt werden

Es habe schon Datenpannen bei ChatGPT gegeben, Nutzer hätten die Anfragen fremder Menschen oder auch Unterhaltungen mit ChatGPT sehen können, sagte Hansen der dpa auf Nachfrage. „Das ist deswegen besonders bedenklich, weil sich einige Nutzende dem KI-System anvertrauen und sogar intime Fragen stellen“, sagte Hansen. „Das wird dadurch begünstigt, dass ChatGPT sprachlich so auftritt wie ein angenehmer menschlicher Zeitgenosse.“ Zudem seien Fragen zur Einhaltung der Datenschutzgrundverordnung zu klären, etwa zur Verarbeitung personenbezogener Daten sowie zur Datensicherheit.

Antworten könnten manipulativ wirken

Hansen verwies zudem auf Fragen abseits des Datenschutzes, etwa wenn sich Menschen auf falsche Antworten verlassen – ein kritischer Punkt beispielsweise bei der Behandlung von Krankheiten. Zudem
könnten Antworten manipulativ wirken oder Fragen „gefärbt beantwortet“ werden. „ChatGPT ist keine verlässliche Suchmaschine! So wird das Tool aber häufig genutzt“, sagte Hansen.

In Italien wurde der Text-Automat vorläufig gesperrt. Die Datenschützer in Rom werfen dem Start-up OpenAI vor, dass es seinen Nutzern nicht mitteile, welche Informationen von ihnen gespeichert werden. Zudem habe das Unternehmen keine rechtliche Grundlage für die Sammlung und Speicherung der Daten. Darüber hinaus gebe es keine adäquaten Filter oder Sperren für Kinder unter 13 Jahren, die laut
Geschäftsbedingungen die Software ChatGPT nicht nutzen dürften.

In Italien gesperrt

 ChatGPT hat in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte. (dpa-AFX)

Weitere Artikel
Abonnieren
Benachrichtige mich bei
0 Comments
Inline Feedbacks
View all comments