Das gut besuchte 3. Hamburger Datenschutzforum, das am 7. Mai in der Handelskammer Hamburg stattfand, beleuchtete die Auswirkungen von Künstlicher Intelligenz auf den Datenschutz. Veranstalter waren die Hamburger Datenschutzgesellschaft e.V., die Hamburgische Datenschutzbehörde (HmbBfDI) und die Handelskammer Hamburg. Christian Graf, der Chefjustiziar der Handelskammer, begrüßte die Anwesenden; Philipp Kramer, Vorsitzender der Hamburger Datenschutzgesellschaft, und Carolin Monsees von Taylor Wessing führten durch das Programm.
Thomas Fuchs, der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit, eröffnete mit einem Vortrag zum Verhältnis der Datenschutz-Grundverordnung zur neuen KI-Verordnung der Europäischen Union (KI-VO). Er plädierte dafür, den Datenschutzbehörden die Aufsicht über die Einhaltung der KI-VO zu übertragen, da diese sich bereits jetzt mit KI-Anwendungen befassten, wenn es um die Einhaltung der Datenschutzgrundverordnung (DSGVO) gehe.
Impulse des Hamburgischen Datenschutzbeauftragten für die KI-Aufsicht
In seinem Vortrag zeigte Fuchs die Regulierung nach der KI-VO auf: Als Produktsicherheitsrecht blickt sie nicht auf die einzelnen Datenverarbeitungsprozesse, sondern auf die Wertschöpfungskette des KI-Produkts: Wer bringt das System in Verkehr, wer importiert es nach Deutschland, wer nutzt es vor Ort? Wenn die KI-Praktik verboten ist oder als erlaubt, aber hochriskant eingestuft wird, müssten dies alle Akteure beachten.
Für die Prozesse im KI-System gelte jedoch weiterhin die DSGVO. Um deren Anforderungen in der Praxis gerecht zu werden, hat die Hamburgische Datenschutzbehörde bereits im November 2023 eine Checkliste zum Einsatz LLM-basierter Chatbots herausgegeben. Auch die im Mai 2024 erschienene Orientierungshilfe der Datenschutzkonferenz zeige Behörden und Unternehmen auf, was beim Einsatz von KI-Systemen zu beachten sei.
KI bei Google, humanoide Robotik und die Gefahren für die Demokratie
Per Meyerdierks von Google stellte die KI-Strategie des Unternehmens vor. Google sieht in der Generativen KI einen dritten technologischen Paradigmenwechsel nach der Einführung des Internets und dem darauffolgenden Mobile Internet. Neben den Anwendungen, die KI einsetzen, stellte Meyerdierks auch die AI Principles des Unternehmens vor, mit denen Google selbstauferlegte Regeln definiert, um KI zu regulieren und möglichen Gefahren zu minimieren.
Iris Phan von der Leibniz Universität Hannover sprach über die wachsende Akzeptanz von KI-Anwendungen als Ersatz für echte Menschen am Beispiel von Sexrobotern, beispielsweise bei Sexrobotern. Die bisher zu beobachtende Praxis beim Einsatz humanoider Roboter werfe laut Phan wichtige Regulierungsfragen auf. Rainer Liedtke von Münsterdorf warnte vor Gefahren wie Diskriminierung durch verzerrte Trainingsdaten und durch Verbreitung von Falschinformationen; damit gehe ein Vertrauensverlust in journalistische Medien als wichtige Säule der Demokratie einher.
In der anschließenden Frage-und-Antwortrunde wurde diskutiert, ob ruhende KI-Modelle aufgrund ihrer technischen Begebenheiten überhaupt einen Personenbezug aufweisen. Erörtert wurde, in welchen Fällen dann die Ausgabe eines LLM-Chatbots personenbezogene Daten enthalten kann und in wessen Verantwortung diese ausgegeben Daten liegen. Das Forum verdeutlichte die Notwendigkeit, KI-Entwicklungen kritisch zu begleiten, und Risiken zu minimieren. Die Regulierung durch Datenschutzbehörden könnte ein wichtiger Baustein für einen verantwortungsvollen Umgang mit KI sein.