Hamburg (dpa/lno). Hamburgs Bürgermeister Peter Tschentscher setzt beim vermehrten Einsatz von Künstlicher Intelligenz (KI) in den Medien auf klare Regeln. „KI ist anfällig für Missbrauch“, sagte der SPD-Politiker am Dienstagabend vor rund 350 Gästen beim Senatsempfang für den Mediendialog im Hamburger Rathaus. Eingesetzt zur Desinformation könne KI zu einer Gefahr für die Politik und die Demokratie werden.

Hamburgs Bürgermeister Peter Tschentscher setzt beim vermehrten Einsatz von Künstlicher Intelligenz (KI) in den Medien auf klare Regeln. „KI ist anfällig für Missbrauch“, sagte der SPD-Politiker am Dienstagabend vor rund 350 Gästen beim Senatsempfang für den Mediendialog im Hamburger Rathaus. Eingesetzt zur Desinformation könne KI zu einer Gefahr für die Politik und die Demokratie werden.

Der Zugang zu Informationen sei ein demokratisches Grundrecht, das nicht verwässert werden dürfe, betonte Tschentscher. Es müsse erkennbar sein, was wahr sei und der Realität entspreche. Deshalb sei ein regulatorischer Rahmen nötig, „der die Nutzung der positiven Potenziale von KI ermöglicht, ihre destruktiven Wirkungen aber begrenzt und das Vertrauen in journalistische Inhalte erhält“.

Das deutsche Medienrecht sei bereits seit 2020 international Vorreiter etwa mit der Verpflichtung zur Kennzeichnung von sogenannten Social Bots, betonte Tschentscher. Social Bots werden beispielsweise dazu eingesetzt, um Postings zu teilen, zu liken oder zu kommentieren. Auf europäischer Ebene entstehe derzeit die weltweit erste umfassende staatliche Regulierung von KI. „Die Erarbeitung einer solchen Verordnung ist ein Schritt in die richtige Richtung.“ Darüber hinaus fände er einen gemeinsamen branchenspezifischen Ethik-Kodex hilfreich, „auf den sich alle Entwickler, Anbieter und Anwender von KI-Systemen einigen“.

Eine der bekanntesten KI-Anwendungen ist der Chatbot ChatGPT des amerikanischen Entwicklers OpenAI. Mit Hilfe von KI kann ChatGPT Fragen aus verschiedensten Themenbereichen beantworten oder auch ganze Aufsätze verfassen. Die generierten Beiträge sind dabei teilweise so gut, dass selbst Fachleute Mühe haben sie als Roboter-Texte zu erkennen.