
Künstliche Intelligenz im Jugendmedienschutz
Künstliche Intelligenz (KI) wird auch im Bereich des Jugendmedienschutzes eingesetzt. Gemeint sind dabei computergestützte Verfahren, die auf Basis großer Datenmengen Muster erkennen und Inhalte analysieren können, etwa Bilder, Texte oder audiovisuelle Medien.
KI-basierte Systeme treffen dabei keine eigenständigen rechtlichen Entscheidungen, sondern liefern strukturierte Auswertungen und Entscheidungshilfen.
Gerade im Jugendmedienschutz ist der Einsatz solcher Systeme besonders sensibel: Die Bewertung von Medieninhalten erfordert Kontextverständnis, Abwägung und normative Einordnung. KI kann diese fachliche Bewertung unterstützen, sie jedoch nicht ersetzen.
Automatisierte Bewertungssysteme (ABS)

Zur Unterstützung der jugendschutzfachlichen Bewertung von Medieninhalten kommen sogenannte automatisierte und teilweise KI-gestützte Bewertungssysteme (ABS) zum Einsatz. Diese Systeme kombinieren algorithmische Analyseverfahren mit fachlichen Kriterien des Jugendmedienschutzes. Sie können Hinweise auf potenziell jugendschutzrelevante Aspekte liefern und Vorschläge für Altersfreigaben oder zusätzliche Hinweise unterbreiten.
ABS dienen damit der Strukturierung und Effizienzsteigerung von Prüfprozessen. Die abschließende jugendschutzrechtliche Entscheidung erfolgt jedoch weiterhin durch fachlich qualifizierte Personen.
Für Medienanbieter, Redaktionen und Jugendschutzbeauftragte in Rundfunk- und Telemedienunternehmen können ABS eine wertvolle Unterstützung darstellen. Gleichzeitig unterscheiden sich die aktuell eingesetzten oder in Entwicklung befindlichen Systeme erheblich, etwa im Grad der Automatisierung, im Einsatz KI-basierter Verfahren, in der Einbindung menschlicher Expertise, in der Orientierung an bestehender Spruchpraxis oder in der Transparenz der angewandten Kriterien. Vor diesem Hintergrund ist eine klare regulatorische Rahmung von zentraler Bedeutung.
Modellversuch: Zertifizierung automatisierter Bewertungsverfahren
Die Freiwillige Selbstkontrolle Fernsehen (FSF) und die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM) entwickeln derzeit unter Begleitung der Kommission für Jugendmedienschutz (KJM) Qualitätsstandards für ein Zertifizierungsverfahren für automatisierte Bewertungssysteme.

Im Rahmen des Modellversuchs werden nicht nur die Systeme selbst geprüft, sondern auch ihre konkrete Einbindung in unternehmensinterne Prozesse oder Selbstkontrolleinrichtungen.
Ziel des Verfahrens ist es, die Eignung und Anerkennungsfähigkeit eines ABS zu überprüfen und zugleich Maßstäbe für dessen verantwortungsvollen Einsatz im Jugendmedienschutz zu entwickeln. Damit soll Unternehmen, die automatisierte Systeme nutzen, zugleich Orientierung und Rechtssicherheit geboten werden.
Ausführliche Informationen zum Modellversuch finden Sie auf unserer Projektseite.
Der Modellversuch läuft derzeit noch, erste Zertifizierungsanfragen werden jedoch bereits entgegengenommen: E-Mail an die FSF

