FSF kompaktFür die PressePressearchivmedien impuls zu Künstlicher Intelligenz

Jugendmedienschutz und Medienbildung mit Algorithmen?

medien impuls zu Künstlicher Intelligenz

Pressemitteilung vom 31.05.2016

Intelligente Systeme können die Arbeit des Jugendmedienschutzes unterstützen, jedoch wird weiterhin der Einsatz von Menschen unverzichtbar sein. Mit diesem Ergebnis endete der medien impuls am 30. Mai in Berlin, zu dem die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM) und die Freiwillige Selbstkontrolle Fernsehen (FSF) gemeinsam eingeladen hatten. Auf der Tagung wurden die Grundlagen der Künstlichen Intelligenz (KI) sowie ihre Einsatzmöglichkeiten im Jugendmedienschutz vorgestellt und ethische Fragen diskutiert.

Maschinen werden immer schlauer, Algorithmen werden immer lernfähiger. Diese Entwicklung zeigt sich beispielsweise in der Medizintechnik und im Verkehrswesen. Aber auch im Jugendmedienschutz können mithilfe automatischer und lernender Algorithmen gefährdende Inhalte entdeckt werden. „Technologie ist ein Bereich, in dem die Menschheit fundamentalen Fortschritt vorweisen kann – im Gegensatz zu vielen anderen Bereichen“, machte Otto Vollmers, Geschäftsführer der FSM, in seiner Einführung deutlich.

Jens Redmer von Google Deutschland erläuterte die unterschiedlichen Strategien, mit denen Maschinen
beigebracht werden kann, mit Datenmengen umzugehen. Der Entwicklungsstand werde oft überschätzt: „Bei intelligenten Maschinen sind wir noch ganz am Anfang“, betonte Redmer. Sicherlich habe die künstliche Intelligenz AlphaGo beim Sieg über den koreanischen Weltmeister beim chinesischen Brettspiel Go komplexe Aufgaben bewältigt, jedoch lasse sich das nur bedingt mit einer Software vergleichen, die beispielsweise in der Medizintechnik selbstständig Entscheidungen treffen muss.

Die Einsatzmöglichkeiten der KI im Jugendmedienschutz machte Stephan Dreyer vom Hans-Bredow-Institut für Medienforschung deutlich: Selbstlernende, probabilistische Systeme treffen Entscheidungen, die auf ihren Erfahrungen basieren. Demnach können sie Text und Audio – umgewandelt in Text – klassifizieren, einordnen und bewerten, wie es bspw. in der Spamerkennung geschieht. Schwierigkeiten stellen sich bei Mehrdeutigkeiten und in der Bilderkennung, besonders bei Bewegtbildern, ein. Pornografie kann durch den Anteil von nackter Haut im Frame aufgespürt werden, jedoch geraten Systeme bei Gewalt, einzelnen Körperbereichen sowie der Hinzunahme von Ton noch an ihre Grenzen. Oftmals fehlen hier die Daten, die zum Selbstlernen der Maschinen erforderlich sind. „Klassifizierer sollten sich bewusst werden, welche Daten sie schon haben“, sagte Dreyer, der zudem auf eine weitere Grenze verwies: „Bei sozialethischer Desorientierung werden wir den Jugendschutzbeauftragten brauchen, das kann KI in absehbarer Zeit nicht.“

Ethische Fragen beim Einsatz von KI führen stets auf das Verhältnis von Mensch und Computer zurück, das wurde im Verlauf der Veranstaltung und der abschließenden Diskussionsrunde deutlich. Noch ist der Mensch der entscheidende Faktor: Er kontrolliert die Algorithmen, generiert aus Daten Wissen.

Aber man müsse sich stets bewusst sein, dass ein Algorithmus Wahrscheinlichkeiten auf der Grundlage von Daten berechnet. „Dienste und Algorithmen müssen sich am Menschen messen lassen. Es gibt Dinge, die wir Menschen nicht gut können. Dass ein Computer sich nicht verrechnet, bedeutet aber nicht, dass ein Computer immer recht hat“, sagte Dr. Katharina Zweig von der Technischen Universität Kaiserslautern. Für Kontrolle und Transparenz sei deshalb die wissenschaftliche Überprüfung und Weiterentwicklung der Algorithmen wichtig.

Offenheit und Diskussionen wird KI auch in anderen Bereichen bringen. „KI zwingt uns, analytisch und klar zu denken“, sagte Adriano Mannino, Stiftung für Effektiven Altruismus, daraus würden sich moralische und rechtliche Fragen ergeben, die bisher nur als Gedankenexperimente existieren. Philosophische Fragen zeigen sich z.B., wenn es um Emotionen und moralische Implikationen geht. „Gefühle lassen sich vergleichsweise leicht erkennen, u.a. mit Hilfe von Gesichtserkennung. Ein anderes Problem ist, ob sich das System seiner Emotionen bewusst ist. Das muss sauber getrennt werden“, erläuterte Dr. Florian Röhrbein von der Technischen Universität München.

„KI wird auch Dilemmata offenlegen, die es jetzt schon in der Medizin gibt, über die aber niemand diskutiert“, ergänzte Dr. Sönke Bartling, Alexander-von-Humboldt-Institut für Internet und Gesellschaft.

Dennoch ist Mannino überzeugt: „Wenn wir nachvollziehen können, dass Roboter relativ bessere Entscheidungen in Relation zu unseren Zielen treffen, werden sie sich durchsetzen.“

 

Über die FSF  
Die Freiwillige Selbstkontrolle Fernsehen e.V. (FSF) ist die anerkannte Selbstkontrolleinrichtung der privaten Fernsehanbieter. Kern ihrer Arbeit ist die Prüfung von Sendungen unter Jugendschutzgesichtspunkten vor der Ausstrahlung. Darüber hinaus fördert sie den wissenschaftlichen Diskurs über Medienwirkungen und erstellt neben inhaltlichen Fachpublikationen zahlreiche Materialien für die schulische und außerschulische Bildungsarbeit.

Kontakt:          
FSF e.V., Camilla Graubner, Tel. 030 23 08 36 - 60, E-Mail: graubnerc@fsf.de

 

Über die FSM   

Die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V. (FSM) ist eine anerkannte Selbstkontrolleinrichtung für den Bereich Telemedien. Der Verein engagiert sich maßgeblich für den Jugendmedienschutz – insbesondere die Bekämpfung illegaler, jugendgefährdender und entwicklungsbeeinträchtigender Inhalte in Onlinemedien. Dazu betreibt die FSM eine Beschwerdestelle, an die sich jedermann kostenlos wenden kann, um jugendgefährdende Onlineinhalte zu melden. Die umfangreiche Aufklärungsarbeit und Medienkompetenzförderung von Kindern gehören zu den weiteren Aufgaben der FSM.

Kontakt:          
FSM e.V., Katja Lange, Tel.: 030 24 04 84 - 43, E-Mail: lange@fsm.de, @FSM_de