Kinder- und Jugendschutz im digitalen Raum – Soziale Medien sicher und altersgerecht gestalten

Antrag der Fraktionen von CDU und Grünen im Landtag

Portrait Anja von Mahrenholtz

I. Ausgangslage

Die sozialen Medien sind Möglichkeits- und Gefahrenraum zugleich. Als digitale Begegnungsorte und Informationsquelle bieten sie bisher ungekannte Möglichkeiten für Lernen, Ausdruck und Entfaltung. Gleichzeitig birgt der digitale Raum – insbesondere für Kinder und Jugendliche – erhebliche Risiken. Dazu zählen die unbegleitete Konfrontation mit demokratiefeindlichen, gewalttätigen oder pornografischen Inhalten, Cybergrooming und Cybermobbing, digitale Gewalt sowie Desinformation und weitere digitale Gefährdungen für Minderjährige, potenziert durch algorithmische Verstärkung. Diese werden in ihrer Wirkung und Reichweite durch technische Manipulationen zusätzlich verschärft.

Sucht- und nutzungsverstärkende Designs wie Endlos-Scrolling, Push-Benachrichtigungen, automatisches Abspielen von Inhalten, algorithmisch empfohlene Beiträge oder digitale Belohnungssysteme sind Teil des Geschäftsmodells der Plattformbetreiber. Die neu­este DAK-Suchtstudie[1] zeigt, dass aktuell in Deutschland mehr als ein Viertel der Kinder und Jugendlichen soziale Netzwerke in riskantem oder krankhaftem Ausmaß nutzt; 4,7 Prozent gelten sogar als abhängig. Die durchschnittliche tägliche Nutzungsdauer liegt unter der Woche bei 157 Minuten, am Wochenende bei 227 Minuten. Es bedarf somit eines verantwortungsvollen politischen Rahmens und einer altersgerechten Regulierung im digitalen Zeitalter, die Freiheit und Schutz von Kindern und Jugendlichen in ein ausgewogenes Verhältnis zueinander setzt.

Ein sicheres Online-Umfeld für Kinder und Jugendliche und eine bessere Unterstützung für Eltern sind auch Ziele im Jugendmedienschutzstaatsvertrag, wie er seit dem 01.12.2025 gilt. U.a. werden dort Themen wie Mobbing, Grooming, exzessives Spielen oder Kostenfallen stärker berücksichtigt (mehr Schutz vor Risiken), gegen Kopien rechtswidriger Websites (mirror domains) kann leichter vorgegangen werden, und die Landesmedienanstalten können Banken und Kreditinstituten untersagen, mit Plattformen und Anbietern Geschäfte zu machen, die sich nicht an nationale Jugendschutzgesetze halten („follow-the-money-Ansatz“).

Der Digital Services Act (DSA) verpflichtet Plattformen bereits, Suchtgefahren vorzubeugen. Darüber hinaus braucht es eine klare, altersgerechte Regulierung, die Plattformbetreibern verbindliche gesetzliche Grundlagen für staatlich definierte Altersstufen und jugendgerechte Versionen ihrer Angebote vorgibt. Altersgrenzen dürfen nicht länger bloße Hinweise in Allgemeinen Geschäftsbedingungen sein. Fragen der technischen Umsetzbarkeit der

Altersverifikation, der Medienkompetenzförderung und der digitalen Teilhabe müssen mitgedacht werden. Eine EU-weite Lösung ist notwendig, um gesellschaftlich akzeptiert, rechtlich durchsetzbar und nachhaltig wirksam zu sein.

Entscheidend ist: Verantwortung muss dort gelten, wo sie entsteht – bei den Plattformen und Anbietern sozialer Medien. Wer digitale Produkte entwickelt und daran verdient, muss sie sicher und altersgerecht gestalten. Dieses Grundprinzip der sozialen Marktwirtschaft muss auch in der Plattformökonomie gelten. Anbieter müssen verpflichtet werden, eine wirksame, technisch belastbare und datensparsame Altersverifikation vorzunehmen.

Die Regulierung soll drei Stufen umfassen.

Erstens: Die bisherigen Altersbeschränkungen für soziale Medien sollen auf 14 Jahre angehoben werden. Die Plattformbetreiber sind für die Umsetzung verantwortlich. Zudem setzen wir uns für kindgerechte Alternativen ein, die unter Einbindung von Kindern und Jugendlichen entwickelt werden, um das durch die UN-Kinderrechtskonvention verbriefte Recht auf digitale Teilhabe zu gewährleisten.

Zweitens: Für Jugendliche zwischen 14 und 16 Jahren soll der Zugang zu Sozialen Medien unter Berücksichtigung eines altersgerechten, das besondere Schutzbedürfnis dieser Altersgruppe berücksichtigenden Sicherheitsmodus möglich sein. Dieser soll ohne sucht- und nutzungsverstärkende Designmechanismen ausgestaltet sein und die Empfehlungen der Kommission der Bundesregierung „Kinder- und Jugendschutz in der digitalen Welt“ berücksichtigen. Die Plattformbetreiber sind bereits heute durch den Digital Services Act zur Umsetzung verpflichtet.

Die Handlungsvorschläge in den Bereichen Jugendmedienschutz und Medienkompetenz, die die Länder ausgestalten, müssen konsequent mit bundes- und europapolitischen Maßnahmen verzahnt werden.

Drittens: Ab dem 16. Lebensjahr kann die reguläre Plattformversion genutzt werden.

Neben klaren Regeln für Plattformen ist die Förderung von Medienkompetenz zentral. Jugendliche, die Zugang zu sozialen Netzwerken erhalten, müssen diese selbstbestimmt, kritisch und reflektiert nutzen können. Kinder und Jugendliche sollen sowohl in Fragen der altersgestuften Regulierung als auch der Medienkompetenzförderung aktiv beteiligt werden, damit ihre Schutzbedürfnisse, Perspektiven und Erfahrungen in Gesetzgebung und Umsetzung einfließen. Medienkompetenzangebote für Erziehungsberechtigte sind ein weiterer wichtiger Baustein, um einen angemessenen Umgang mit sozialen Medien zu erreichen.

Nordrhein-Westfalen verfügt bereits über starke Strukturen in der Medienkompetenzförderung, die verschiedene Ministerien und zivilgesellschaftliche Akteure tragen. Als Best-Practice-Beispiele gelten u.a. der Medienkompetenzrahmen NRW, der Peer-to-Peer-Ansatz „Medienscouts NRW“, , der „#DigitalCheckNRW“, „Wer ist Bilal?“ sowie gezielte Initiativen gegen Desinformation wie „fakeOFF“. Damit ist Nordrhein-Westfalen gut aufgestellt, um junge Menschen schrittweise an eine verantwortungsbewusste Nutzung sozialer Netzwerke heranzuführen. Gleichzeitig gilt: Medienkompetenz ist eine zentrale Zukunftskompetenz. Deshalb braucht es weitere Investitionen und den Ausbau bestehender Programme. Erst das Zusammenspiel aus guter Medienkompetenzbildung und altersgerechter Regulierung macht soziale Medien wieder zu Orten der Vernetzung, Information und demokratischen Teilhabe.

II. Beschlussfassung:

Der Landtag stellt fest:

  • Kinder haben ein Recht auf besonderen Schutz im digitalen Raum. Kindern und Jugendlichen muss eine altersgerechte und sichere digitale Teilhabe ermöglicht werden.
  • Algorithmisch gesteuerte Plattformdesigns bergen ohne wirksame Regulierung erhebliche Risiken für Kinder und Jugendliche.
  • Bestehende Regulierungen und Altersvorgaben in Allgemeinen Geschäftsbedingungen reichen nicht aus, um einen wirksamen und altersgerechten Schutz zu gewährleisten.
  • Medienkompetenzförderung ist eine Voraussetzung für selbstbestimmte digitale Teilhabe.
  • Es braucht einen europaweiten gesetzlichen Rahmen für altersgerechte Regeln in sozialen Netzwerken mit unabhängiger, wirksamer Altersverifikation.

Der Landtag beauftragt die Landesregierung im Rahmen vorhandener Mittel,

sich analog zum Beschluss der Regierungschefinnen und Regierungschefs der Länder am 5. März 2026 in Berlin „Sichere Nutzung Sozialer Medien – Befähigung und Schutz im digitalen Raum gewährleisten“ auf Bundes- und EU-Ebene für eine verbindliche, altersgestufte Regelung für soziale Medien mit einer unabhängigen Altersverifikation einzusetzen. Plattformanbieter müssen gesetzlich verpflichtet werden, eine effektive, technisch belastbare und datensparsame Altersverifikation vorzunehmen. Hierbei ist zu prüfen, inwieweit sich beispielsweise das EUDI-Wallet für den Verifizierungsprozess eignet.

Dabei sollen folgende Leitlinien gelten:

  • Die bisherigen Altersbeschränkungen für soziale Medien sollen auf 14 Jahre angehoben werden. Dabei sollen auch kindgerechte Alternativen unter Einbindung von Kindern und Jugendlichen berücksichtigt werden, um deren digitale Teilhabe zu ermöglichen. Die Anbieter werden verpflichtet, den Zugang technisch wirksam zu unterbinden. Die Durchsetzung erfolgt entsprechend dem DSA durch die Europäische Kommission. Verstöße sollen mit repressiven Maßnahmen, beispielsweise mit empfindlichen Bußgeldern, sanktioniert werden können.
  • Für Jugendliche zwischen 14 und 16 Jahren soll der Zugang zu jenen Plattformen ermöglicht werden, die die Leitlinien zum Jugendschutz im Rahmen des DSA einhalten. Ein altersgerechter Sicherheitsmodus wird angestrebt. Dieser Sicherheitsmodus darf insbesondere keine suchtverstärkenden Funktionen wie Endlos-Scrolling, automatisches Abspielen von Inhalten, Push-Benachrichtigungen, Gamification oder andere Belohnungssysteme enthalten.
  • Ab dem 16. Lebensjahr kann die reguläre Version der Plattform genutzt werden.
  • Beim Ausgestaltungsprozess sind die Ergebnisse der Expertenkommission „Kinder- und Jugendschutz in der digitalen Welt“ der Bundesregierung zu berücksichtigen, die junge Menschen aktiv einbindet. Dabei müssen die Länderinstrumente in den Bereichen Jugendmedienschutz und Medienkompetenz konsequent mit bundes- und europapolitischen Maßnahmen verzahnt werden.
  • Auf europäischer Ebene ist eine Harmonisierung der Altersstandards anzustreben. Die gewonnenen Erkenntnisse sollen in die Weiterentwicklung relevanter Regelungswerke – etwa des DSA und der AVMD-Richtlinie – einfließen.

Maßnahmen zur Medienkompetenzbildung werden weiterentwickelt und gestärkt.

 

[1] https://www.dak.de/dak/gesundheit/psychische-gesundheit/sucht/mediensucht-bei-jugendli-chen_46682; zuletzt abgerufen am 23.02.2026