| Veranstaltung: | Vollversammlung des ZdK Mai 2026 |
|---|---|
| Antragsteller*in: | Volker Andres (BDKJ), Lena Bloemacher (BDKJ), Henner Gädtke (BDKJ), Daniela Hottenbacher (BDKJ), Matthias Koß (Diözesanrat Aachen), Johanna Ostermeier (Diözesankomitee Regensburg), Lisa Quarch (BDKJ) |
| Status: | Eingereicht |
| Eingereicht: | 14.04.2026, 23:12 |
A7: Sichere digitale Teilhabe für junge Menschen
Antragstext
Als ZdK setzen wir uns auf Grundlage des christlichen Menschenbilds für die
Würde, Freiheit und Teilhabe aller Menschen ein. Kinder und Jugendliche sind
eigenständige Persönlichkeiten mit unveräußerlichen Rechten. Dazu gehört neben
dem Schutz auch ihre aktive Teilhabe an Gesellschaft und öffentlichem Diskurs –
heute selbstverständlich auch im digitalen Raum. Digitale Räume sind somit nicht
nur technische Infrastrukturen, sondern Orte sozialer, kultureller und auch
spiritueller Begegnung, die jungen Menschen nicht verwehrt werden dürfen.
In der gesellschaftlichen Debatte kommt zu kurz, dass junge Menschen neben dem
Recht auf Schutz auch ein Recht auf Teilhabe haben. Dass dieses Recht auf
Teilhabe auch im digitalen Raum gilt, haben die Vereinten Nationen im Rahmen der
Allgemeinen Bemerkung 25 zur UN-Kinderrechtskonvention klargestellt.
Insbesondere haben Kinder ein Recht auf Informationszugang und freie
Meinungsäußerung: Sie dürfen sich in digitalen Räumen informieren, ihre Meinung
kundtun und sich beteiligen.
Diese Rechte dürfen nur eingeschränkt werden, wenn dies notwendig und
verhältnismäßig ist. Insbesondere dürfen Kinder nur ausgeschlossen werden, wenn
nicht andere Mittel zur Verfügung stehen, um Kinder zu schützen. Ein pauschales
Verbot Sozialer Medien berücksichtigt dieses Recht nicht hinreichend und ist aus
unserer Sicht unverhältnismäßig.
Zudem stellt die Allgemeine Bemerkung auch klar, dass Kinder bei
Gesetzesvorhaben, die sie betreffen, gehört und beteiligt werden müssen. Wir
fordern daher eine verbindliche und wirksame Beteiligung junger Menschen in der
aktuellen Debatte.
Digitale Räume sind Teil der Lebenswelt junger Menschen. Gesellschaftliche und
politische Debatten finden oft in digitalen Räumen und insbesondere sozialen
Medien statt. Ebenso sind sie wichtige Orte des sozial Lebens und des Austauschs
unter Gleichaltrigen.
Ein pauschales Verbot der Nutzung von Sozialen Medien schließt Kinder und
Jugendliche von diesen Räumen aus. Dadurch wird ihnen der Zugang zu
gesellschaftlichen Debatten erschwert und ihre politische Teilhabe
eingeschränkt. Wir setzen uns dafür ein, dass alle jungen Menschen an digitalen
Räumen teilhaben können.
Neben politischer Bildung findet auch ein großer Teil religiöser und
spiritueller Bildung in digitalen Lebensräumen statt. Social Media bietet jungen
Menschen einen Raum, in dem sie selbstbestimmt und autonom ihren Glauben
erproben und neue Perspektiven kennenlernen können. Ohne diese Lebensorte würde
ein bedeutender Teil religiöser Bildung wegfallen. Kindern und Jugendlichen
würde damit eine zentrale Möglichkeit genommen, vielfältige theologische und
spirituelle Ausdrucksformen kennenzulernen. Dadurch ginge jungen Menschen ein
bedeutsamer Ort verloren, an dem sie ihre Religionsfreiheit praktisch ausüben
und eine eigenständige, reflektierte Haltung zu Religion entwickeln können.
Dabei müssen auch bestehende Ungleichheiten berücksichtigt werden: Digitale
Räume eröffnen insbesondere jungen Menschen, die im analogen Raum mit
Diskriminierung oder eingeschränkten Teilhabemöglichkeiten konfrontiert sind -
etwa aufgrund von Geschlecht, sozialer Herkunft, Behinderung, rassistischen
Zuschreibungen oder sexueller Orientierung - wichtige Möglichkeiten zur
Vernetzung, Selbstorganisation und politischen Artikulation. Gerade für
marginalisierte junge Menschen können digitale Räume daher wichtige Orte sein,
um Erfahrungen zu teilen, Unterstützung zu finden und gesellschaftliche
Sichtbarkeit zu erlangen.
Kinder und Jugendliche von Sozialen Medien auszuschließen, statt
Plattformbetreiber konsequent zur Gestaltung sicherer kinder- und
jugendgerechter digitaler Räume zu verpflichten, greift aus unserer Sicht zu
kurz.
Die wissenschaftliche Studienlage zum Zusammenhang zwischen der Nutzung von
Sozialen Medien und psychischer Gesundheit ist derzeit nicht eindeutig.[1] Auch
zu den bestehenden Verboten Sozialer Medien in anderen Ländern liegen bislang
noch keine belastbaren Erkenntnisse vor.[2]
Erste Erfahrungen – etwa aus aus dem Verbot Sozialer Medien in Australien –
deuten jedoch darauf hin, dass Verbote vor allem zu Ausweichbewegungen führen.
Junge Menschen umgehen Restriktionen oder weichen auf andere Plattformen aus,
die oft weniger Schutz bieten.
Zudem erlernen junge Menschen Medienkompetenz erst im tatsächlichen Kontakt mit
Sozialen Medien. Ein Verbot bis zu einer festgelegten Altersschwelle verschiebt
das Problem lediglich, ohne junge Menschen tatsächlich beim Aufbau von
Medienkompetenz zu unterstützen.
Die negativen Auswirkungen sozialer Medien – etwa durch suchtfördernde Designs
oder Hass im Netz betreffen nicht nur Kinder und Jugendliche. Auch Erwachsene
sind in erheblichem Maße betroffen.
Studien zeigen, dass mehr als jede vierte erwachsene Person suchtartige Symptome
in Bezug auf die Nutzung von Sozialen Medien zeigt[3]. Vor allem FINTA* ziehen
sich wegen Hass aus digitalen Räumen zurück. Dies macht deutlich: Ein
ausschließlich auf Kinder gerichteter Verbotsansatz greift zu kurz. Vielmehr
müssen strukturelle Ursachen von Mediensucht und Hass im Netz in den Blick
genommen und dadurch auch ältere Jugendliche, junge Erwachsene und ältere
Generationen wirksam vor deren Folgen geschützt werden.
Alternativen zu einem Verbot Sozialer Medien für junge Menschen
Die bestehenden Regelungen aus dem Gesetz über digitale Dienste[4] (“Digital
Services Act”), Gesetz über digitale Märkte[5] (“Digital Markets Act”), sowie
dem Digitale-Dienste-Gesetz[6] müssen konsequent umgesetzt, wirksam kontrolliert
und weiterentwickelt werden.
Plattformbetreiber müssen Soziale Medien bereitstellen, in denen altersgerechte
Inhalte für alle Altersgruppen verfügbar sind. Melde- und Beschwerdewege müssen
einfach, verständlich und transparent für alle Nutzenden sein. Der Schutz
persönlicher Daten muss zu jeder Zeit gewährleistet sein und gesammelte Daten
dürfen nicht für ein Profitinteresse (z. B. durch Werbung) weiterverwendet
werden.
Dabei müssen Plattformen Verantwortung dafür übernehmen, diskriminierende
Inhalte, digitale Gewalt und gezielte Belästigung insbesondere marginalisierter
Gruppen wirksam zu bekämpfen. Gleichzeitig braucht es klare gesetzliche Vorgaben
sowie wirksame Aufsichts- und Durchsetzungsstrukturen, damit bestehende Regeln
auch konsequent umgesetzt werden.
Soziale Medien sind durch die Gestaltung ihrer Angebote darauf angelegt, dass
möglichst viel Zeit dort verbracht wird. Manipulative Feed Algorithmen, die
polarisierende Inhalte bevorzugen und Daten über die Interaktionen mit den
Inhalten sammeln, stellen dabei ein zentrales Problem dar. Zugleich können
algorithmische Empfehlungssysteme bestehende gesellschaftliche Diskriminierungen
verstärken, indem sie problematische Inhalte über bestimmte Gruppen stärker
verbreiten oder diskriminierende Inhalte verstärken.
Auch der Digital Services Act verbietet den Einsatz von Dark Patterns in der
Gestaltung digitaler Angebote. Dies betrifft auch insbesondere Soziale Medien,
in denen es erschwert wird, problematische Inhalte zu melden, versteckte Werbung
angezeigt wird oder der Sammlung und Nutzung von Benutzer*inneninformationen zu
widersprechen.[7]
Soziale Medien müssen konsequent so gestaltet werden, das sie nicht aus
Suchtmechanismen beruhen und diskriminierende Effekte minimieren. Eine wirksame
Kontrolle kann dabei nur sinnhaft durch eine unabhängige Instanz erfolgen, die
dafür einen vollen Zugriff auf den verwendeten Quellcode und die Datenmodelle
genutzter Feed-Algorithmen hat.
Zudem sollen Nutzer*innen mehr Kontrolle über die ihnen angezeigten Vorschläge
erhalten, etwa durch die Möglichkeit, bestimmte Formate dauerhaft auszublenden.
Sowohl schulische als auch außerschulische Bildung muss darauf ausgerichtet
werden, junge Menschen zu einem sicheren Umgang mit sozialen Netzwerken zu
befähigen. Ein Verbot Sozialer Medien für junge Leute verhindert aktiv, dass
diese Kompetenzen erlernt werden können. Damit dies umgesetzt werden kann,
braucht es eine stärkere strukturelle und finanzielle Förderung von
außerschulischen und (jugend)-verbandlichen Bildungsmaßnahmen zur Vermittlung
von Medienkompetenz, insbesondere in Bezug auf Soziale Medien.
Freie Soziale Medien sind ein Teilbereich freier Software[8]. Sie beruhen auf
frei zugänglichem und veränderbarem Quellcode und sind häufig dezentral
organisiert. Sie bieten die Chance auf gemeinwohlorientierte digitale Räume
jenseits rein profitorientierter Geschäftsmodelle.
Durch den Einsatz freier Sozialer Medien wird die Anpassbarkeit an
unterschiedliche Bedürfnisse der Nutzenden gefördert und damit auch digitale
Teilhabe und Inklusion unterstützt. In den Netzwerken verwendete Algorithmen
sind öffentlich einsehbar. Diese Transparenz ermöglicht eine unabhängige
Überprüfung der Systeme und kann dazu beitragen sicherzustellen, dass keine
manipulativen oder suchtfördernden Feed-Algorithmen eingesetzt werden und junge
Menschen so besser geschützt sind.
Digitale Teilhabe ist ein Grundrecht junger Menschen und muss ermöglicht werden.
Deshalb lehnen wir ein pauschales Verbot ab, das Kinder und Jugendliche von
zentralen digitalen Räumen ausschließt. Stattdessen fordern wir einen Ansatz,
der Schutz und Teilhabe konsequent zusammendenkt.
- Eine aktive Beteiligung von jungen Menschen an der politischen Debatte und
an Gesetzgebungsverfahren zu digitalen Räumen
- Eine aktive und konsequente Umsetzung und wirksame Kontrolle der Gesetze
zur Plattformregulierung (insbesondere Digital Services Act und Digital
Markets Act)
- Ein Verbot von suchtfördernden Designs und manipulativer Dark Patterns in
Sozialen Medien
- Eine langfristige strukturelle und finanzielle Förderung schulischer und
außerschulischer Medienbildung zur Stärkung digitaler Kompetenzen junger
Menschen
- Die öffentliche Förderung gemeinwohlorientierter, freier und dezentraler
Netzwerke als Alternative zu profitorientierten Plattformen
- Department for Science, Innovation and Technology. 2025. „Feasibility
Study of Methods and Data to Understand the Impact of Smartphones and
Social Media on Children and Young People“. University of
Cambridge.https://www.gov.uk/government/publications/understand-the-
impact-of-smartphones-and-social-media-on-children-and-young-people.
- Interview mit Stephan Dreyer, Medienrechtler am Leibniz Institut für
Medienforschung https://netzpolitik.org/2026/australisches-modell-ein-
social-media-verbot-macht-den-jugendschutz-schlechter/
[2] Mit ersten Ergebnissen entsprechender Studien ist erst im Laufe von 2027 zu
rechnen, siehe z.B. https://www.cam.ac.uk/stories/irl-trial-social-media-study-
launch
[3]https://news.rub.de/presseinformationen/wissenschaft/2025-11-21-soziale-
medien-fast-die-haelfte-der-jungen-deutschen-zeigt-suchtsymptome
[7]https://www.edpb.europa.eu/system/files/2025-05/edpb_03-
2022_guidelines_on_deceptive_design_patterns_in_social_media_platform_interfaces-
-_v2_de.pdf
Begründung
Einleitung und Hintergründe:
Der Zugang von Kindern und Jugendlichen zu Sozialen Medien wird, spätestens seit der Entscheidung der australischen Regierung, eine Altersgrenze für Soziale Medien einzuführen, zunehmend kontrovers diskutiert. So fordert die SPD Fraktion im Bundestag in einem Impulspapier ein vollständiges Verbot von Sozialen Medien für Kinder bis 14 Jahre und eine Jugendversion der Plattformen Sozialer Medien für Jugendliche bis 16 Jahre.[1] Auch die CDU hat durch einen Beschluss auf ihrem Parteitag im Februar 2026 ein Mindestalter von 14 Jahren für den Zugang zu Sozialen Medien gefordert.[2] Ein pauschaler Ausschluss von minderjährigen Personen oder auch ein altersabhängiger Zugang zu Plattformen Sozialer Medien wird dabei häufig damit begründet, Kinder und Jugendliche vor suchtverstärkenden Algorithmen und digitaler Gewalt zu schützen.
Der Schutz von Kindern und Jugendlichen in digitalen Räumen ist dabei ein zentrales und berechtigtes Anliegen. Politik und Gesellschaft stehen in der Verantwortung, wirksame Maßnahmen zu ergreifen, um junge Menschen zu schützen und sichere digitale Umgebungen zu schaffen.
Gleichzeitig ist bei allen Schutzmaßnahmen zu berücksichtigen, dass pauschale Ausschlüsse auch neue Probleme schaffen können. Wenn Schutz vor allem über Verbote organisiert wird, besteht die Gefahr, dass die Rechte, Bedürfnisse und Lebensrealitäten junger Menschen nicht ausreichend berücksichtigt und ihre Möglichkeiten zur gesellschaftlichen Teilhabe eingeschränkt werden.
Dabei ist einerseits die Wirksamkeit von Verboten von Sozialen Medien empirisch nicht belegt[3] und andererseits stehen diese Forderungen häufig im Gegensatz zu den Wünschen, Rechten und Bedürfnissen von Kindern und Jugendlichen.
Digitale und analoge Räume sind längst nicht mehr voneinander trennbar. In digitalen Räumen findet soziales Miteinander und politische Auseinandersetzung statt. Eine Einschränkung des Zugangs zu digitalem Raum widerspricht daher unserer Auffassung von Partizipation und Eigenständigkeit.
[1] SPD-Bundestagsfraktion. 2026. „Social Media sicherer machen“. Februar 16. https://www.spdfraktion.de/themen/social-media-sicherer.
[2] tagesschau.de. o. J. „CDU-Beschlüsse zu Social-Media-Verbot, Teilzeit und
Elterngeld“. Zugegriffen 1. März 2026. https://www.tagesschau.de/inland/innenpolitik/cdu-parteitag-284.html.
