Kinder vor manipulativen Algorithmen in sozialen Netzwerken schützen

ShortId
25.4139
Id
20254139
Updated
19.11.2025 16:31
Language
de
Title
Kinder vor manipulativen Algorithmen in sozialen Netzwerken schützen
AdditionalIndexing
28;1236;15;2841;34
1
PriorityCouncil1
Nationalrat
Texts
  • <p>Es gibt zunehmend Belege: Bei einer täglichen Nutzung von mehr als drei Stunden verdoppelt sich das Risiko für depressive Erscheinungen und Angstzustände bei Jugendlichen&nbsp;(Studie&nbsp;2023). Der Surgeon General, der Leiter der US-Gesundheitsbehörde, weist auch auf Schlafstörungen und eine Beeinträchtigung des Selbstbildes hin&nbsp;(2023). In der Schweiz melden NGO eine Zunahme von Anfragen im Bereich Cyberabhängigkeit.</p><p>Auf Interaktion ausgerichtete Algorithmen liefern bei jeder Unterbrechung oder Wiederaufnahme der Nutzung ähnliche Inhalte und bewirken so einen schädlichen&nbsp;«Tunnelblick». Analysen zeigen, dass TikTok-Empfehlungen bereits nach wenigen Minuten Inhalte zu Selbstverletzung oder Essstörungen anzeigen können. Ohne algorithmischen Feed sinkt die Nutzungsdauer deutlich&nbsp;– ein Hinweis darauf, dass das Design, mehr als der blosse Wille, den übermässigen Gebrauch antreibt. Zudem verstärken Algorithmen polarisierende Inhalte, etwa Genderdebatten, Körperunzufriedenheit oder extremistisches Gedankengut.</p><p>Auch soziale Ungleichheiten werden verschärft: Ein Bericht der Europäischen Kommission&nbsp;(2022) betont, dass Empfehlungssysteme tendenziell Stereotype verstärken und verletzliche Gruppen benachteiligen. Aus Sicht des Konsumentenschutzes werden Aufmerksamkeit und Daten von Minderjährigen gewinnorientiert ausgenutzt&nbsp;– bei minimaler Transparenz.</p><p>Jetzt handeln mehrere Demokratien: das Vereinigte Königreich&nbsp;(Online Safety Act) mit Risikobewertungen und Sanktionen; New&nbsp;York&nbsp;(SAFE Act) mit Beschränkungen algorithmischer Feeds ohne Zustimmung der Eltern; Australien mit einem Zugangsverbot für unter 16-Jährige und strikter Alterskontrolle. Die Schweiz droht ins Hintertreffen zu geraten, wenn sie nicht zügig Massnahmen ergreift.</p>
  • <span><p><span>1. Die Algorithmen sortieren, organisieren und empfehlen Inhalte für jede Nutzerin und jeden Nutzer, womit diese ihren Interessen entsprechende Inhalte, Produkte und Informationen vorgeschlagen erhalten. Die Algorithmen entscheiden ausserdem darüber, was den Nutzerinnen und Nutzern nicht gezeigt wird. Dies bringt problematische Aspekte mit sich. Die fehlende Möglichkeit, eine Vielfalt an Inhalten zu sehen, kann das Risiko einer Meinungspolarisierung erhöhen. Die algorithmische Personalisierung kann ausserdem dazu führen, dass problematische Inhalte (wie z.</span><span>&nbsp;</span><span>B. diskriminierende oder extremistische Narrative oder gefährliche «Challenges») im News Feed übermässig repräsentiert sind. Algorithmen gelten nicht </span><em><span>per se</span></em><span> als süchtig machend. Da ihr Hauptziel jedoch effektiv darin besteht, dass Nutzerinnen oder Nutzer mehr Zeit auf der Plattform verbringen, können sie zu einem übermässigen Gebrauch verleiten. </span></p><p><span>&nbsp;</span></p><p><span>2./3. Aktuell ist der Bund mit verschiedenen Dossiers beschäftigt, bei denen die Social-Media-Nutzung im Zentrum steht. Der Bundesrat hat am 30.</span><span>&nbsp;</span><span>Oktober 2025 einen Vorentwurf für ein Bundesgesetz zur Regulierung von sehr grossen Kommunikationsplattformen und Suchmaschinen (u.</span><span>&nbsp;</span><span>a. YouTube, Facebook, Instagram, TikTok, X und Google) in die Vernehmlassung geschickt. Die Vorlage soll die Rechte aller Nutzerinnen und Nutzer in der Schweiz stärken und von den Plattformen mehr Transparenz verlangen. So sollen etwa durch Transparenz- und Berichtspflichten die Auswirkungen der Tätigkeiten grosser Kommunikationsplattformen und Suchmaschinen auf die Grundrechte aller Nutzerinnen und Nutzer besser abgeschätzt werden können. Die Vorlage enthält keine spezifischen Regelungen zum Jugendschutz. Die Vernehmlassungsadressaten werden sich allerdings zu konkreten Fragen zum Jugendschutz äussern können. Das Bundesamt für Sozialversicherungen ist zudem beauftragt, einen Bericht in Erfüllung der Postulate 24.4480 Vara «Psychische Gesundheit von Jugendlichen und Exposition gegenüber sozialen Netzwerken. Was wird unternommen?» und 24.4592 Graf «Kinder und Jugendliche vor schädlichem Konsum von sozialen Medien schützen» zu verfassen. Die Postulate verlangen zu prüfen, welche Massnahmen ergriffen werden könnten, um Kinder und Jugendliche vor schädlichem Konsum von sozialen Medien zu schützen. In seinen Stellungnahmen hat der Bundesrat sich bereit erklärt, die Auswirkungen der Nutzung sozialer Netzwerke auf die psychische Gesundheit junger Menschen genauer zu analysieren und allfällige Massnahmen zu prüfen. In diesem Zusammenhang werden auch die in anderen Ländern umgesetzten Massnahmen geprüft werden, insbesondere um bewährte Praktiken zu eruieren. Zum Thema des Schutzes von Jugendlichen und jungen Erwachsenen online wurde zudem das Postulat 25.3824 Schneider «Anlaufstelle für Betroffene von digitaler Gewalt» eingereicht. Es beauftragt den Bundesrat zu prüfen, wie eine Anlaufstelle und Opferberatung für Betroffene von digitaler Gewalt geschaffen werden könnte. Der Bundesrat hat die Annahme des Postulats beantragt. Es wurde noch nicht im Nationalrat behandelt. </span></p><p><span>&nbsp;</span></p><p><span>4. Um eine sichere Nutzung digitaler Medien zu fördern, erachtet der Bundesrat Präventionsarbeit als unerlässlich. Die nationale Plattform Jugend und Medien des Bundesamts für Sozialversicherungen leistet seit 2011 einen Beitrag zur Förderung von Medienkompetenz. Über die Internetseite jugendundmedien.ch, verschiedene Publikationen (Broschüren und Flyer), einen Blog, die sozialen Netzwerke und einen Newsletter informiert und sensibilisiert Jugend und Medien Familien (Erziehungsberechtigte, Grosseltern usw.) und Schulen (Lehrpersonen, Schulleitung, Schulsozialarbeit) für die Chancen und Risiken digitaler Medien. Damit sollen sie befähigt werden, Kinder und Jugendliche bei ihrer Nutzung der digitalen Medien, einschliesslich Social Media, kompetent zu begleiten. Was das Thema der Algorithmen angeht, informiert Jugend und Medien über die Risiken in Bezug auf die Polarisierung von Meinungen, negative Denkweisen oder Doomscrolling. Die Plattform bietet Ratschläge, um problematisches Nutzungsverhalten zu erkennen und die psychische Gesundheit Jugendlicher zu schützen. </span></p><p><span>Die Schulen spielen eine wesentliche Rolle bei der Prävention und Förderung der Medienkompetenz. Die Einbindung der Medienkompetenz in die sprachregionalen Lehrpläne (Lehrplan 21, Plan d’études romand, Piano di studio) ermöglicht es, Jugendliche für diese Themen zu sensibilisieren und Aus- und Weiterbildungen der Lehrpersonen durchzuführen. Innerhalb des schulischen Kontexts selbst bleibt die Mediennutzung durch Kinder und Jugendliche sehr viel tiefer als ausserhalb desselben. Dies zeigt eine Untersuchung der Schweizerischen Koordinationsstelle für Bildungsforschung (SKBF Staff Paper #26).</span></p></span>
  • <p>Soziale Netzwerke nehmen im Leben junger Menschen eine zentrale Rolle ein. Ihre Algorithmen sind darauf ausgelegt, die Bildschirmzeit zu maximieren&nbsp;– oft zulasten des Wohlbefindens. Während mehrere Länder bereits regulierend eingegriffen haben, bleibt die Schweiz bei diesem Thema weitgehend untätig.</p><ul style="list-style-type:disc;"><li>Wie werden die Risiken süchtig machender Algorithmen für Minderjährige eingeschätzt?</li><li>Welche Massnahmen sind vorgesehen, um Suchtrisiken zu mindern&nbsp;(z.&nbsp;B. chronologischer Feed als Voreinstellung, Einschränkungen bei Autoplay und nächtlichen Benachrichtigungen)?</li><li>Welche Lehren zieht der Bundesrat aus Beispielen aus dem Ausland (EU, Vereinigtes Königreich, New&nbsp;York, Australien)?</li><li>Welche Unterstützung ist für Familien und Schulen geplant, um Minderjährigen eine sichere Online-Nutzung zu ermöglichen?</li></ul>
  • Kinder vor manipulativen Algorithmen in sozialen Netzwerken schützen
State
Stellungnahme zum Vorstoss liegt vor
Related Affairs
Drafts
  • Index
    0
    Texts
    • <p>Es gibt zunehmend Belege: Bei einer täglichen Nutzung von mehr als drei Stunden verdoppelt sich das Risiko für depressive Erscheinungen und Angstzustände bei Jugendlichen&nbsp;(Studie&nbsp;2023). Der Surgeon General, der Leiter der US-Gesundheitsbehörde, weist auch auf Schlafstörungen und eine Beeinträchtigung des Selbstbildes hin&nbsp;(2023). In der Schweiz melden NGO eine Zunahme von Anfragen im Bereich Cyberabhängigkeit.</p><p>Auf Interaktion ausgerichtete Algorithmen liefern bei jeder Unterbrechung oder Wiederaufnahme der Nutzung ähnliche Inhalte und bewirken so einen schädlichen&nbsp;«Tunnelblick». Analysen zeigen, dass TikTok-Empfehlungen bereits nach wenigen Minuten Inhalte zu Selbstverletzung oder Essstörungen anzeigen können. Ohne algorithmischen Feed sinkt die Nutzungsdauer deutlich&nbsp;– ein Hinweis darauf, dass das Design, mehr als der blosse Wille, den übermässigen Gebrauch antreibt. Zudem verstärken Algorithmen polarisierende Inhalte, etwa Genderdebatten, Körperunzufriedenheit oder extremistisches Gedankengut.</p><p>Auch soziale Ungleichheiten werden verschärft: Ein Bericht der Europäischen Kommission&nbsp;(2022) betont, dass Empfehlungssysteme tendenziell Stereotype verstärken und verletzliche Gruppen benachteiligen. Aus Sicht des Konsumentenschutzes werden Aufmerksamkeit und Daten von Minderjährigen gewinnorientiert ausgenutzt&nbsp;– bei minimaler Transparenz.</p><p>Jetzt handeln mehrere Demokratien: das Vereinigte Königreich&nbsp;(Online Safety Act) mit Risikobewertungen und Sanktionen; New&nbsp;York&nbsp;(SAFE Act) mit Beschränkungen algorithmischer Feeds ohne Zustimmung der Eltern; Australien mit einem Zugangsverbot für unter 16-Jährige und strikter Alterskontrolle. Die Schweiz droht ins Hintertreffen zu geraten, wenn sie nicht zügig Massnahmen ergreift.</p>
    • <span><p><span>1. Die Algorithmen sortieren, organisieren und empfehlen Inhalte für jede Nutzerin und jeden Nutzer, womit diese ihren Interessen entsprechende Inhalte, Produkte und Informationen vorgeschlagen erhalten. Die Algorithmen entscheiden ausserdem darüber, was den Nutzerinnen und Nutzern nicht gezeigt wird. Dies bringt problematische Aspekte mit sich. Die fehlende Möglichkeit, eine Vielfalt an Inhalten zu sehen, kann das Risiko einer Meinungspolarisierung erhöhen. Die algorithmische Personalisierung kann ausserdem dazu führen, dass problematische Inhalte (wie z.</span><span>&nbsp;</span><span>B. diskriminierende oder extremistische Narrative oder gefährliche «Challenges») im News Feed übermässig repräsentiert sind. Algorithmen gelten nicht </span><em><span>per se</span></em><span> als süchtig machend. Da ihr Hauptziel jedoch effektiv darin besteht, dass Nutzerinnen oder Nutzer mehr Zeit auf der Plattform verbringen, können sie zu einem übermässigen Gebrauch verleiten. </span></p><p><span>&nbsp;</span></p><p><span>2./3. Aktuell ist der Bund mit verschiedenen Dossiers beschäftigt, bei denen die Social-Media-Nutzung im Zentrum steht. Der Bundesrat hat am 30.</span><span>&nbsp;</span><span>Oktober 2025 einen Vorentwurf für ein Bundesgesetz zur Regulierung von sehr grossen Kommunikationsplattformen und Suchmaschinen (u.</span><span>&nbsp;</span><span>a. YouTube, Facebook, Instagram, TikTok, X und Google) in die Vernehmlassung geschickt. Die Vorlage soll die Rechte aller Nutzerinnen und Nutzer in der Schweiz stärken und von den Plattformen mehr Transparenz verlangen. So sollen etwa durch Transparenz- und Berichtspflichten die Auswirkungen der Tätigkeiten grosser Kommunikationsplattformen und Suchmaschinen auf die Grundrechte aller Nutzerinnen und Nutzer besser abgeschätzt werden können. Die Vorlage enthält keine spezifischen Regelungen zum Jugendschutz. Die Vernehmlassungsadressaten werden sich allerdings zu konkreten Fragen zum Jugendschutz äussern können. Das Bundesamt für Sozialversicherungen ist zudem beauftragt, einen Bericht in Erfüllung der Postulate 24.4480 Vara «Psychische Gesundheit von Jugendlichen und Exposition gegenüber sozialen Netzwerken. Was wird unternommen?» und 24.4592 Graf «Kinder und Jugendliche vor schädlichem Konsum von sozialen Medien schützen» zu verfassen. Die Postulate verlangen zu prüfen, welche Massnahmen ergriffen werden könnten, um Kinder und Jugendliche vor schädlichem Konsum von sozialen Medien zu schützen. In seinen Stellungnahmen hat der Bundesrat sich bereit erklärt, die Auswirkungen der Nutzung sozialer Netzwerke auf die psychische Gesundheit junger Menschen genauer zu analysieren und allfällige Massnahmen zu prüfen. In diesem Zusammenhang werden auch die in anderen Ländern umgesetzten Massnahmen geprüft werden, insbesondere um bewährte Praktiken zu eruieren. Zum Thema des Schutzes von Jugendlichen und jungen Erwachsenen online wurde zudem das Postulat 25.3824 Schneider «Anlaufstelle für Betroffene von digitaler Gewalt» eingereicht. Es beauftragt den Bundesrat zu prüfen, wie eine Anlaufstelle und Opferberatung für Betroffene von digitaler Gewalt geschaffen werden könnte. Der Bundesrat hat die Annahme des Postulats beantragt. Es wurde noch nicht im Nationalrat behandelt. </span></p><p><span>&nbsp;</span></p><p><span>4. Um eine sichere Nutzung digitaler Medien zu fördern, erachtet der Bundesrat Präventionsarbeit als unerlässlich. Die nationale Plattform Jugend und Medien des Bundesamts für Sozialversicherungen leistet seit 2011 einen Beitrag zur Förderung von Medienkompetenz. Über die Internetseite jugendundmedien.ch, verschiedene Publikationen (Broschüren und Flyer), einen Blog, die sozialen Netzwerke und einen Newsletter informiert und sensibilisiert Jugend und Medien Familien (Erziehungsberechtigte, Grosseltern usw.) und Schulen (Lehrpersonen, Schulleitung, Schulsozialarbeit) für die Chancen und Risiken digitaler Medien. Damit sollen sie befähigt werden, Kinder und Jugendliche bei ihrer Nutzung der digitalen Medien, einschliesslich Social Media, kompetent zu begleiten. Was das Thema der Algorithmen angeht, informiert Jugend und Medien über die Risiken in Bezug auf die Polarisierung von Meinungen, negative Denkweisen oder Doomscrolling. Die Plattform bietet Ratschläge, um problematisches Nutzungsverhalten zu erkennen und die psychische Gesundheit Jugendlicher zu schützen. </span></p><p><span>Die Schulen spielen eine wesentliche Rolle bei der Prävention und Förderung der Medienkompetenz. Die Einbindung der Medienkompetenz in die sprachregionalen Lehrpläne (Lehrplan 21, Plan d’études romand, Piano di studio) ermöglicht es, Jugendliche für diese Themen zu sensibilisieren und Aus- und Weiterbildungen der Lehrpersonen durchzuführen. Innerhalb des schulischen Kontexts selbst bleibt die Mediennutzung durch Kinder und Jugendliche sehr viel tiefer als ausserhalb desselben. Dies zeigt eine Untersuchung der Schweizerischen Koordinationsstelle für Bildungsforschung (SKBF Staff Paper #26).</span></p></span>
    • <p>Soziale Netzwerke nehmen im Leben junger Menschen eine zentrale Rolle ein. Ihre Algorithmen sind darauf ausgelegt, die Bildschirmzeit zu maximieren&nbsp;– oft zulasten des Wohlbefindens. Während mehrere Länder bereits regulierend eingegriffen haben, bleibt die Schweiz bei diesem Thema weitgehend untätig.</p><ul style="list-style-type:disc;"><li>Wie werden die Risiken süchtig machender Algorithmen für Minderjährige eingeschätzt?</li><li>Welche Massnahmen sind vorgesehen, um Suchtrisiken zu mindern&nbsp;(z.&nbsp;B. chronologischer Feed als Voreinstellung, Einschränkungen bei Autoplay und nächtlichen Benachrichtigungen)?</li><li>Welche Lehren zieht der Bundesrat aus Beispielen aus dem Ausland (EU, Vereinigtes Königreich, New&nbsp;York, Australien)?</li><li>Welche Unterstützung ist für Familien und Schulen geplant, um Minderjährigen eine sichere Online-Nutzung zu ermöglichen?</li></ul>
    • Kinder vor manipulativen Algorithmen in sozialen Netzwerken schützen

Back to List