Minderjährige vor Algorithmen in sozialen Netzwerken schützen
- ShortId
-
25.4763
- Id
-
20254763
- Updated
-
18.02.2026 17:47
- Language
-
de
- Title
-
Minderjährige vor Algorithmen in sozialen Netzwerken schützen
- AdditionalIndexing
-
28;34
- 1
-
- PriorityCouncil1
-
Nationalrat
- Texts
-
- <p>Soziale Netzwerke spielen eine zentrale Rolle im Leben von Kindern und Jugendlichen. Die Empfehlungssysteme der sozialen Netzwerke sind darauf ausgerichtet, die Interaktion und die Verweildauer zu maximieren. Wissenschaftliche Erkenntnisse zeigen, dass exzessive Nutzung mit erhöhten Risiken für die psychische Gesundheit von Minderjährigen verbunden ist. Der Schutz der Kinder darf nicht durch das Abwarten weiterer Berichte verzögert werden.</p><p>In seiner Antwort auf die Interpellation <i>25.4139</i> «Kinder vor manipulativen Algorithmen in sozialen Netzwerken schützen» hat der Bundesrat die problematischen Effekte der algorithmischen Personalisierung und den übermässigen Gebrauch anerkannt. Er verwies auf Gesetzesvorhaben, Berichte und Präventionsmassnahmen. Diese Schritte sind nützlich, nehmen jedoch nicht die Mechanismen hinter dem Design solcher Plattformen ins Visier.</p><p>Andere Rechtsordnungen haben bereits gehandelt: In der Europäischen Union, im Vereinigten Königreich und in einzelnen US-Bundesstaaten müssen die grossen Plattformen Risiken für Minderjährige identifizieren und ihre Algorithmen entsprechend anpassen. Die Netzwerke bleiben zugänglich, doch die auf Interaktion ausgerichteten Algorithmen gelten für Minderjährige nicht in gleichem Masse wie für Erwachsene. Diese Beispiele zeigen, dass eine gezielte und umsetzbare Regulierung möglich ist.</p><p>Die vom Bundesrat bereits erwähnten Initiativen – insbesondere in den Bereichen psychische Gesundheit, Prävention und Cybergewalt (Postulate <i>24.4480, 24.4592, 25.3824)</i> – sind wichtig, verfolgen jedoch andere Ziele. Sie befassen sich mit den Folgen, nicht mit den strukturellen Ursachen. Bildung allein kann algorithmische Systeme, die auf die Maximierung der Interaktion ausgelegt sind, nicht kompensieren.</p>
- <span><p>Im Rahmen der bis Mitte Februar 2026 dauernden Vernehmlassung zum neuen Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (VE-KomPG) wurden konkrete Fragen zum Jugendschutz gestellt. In Artikel 18 Absatz 2 VE-KomPG bereits vorgesehen ist die Vorgabe, dass Nutzerinnen und Nutzer wählen können, ob ihnen Inhalte anhand eines personalisierten oder nicht personalisierten Empfehlungssystems angezeigt werden sollen. In den Geltungsbereich der Vernehmlassungsvorlage fallen allerdings nicht sämtliche Social Media Plattformen, sondern nur sehr grosse Dienste mit hohen Nutzungszahlen wie z. B. Instagram, TikTok oder Snapchat.</p><p> </p><p>Die Auswertung der Vernehmlassung ist derzeit noch ausstehend. Der Bundesrat möchte dieser Auswertung nicht vorgreifen. Er anerkennt aber, dass die Forderung der Motion für die Wahrnehmung und den Schutz der demokratischen Rechte der Nutzerinnen und Nutzer digitaler Dienste von zentraler Bedeutung ist und dass die Forderung mit dem ursprünglichen Auftrag sowie dem Sinn und Zweck des Vorentwurfs VE-KomPG im Einklang steht. In diesem Zusammenhang erklärt sich der Bundesrat bereit, diesen Aspekt in den künftigen Gesetzesentwurf aufzunehmen und dabei den durch die Ergebnisse der Vernehmlassung vorgegebenen Rahmen zu berücksichtigen.</p></span><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
- <p>Der Bundesrat wird beauftragt, so rasch wie möglich konkrete Regulierungsmassnahmen für grosse, in der Schweiz aktive soziale Netzwerke vorzuschlagen, die sich an minderjährige Nutzerinnen und Nutzer richten. Diese Massnahmen sollen obligatorische Risikobewertungen für Minderjährige umfassen sowie eine Pflicht für altersgerechte Designs – etwa nicht-algorithmische Feeds oder standardmässig weniger personalisierte Inhalte – und Einschränkungen für Autoplay, endloses Scrollen und nächtliche Benachrichtigungen beinhalten. Zudem soll eine echte Transparenz über die Auswirkungen von Empfehlungssystemen auf Minderjährige gewährleistet sein. Das Ziel ist eine verhältnismässige Regulierung ohne Verbote oder moralisierende Ansätze.</p>
- Minderjährige vor Algorithmen in sozialen Netzwerken schützen
- State
-
Stellungnahme zum Vorstoss liegt vor
- Related Affairs
-
- Drafts
-
-
- Index
- 0
- Texts
-
- <p>Soziale Netzwerke spielen eine zentrale Rolle im Leben von Kindern und Jugendlichen. Die Empfehlungssysteme der sozialen Netzwerke sind darauf ausgerichtet, die Interaktion und die Verweildauer zu maximieren. Wissenschaftliche Erkenntnisse zeigen, dass exzessive Nutzung mit erhöhten Risiken für die psychische Gesundheit von Minderjährigen verbunden ist. Der Schutz der Kinder darf nicht durch das Abwarten weiterer Berichte verzögert werden.</p><p>In seiner Antwort auf die Interpellation <i>25.4139</i> «Kinder vor manipulativen Algorithmen in sozialen Netzwerken schützen» hat der Bundesrat die problematischen Effekte der algorithmischen Personalisierung und den übermässigen Gebrauch anerkannt. Er verwies auf Gesetzesvorhaben, Berichte und Präventionsmassnahmen. Diese Schritte sind nützlich, nehmen jedoch nicht die Mechanismen hinter dem Design solcher Plattformen ins Visier.</p><p>Andere Rechtsordnungen haben bereits gehandelt: In der Europäischen Union, im Vereinigten Königreich und in einzelnen US-Bundesstaaten müssen die grossen Plattformen Risiken für Minderjährige identifizieren und ihre Algorithmen entsprechend anpassen. Die Netzwerke bleiben zugänglich, doch die auf Interaktion ausgerichteten Algorithmen gelten für Minderjährige nicht in gleichem Masse wie für Erwachsene. Diese Beispiele zeigen, dass eine gezielte und umsetzbare Regulierung möglich ist.</p><p>Die vom Bundesrat bereits erwähnten Initiativen – insbesondere in den Bereichen psychische Gesundheit, Prävention und Cybergewalt (Postulate <i>24.4480, 24.4592, 25.3824)</i> – sind wichtig, verfolgen jedoch andere Ziele. Sie befassen sich mit den Folgen, nicht mit den strukturellen Ursachen. Bildung allein kann algorithmische Systeme, die auf die Maximierung der Interaktion ausgelegt sind, nicht kompensieren.</p>
- <span><p>Im Rahmen der bis Mitte Februar 2026 dauernden Vernehmlassung zum neuen Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (VE-KomPG) wurden konkrete Fragen zum Jugendschutz gestellt. In Artikel 18 Absatz 2 VE-KomPG bereits vorgesehen ist die Vorgabe, dass Nutzerinnen und Nutzer wählen können, ob ihnen Inhalte anhand eines personalisierten oder nicht personalisierten Empfehlungssystems angezeigt werden sollen. In den Geltungsbereich der Vernehmlassungsvorlage fallen allerdings nicht sämtliche Social Media Plattformen, sondern nur sehr grosse Dienste mit hohen Nutzungszahlen wie z. B. Instagram, TikTok oder Snapchat.</p><p> </p><p>Die Auswertung der Vernehmlassung ist derzeit noch ausstehend. Der Bundesrat möchte dieser Auswertung nicht vorgreifen. Er anerkennt aber, dass die Forderung der Motion für die Wahrnehmung und den Schutz der demokratischen Rechte der Nutzerinnen und Nutzer digitaler Dienste von zentraler Bedeutung ist und dass die Forderung mit dem ursprünglichen Auftrag sowie dem Sinn und Zweck des Vorentwurfs VE-KomPG im Einklang steht. In diesem Zusammenhang erklärt sich der Bundesrat bereit, diesen Aspekt in den künftigen Gesetzesentwurf aufzunehmen und dabei den durch die Ergebnisse der Vernehmlassung vorgegebenen Rahmen zu berücksichtigen.</p></span><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
- <p>Der Bundesrat wird beauftragt, so rasch wie möglich konkrete Regulierungsmassnahmen für grosse, in der Schweiz aktive soziale Netzwerke vorzuschlagen, die sich an minderjährige Nutzerinnen und Nutzer richten. Diese Massnahmen sollen obligatorische Risikobewertungen für Minderjährige umfassen sowie eine Pflicht für altersgerechte Designs – etwa nicht-algorithmische Feeds oder standardmässig weniger personalisierte Inhalte – und Einschränkungen für Autoplay, endloses Scrollen und nächtliche Benachrichtigungen beinhalten. Zudem soll eine echte Transparenz über die Auswirkungen von Empfehlungssystemen auf Minderjährige gewährleistet sein. Das Ziel ist eine verhältnismässige Regulierung ohne Verbote oder moralisierende Ansätze.</p>
- Minderjährige vor Algorithmen in sozialen Netzwerken schützen
Back to List