Tiktok und Co. sollen Präventions- und Schutzmassnahmenfonds finanzieren

ShortId
25.3474
Id
20253474
Updated
14.11.2025 03:06
Language
de
Title
Tiktok und Co. sollen Präventions- und Schutzmassnahmenfonds finanzieren
AdditionalIndexing
34;28;1236
1
PriorityCouncil1
Nationalrat
Texts
  • <p>Der Umgang mit grossen digitalen Plattformen ist eine der grossen Herausforderungen unserer Zeit. Bereits heute laufen weltweit auf verschiedenen Ebenen Bestrebungen zur stärkeren Regulierung und Verantwortung grosser Plattformen. Die EU hat mit dem Digital Services Act (DSA) ein umfassendes Regelwerk geschaffen, das insbesondere sehr grosse Online-Plattformen (Very Large Online Platforms, VLOPs) betrifft. Diese Plattformen – wie YouTube, TikTok oder Instagram – haben mehr als 45 Millionen Nutzerinnen und Nutzer in der EU.</p><p>Die Veröffentlichung des vom Bundesrat angekündigten Vorentwurfs zur Plattformregulierung in der Schweiz verzögert sich indes weiter. Spezifische Schutzmassnahmen für Plattformen mit minderjährigen Nutzern – wie sie der EU Digital Services Act vorsieht – sind darin jedoch nicht enthalten.</p><p>VLOPs profitieren auch in der Schweiz erheblich von der Sammlung und Nutzung personenbezogener Daten ihrer Nutzerinnen und Nutzer, insbesondere von Minderjährigen. Sie generieren enorme Werbeeinnahmen durch datengetriebene Geschäftsmodelle, während die gesellschaftlichen Kosten in Form von Schutzmassnahmen, Prävention und Aufklärung von Privaten oder der öffentlichen Hand getragen werden. Eine Abgabe oder finanzielle Beteiligung dieser Unternehmen wäre daher nicht nur gerechtfertigt, sondern notwendig, um eine faire Lastenverteilung zu gewährleisten.</p><p>Ein Kinder- und Jugendmedienschutzfonds könnte zum Beispiel durch eine verpflichtende Abgabe grosser digitaler Plattformen gespeist werden, die sich an deren Werbeeinnahmen, an der Anzahl Nutzerinnen und Nutzer oder an der Menge der gesammelten Nutzerdaten orientiert. Die Mittel würden zweckgebunden für Präventions- und Schutzmassnahmen von Kindern und Jugendlichen im digitalen Raum verwendet.</p>
  • <span><p><span>Die Schweizer Bevölkerung informiert sich zunehmend über Dienste wie Facebook, YouTube und Google. Sehr grosse Kommunikationsplattformen und Suchmaschinen beeinflussen damit vermehrt die öffentliche Debatte, ohne dass in der Schweiz spezifische gesetzliche Regelungen dafür bestehen. Der Bundesrat hat das UVEK daher am 5.</span><span>&nbsp;</span><span>April 2023 beauftragt, eine Vernehmlassungsvorlage zur Regulierung von sehr grossen Kommunikationsplattformen und Suchmaschinen auszuarbeiten. </span><span>Damit sollen die Rechte der Nutzerinnen und Nutzer im digitalen Raum gestärkt und die sehr grossen Kommunikationsplattformen und Suchmaschinen zu mehr Transparenz verpflichtet werden</span><span>, auch in Bezug auf die systemischen Risiken der geregelten Dienste für die Schweiz</span><span>. </span><span></span><span>So sollen etwa durch Transparenz- und Berichterstattungspflichten die Auswirkungen der Tätigkeiten sehr grosser Kommunikationsplattformen und Suchmaschinen auf die Ausübung der Grundrechte aller Nutzerinnen und Nutzer besser abgeschätzt werden können.</span></p><p><span>&nbsp;</span></p><p><span>Die Vernehmlassungsvorlage wurde ausgearbeitet. Der Bundesrat hat sich bereits mehrfach damit befasst und wird zu einem späteren Zeitpunkt einen Entscheid fällen. Die Anliegen der Motion können – soweit sie nicht bereits in der Vernehmlassungsvorlage aufgenommen wurden – in der Vernehmlassung eingebracht werden.</span></p><p><span>&nbsp;</span></p><p><span>Weiter ist am 1.1.2025 das neue Bundesgesetz über den Jugendschutz in den Bereichen Film und Videospiele (JSFVG; SR 446.2) in Kraft getreten. Das Gesetz nimmt auch Plattformdienste in die Pflicht, die Minderjährigen Videos oder Videospiele zugänglich machen, und verpflichtet sie zu Alterskontrollen und Meldeverfahren. Daneben verankert das Gesetz auch die nationale Plattform Jugend und Medien, welche die Förderung der Medienkompetenz von Kindern und Jugendlichen zum Ziel hat.</span></p><p><span>Basierend auf den Postulaten Vara </span><a href="https://www.parlament.ch/de/ratsbetrieb/suche-curia-vista/geschaeft?AffairId=20244480"><u><span>24.4480</span></u></a><span> «Psychische Gesundheit von Jugendlichen und Exposition gegenüber sozialen Netzwerken. Was wird unternommen? » sowie Graf Maya </span><a href="https://www.parlament.ch/de/ratsbetrieb/suche-curia-vista/geschaeft?AffairId=20244592"><u><span>24.4592</span></u></a><span> «Kinder und Jugendliche vor schädlichem Konsum von sozialen Medien schützen» wird der Bundesrat zudem prüfen, ob und inwiefern Altersschranken für soziale Netzwerke sinnvoll sind.</span></p><p><span>&nbsp;</span></p><p><span>Eine Annahme und damit die Umsetzung der Motion erachtet der Bundesrat daher nicht als angezeigt.</span></p></span><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
  • <p>Der Bundesrat wird beauftragt, auf Gesetzesebene Massnahmen zur Reduzierung systemischer Risiken durch grosse digitale Plattformbetreiber einzuführen. Insbesondere soll der Bundesrat ein System einführen, welches digitale Plattformbetreiber, die von der Nutzung Minderjähriger profitieren, zu einer Beteiligung an den Kosten von Präventions- und Schutzmassnahmen von Kindern und Jugendlichen im Netz verpflichtet. Dazu könnte ein zweckgebundener Fonds eingerichtet werden, der gezielt Massnahmen zur Medienkompetenzförderung, technischen Schutzmassnahmen sowie Beratungs- und Unterstützungsangebote finanziert.</p>
  • Tiktok und Co. sollen Präventions- und Schutzmassnahmenfonds finanzieren
State
Stellungnahme zum Vorstoss liegt vor
Related Affairs
Drafts
  • Index
    0
    Texts
    • <p>Der Umgang mit grossen digitalen Plattformen ist eine der grossen Herausforderungen unserer Zeit. Bereits heute laufen weltweit auf verschiedenen Ebenen Bestrebungen zur stärkeren Regulierung und Verantwortung grosser Plattformen. Die EU hat mit dem Digital Services Act (DSA) ein umfassendes Regelwerk geschaffen, das insbesondere sehr grosse Online-Plattformen (Very Large Online Platforms, VLOPs) betrifft. Diese Plattformen – wie YouTube, TikTok oder Instagram – haben mehr als 45 Millionen Nutzerinnen und Nutzer in der EU.</p><p>Die Veröffentlichung des vom Bundesrat angekündigten Vorentwurfs zur Plattformregulierung in der Schweiz verzögert sich indes weiter. Spezifische Schutzmassnahmen für Plattformen mit minderjährigen Nutzern – wie sie der EU Digital Services Act vorsieht – sind darin jedoch nicht enthalten.</p><p>VLOPs profitieren auch in der Schweiz erheblich von der Sammlung und Nutzung personenbezogener Daten ihrer Nutzerinnen und Nutzer, insbesondere von Minderjährigen. Sie generieren enorme Werbeeinnahmen durch datengetriebene Geschäftsmodelle, während die gesellschaftlichen Kosten in Form von Schutzmassnahmen, Prävention und Aufklärung von Privaten oder der öffentlichen Hand getragen werden. Eine Abgabe oder finanzielle Beteiligung dieser Unternehmen wäre daher nicht nur gerechtfertigt, sondern notwendig, um eine faire Lastenverteilung zu gewährleisten.</p><p>Ein Kinder- und Jugendmedienschutzfonds könnte zum Beispiel durch eine verpflichtende Abgabe grosser digitaler Plattformen gespeist werden, die sich an deren Werbeeinnahmen, an der Anzahl Nutzerinnen und Nutzer oder an der Menge der gesammelten Nutzerdaten orientiert. Die Mittel würden zweckgebunden für Präventions- und Schutzmassnahmen von Kindern und Jugendlichen im digitalen Raum verwendet.</p>
    • <span><p><span>Die Schweizer Bevölkerung informiert sich zunehmend über Dienste wie Facebook, YouTube und Google. Sehr grosse Kommunikationsplattformen und Suchmaschinen beeinflussen damit vermehrt die öffentliche Debatte, ohne dass in der Schweiz spezifische gesetzliche Regelungen dafür bestehen. Der Bundesrat hat das UVEK daher am 5.</span><span>&nbsp;</span><span>April 2023 beauftragt, eine Vernehmlassungsvorlage zur Regulierung von sehr grossen Kommunikationsplattformen und Suchmaschinen auszuarbeiten. </span><span>Damit sollen die Rechte der Nutzerinnen und Nutzer im digitalen Raum gestärkt und die sehr grossen Kommunikationsplattformen und Suchmaschinen zu mehr Transparenz verpflichtet werden</span><span>, auch in Bezug auf die systemischen Risiken der geregelten Dienste für die Schweiz</span><span>. </span><span></span><span>So sollen etwa durch Transparenz- und Berichterstattungspflichten die Auswirkungen der Tätigkeiten sehr grosser Kommunikationsplattformen und Suchmaschinen auf die Ausübung der Grundrechte aller Nutzerinnen und Nutzer besser abgeschätzt werden können.</span></p><p><span>&nbsp;</span></p><p><span>Die Vernehmlassungsvorlage wurde ausgearbeitet. Der Bundesrat hat sich bereits mehrfach damit befasst und wird zu einem späteren Zeitpunkt einen Entscheid fällen. Die Anliegen der Motion können – soweit sie nicht bereits in der Vernehmlassungsvorlage aufgenommen wurden – in der Vernehmlassung eingebracht werden.</span></p><p><span>&nbsp;</span></p><p><span>Weiter ist am 1.1.2025 das neue Bundesgesetz über den Jugendschutz in den Bereichen Film und Videospiele (JSFVG; SR 446.2) in Kraft getreten. Das Gesetz nimmt auch Plattformdienste in die Pflicht, die Minderjährigen Videos oder Videospiele zugänglich machen, und verpflichtet sie zu Alterskontrollen und Meldeverfahren. Daneben verankert das Gesetz auch die nationale Plattform Jugend und Medien, welche die Förderung der Medienkompetenz von Kindern und Jugendlichen zum Ziel hat.</span></p><p><span>Basierend auf den Postulaten Vara </span><a href="https://www.parlament.ch/de/ratsbetrieb/suche-curia-vista/geschaeft?AffairId=20244480"><u><span>24.4480</span></u></a><span> «Psychische Gesundheit von Jugendlichen und Exposition gegenüber sozialen Netzwerken. Was wird unternommen? » sowie Graf Maya </span><a href="https://www.parlament.ch/de/ratsbetrieb/suche-curia-vista/geschaeft?AffairId=20244592"><u><span>24.4592</span></u></a><span> «Kinder und Jugendliche vor schädlichem Konsum von sozialen Medien schützen» wird der Bundesrat zudem prüfen, ob und inwiefern Altersschranken für soziale Netzwerke sinnvoll sind.</span></p><p><span>&nbsp;</span></p><p><span>Eine Annahme und damit die Umsetzung der Motion erachtet der Bundesrat daher nicht als angezeigt.</span></p></span><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
    • <p>Der Bundesrat wird beauftragt, auf Gesetzesebene Massnahmen zur Reduzierung systemischer Risiken durch grosse digitale Plattformbetreiber einzuführen. Insbesondere soll der Bundesrat ein System einführen, welches digitale Plattformbetreiber, die von der Nutzung Minderjähriger profitieren, zu einer Beteiligung an den Kosten von Präventions- und Schutzmassnahmen von Kindern und Jugendlichen im Netz verpflichtet. Dazu könnte ein zweckgebundener Fonds eingerichtet werden, der gezielt Massnahmen zur Medienkompetenzförderung, technischen Schutzmassnahmen sowie Beratungs- und Unterstützungsangebote finanziert.</p>
    • Tiktok und Co. sollen Präventions- und Schutzmassnahmenfonds finanzieren

Back to List