Tiktok und Co. sollen die Risiken ihrer Inhalte aufzeigen und minimieren
- ShortId
-
25.3473
- Id
-
20253473
- Updated
-
14.11.2025 03:06
- Language
-
de
- Title
-
Tiktok und Co. sollen die Risiken ihrer Inhalte aufzeigen und minimieren
- AdditionalIndexing
-
34;28;1236
- 1
-
- PriorityCouncil1
-
Nationalrat
- Texts
-
- <p>Der Umgang mit grossen digitalen Plattformen ist eine der grossen Herausforderungen unserer Zeit. Bereits heute laufen weltweit auf verschiedenen Ebenen Bestrebungen zur stärkeren Regulierung und Verantwortung grosser Plattformen. Die EU hat mit dem Digital Services Act (DSA) ein umfassendes Regelwerk geschaffen, das insbesondere sehr grosse Online-Plattformen (Very Large Online Platforms, VLOPs) betrifft. Diese Plattformen – wie YouTube, TikTok oder Instagram – haben mehr als 45 Millionen Nutzerinnen und Nutzer in der EU und tragen auch in der Schweiz durch ihre Marktmacht eine besondere Verantwortung für den digitalen Raum.</p><p>Die Veröffentlichung des vom Bundesrat angekündigten Vorentwurfs zur Plattformregulierung in der Schweiz verzögert sich indes weiter. Im Frühling 2023 legte der Bundesrat die Stossrichtung der Vorlage fest. Spezifische Schutzmassnahmen für Plattformen mit minderjährigen Nutzern oder Verpflichtungen zur Analyse und Eindämmung systemischer Risiken – wie sie der EU Digital Services Act vorsieht – sind darin jedoch nicht enthalten.</p><p>In der Schweiz ist es daher angezeigt, Regelungen zu schaffen, um einerseits die negativen Auswirkungen grosser Plattformen auf die Gesellschaft zu begrenzen und andererseits einen nachhaltigen Schutz für Minderjährige im digitalen Raum sicherzustellen.</p>
- <span><p><span>Die Schweizer Bevölkerung informiert sich zunehmend über Dienste wie Facebook, YouTube und Google. Sehr grosse Kommunikationsplattformen und Suchmaschinen beeinflussen damit vermehrt die öffentliche Debatte, ohne dass in der Schweiz spezifische gesetzliche Regelungen dafür bestehen. Der Bundesrat hat das UVEK daher am 5.</span><span> </span><span>April 2023 beauftragt, eine Vernehmlassungsvorlage zur Regulierung von sehr grossen Kommunikationsplattformen und Suchmaschinen auszuarbeiten. </span><span>Damit sollen die Rechte der Nutzerinnen und Nutzer im digitalen Raum gestärkt und die sehr grossen Kommunikationsplattformen und Suchmaschinen zu mehr Transparenz verpflichtet werden</span><span>, auch in Bezug auf die systemischen Risiken der geregelten Dienste für die Schweiz</span><span>. </span><span></span><span>So sollen etwa durch Transparenz- und Berichterstattungspflichten die Auswirkungen der Tätigkeiten sehr grosser Kommunikationsplattformen und Suchmaschinen auf die Ausübung der Grundrechte aller Nutzerinnen und Nutzer besser abgeschätzt werden können.</span></p><p><span> </span></p><p><span>Die Vernehmlassungsvorlage wurde ausgearbeitet. Der Bundesrat hat sich bereits mehrfach damit befasst und wird zu einem späteren Zeitpunkt einen Entscheid fällen. </span><span>Die Anliegen der Motion können – soweit sie nicht bereits in der Vernehmlassungsvorlage aufgenommen wurden – in der Vernehmlassung eingebracht werden.</span></p><p><span> </span></p><p><span>Eine Annahme und damit die Umsetzung der Motion erachtet der Bundesrat daher nicht als angezeigt.</span></p></span><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
- <p>Der Bundesrat wird beauftragt, auf Gesetzesebene Massnahmen zur Reduzierung systemischer Risiken durch grosse digitale Plattformbetreiber einzuführen. Namentlich sollen grosse digitale Plattformunternehmen verpflichtet werden, regelmässig zu analysieren, inwiefern ihre Produkte und Technologien gesellschaftliche Risiken verstärken – etwa die Verbreitung illegaler oder gefährdender Inhalte, Verstösse gegen Grundrechte oder negative Auswirkungen auf die öffentliche Gesundheit – und daraufhin gezielte Massnahmen zur Risikominimierung umzusetzen.</p>
- Tiktok und Co. sollen die Risiken ihrer Inhalte aufzeigen und minimieren
- State
-
Stellungnahme zum Vorstoss liegt vor
- Related Affairs
-
- Drafts
-
-
- Index
- 0
- Texts
-
- <p>Der Umgang mit grossen digitalen Plattformen ist eine der grossen Herausforderungen unserer Zeit. Bereits heute laufen weltweit auf verschiedenen Ebenen Bestrebungen zur stärkeren Regulierung und Verantwortung grosser Plattformen. Die EU hat mit dem Digital Services Act (DSA) ein umfassendes Regelwerk geschaffen, das insbesondere sehr grosse Online-Plattformen (Very Large Online Platforms, VLOPs) betrifft. Diese Plattformen – wie YouTube, TikTok oder Instagram – haben mehr als 45 Millionen Nutzerinnen und Nutzer in der EU und tragen auch in der Schweiz durch ihre Marktmacht eine besondere Verantwortung für den digitalen Raum.</p><p>Die Veröffentlichung des vom Bundesrat angekündigten Vorentwurfs zur Plattformregulierung in der Schweiz verzögert sich indes weiter. Im Frühling 2023 legte der Bundesrat die Stossrichtung der Vorlage fest. Spezifische Schutzmassnahmen für Plattformen mit minderjährigen Nutzern oder Verpflichtungen zur Analyse und Eindämmung systemischer Risiken – wie sie der EU Digital Services Act vorsieht – sind darin jedoch nicht enthalten.</p><p>In der Schweiz ist es daher angezeigt, Regelungen zu schaffen, um einerseits die negativen Auswirkungen grosser Plattformen auf die Gesellschaft zu begrenzen und andererseits einen nachhaltigen Schutz für Minderjährige im digitalen Raum sicherzustellen.</p>
- <span><p><span>Die Schweizer Bevölkerung informiert sich zunehmend über Dienste wie Facebook, YouTube und Google. Sehr grosse Kommunikationsplattformen und Suchmaschinen beeinflussen damit vermehrt die öffentliche Debatte, ohne dass in der Schweiz spezifische gesetzliche Regelungen dafür bestehen. Der Bundesrat hat das UVEK daher am 5.</span><span> </span><span>April 2023 beauftragt, eine Vernehmlassungsvorlage zur Regulierung von sehr grossen Kommunikationsplattformen und Suchmaschinen auszuarbeiten. </span><span>Damit sollen die Rechte der Nutzerinnen und Nutzer im digitalen Raum gestärkt und die sehr grossen Kommunikationsplattformen und Suchmaschinen zu mehr Transparenz verpflichtet werden</span><span>, auch in Bezug auf die systemischen Risiken der geregelten Dienste für die Schweiz</span><span>. </span><span></span><span>So sollen etwa durch Transparenz- und Berichterstattungspflichten die Auswirkungen der Tätigkeiten sehr grosser Kommunikationsplattformen und Suchmaschinen auf die Ausübung der Grundrechte aller Nutzerinnen und Nutzer besser abgeschätzt werden können.</span></p><p><span> </span></p><p><span>Die Vernehmlassungsvorlage wurde ausgearbeitet. Der Bundesrat hat sich bereits mehrfach damit befasst und wird zu einem späteren Zeitpunkt einen Entscheid fällen. </span><span>Die Anliegen der Motion können – soweit sie nicht bereits in der Vernehmlassungsvorlage aufgenommen wurden – in der Vernehmlassung eingebracht werden.</span></p><p><span> </span></p><p><span>Eine Annahme und damit die Umsetzung der Motion erachtet der Bundesrat daher nicht als angezeigt.</span></p></span><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
- <p>Der Bundesrat wird beauftragt, auf Gesetzesebene Massnahmen zur Reduzierung systemischer Risiken durch grosse digitale Plattformbetreiber einzuführen. Namentlich sollen grosse digitale Plattformunternehmen verpflichtet werden, regelmässig zu analysieren, inwiefern ihre Produkte und Technologien gesellschaftliche Risiken verstärken – etwa die Verbreitung illegaler oder gefährdender Inhalte, Verstösse gegen Grundrechte oder negative Auswirkungen auf die öffentliche Gesundheit – und daraufhin gezielte Massnahmen zur Risikominimierung umzusetzen.</p>
- Tiktok und Co. sollen die Risiken ihrer Inhalte aufzeigen und minimieren
Back to List