Algorithmen neutralisieren. Demokratie stärken

ShortId
25.4524
Id
20254524
Updated
18.02.2026 21:03
Language
de
Title
Algorithmen neutralisieren. Demokratie stärken
AdditionalIndexing
34;28
1
PriorityCouncil1
Nationalrat
Texts
  • <p>In seiner Antwort auf die Interpellation 25.4139 beschreibt der Bundesrat die Problematik klar: «Die Algorithmen sortieren, organisieren und empfehlen Inhalte für jede Nutzerin und jeden Nutzer, womit diese ihren Interessen entsprechende Inhalte, Produkte und Informationen vorgeschlagen erhalten. Die Algorithmen entscheiden ausserdem darüber, was den Nutzerinnen und Nutzern nicht gezeigt wird. Dies bringt problematische Aspekte mit sich. Die fehlende Möglichkeit, eine Vielfalt an Inhalten zu sehen, kann das Risiko einer Meinungspolarisierung erhöhen. Die algorithmische Personalisierung kann ausserdem dazu führen, dass problematische Inhalte (wie z.&nbsp;B. diskriminierende oder extremistische Narrative oder gefährliche «Challenges») im News Feed übermässig repräsentiert sind. »</p><p>&nbsp;</p><p>Politische, sozioökonomische und gesellschaftliche Debatten verlagern sich zunehmend in den digitalen Raum. Dort werden sie von Algorithmen gesteuert, angeheizt oder entschärft. Tatsächlich basiert das Geschäftsmodell von Social-Media-Plattformen auf der Verstärkung polarisierender Meinungen.&nbsp;</p><p>&nbsp;</p><p>Dennoch dürfen Algorithmen nicht die Oberhand gewinnen, vor allem, damit die Funktionsfähigkeit der Demokratie sichergestellt werden kann. Deshalb sollten die Nutzerinnen und Nutzer von sozialen Netzwerken die Möglichkeit haben, auf einfache Weise einen nicht personalisierten Newsfeed auszuwählen. Oder anders gesagt: die Algorithmen zu deaktivieren.&nbsp;</p><p>&nbsp;</p><p>Leider sieht der Vorentwurf des Bundesgesetzes über Kommunikationsplattformen und Suchmaschinen, den der Bundesrat am 29.&nbsp;Oktober 2025 in die Vernehmlassung gegeben hat, diese Möglichkeit nicht vor.</p>
  • <p>Die Vernehmlassungsvorlage zum neuen Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (VE-KomPG) enthält eine entsprechende Regelung in Artikel&nbsp;18 Absatz&nbsp;2 VE-KomPG. Danach müssen Anbieterinnen von sehr grossen Kommunikationsplattformen oder Suchmaschinen, die Empfehlungssysteme verwenden, für jedes ihrer verwendeten Empfehlungssysteme mindestens eine Nutzungsoption vorsehen, die nicht auf Profiling (automatisierte Bearbeitung von Personendaten) beruht. Durch diese Option sollen die Nutzerinnen und Nutzer wählen können, ob ihnen Inhalte anhand eines personalisierten oder nicht personalisierten Empfehlungssystems angezeigt werden sollen. In den Geltungsbereich der Vernehmlassungsvorlage fallen sehr grosse Kommunikationsplattformen und sehr grosse Suchmaschinen. Dadurch werden nicht sämtliche Social Media Plattformen vom Geltungsbereich erfasst, sondern nur sehr grosse mit hohen Nutzungszahlen wie z. B. Facebook, Instagram oder TikTok.</p><p>&nbsp;</p><p>Die Auswertung der Vernehmlassung ist derzeit noch ausstehend. Der Bundesrat möchte dieser Auswertung nicht vorgreifen. Er anerkennt aber, dass die Forderung der Motion für die Wahrnehmung und den Schutz der demokratischen Rechte der Nutzerinnen und Nutzer digitaler Dienste von zentraler Bedeutung ist und dass die Forderung mit dem ursprünglichen Auftrag sowie dem Sinn und Zweck des Vorentwurfs VE-KomPG im Einklang steht. In diesem Zusammenhang erklärt sich der Bundesrat bereit, diesen Aspekt in den künftigen Gesetzesentwurf aufzunehmen und dabei den durch die Ergebnisse der Vernehmlassung vorgegebenen Rahmen zu berücksichtigen.</p><p><br><br>Der Bundesrat beantragt die Ablehnung der Motion.</p>
  • <p>Der Bundesrat wird beauftragt, die notwendigen Massnahmen zu ergreifen und dem Parlament gegebenenfalls einen Gesetzesentwurf zu unterbreiten, damit die Nutzerinnen und Nutzer von Social-Media-Plattformen einen nicht personalisierten Newsfeed auswählen können.</p>
  • Algorithmen neutralisieren. Demokratie stärken
State
Stellungnahme zum Vorstoss liegt vor
Related Affairs
Drafts
  • Index
    0
    Texts
    • <p>In seiner Antwort auf die Interpellation 25.4139 beschreibt der Bundesrat die Problematik klar: «Die Algorithmen sortieren, organisieren und empfehlen Inhalte für jede Nutzerin und jeden Nutzer, womit diese ihren Interessen entsprechende Inhalte, Produkte und Informationen vorgeschlagen erhalten. Die Algorithmen entscheiden ausserdem darüber, was den Nutzerinnen und Nutzern nicht gezeigt wird. Dies bringt problematische Aspekte mit sich. Die fehlende Möglichkeit, eine Vielfalt an Inhalten zu sehen, kann das Risiko einer Meinungspolarisierung erhöhen. Die algorithmische Personalisierung kann ausserdem dazu führen, dass problematische Inhalte (wie z.&nbsp;B. diskriminierende oder extremistische Narrative oder gefährliche «Challenges») im News Feed übermässig repräsentiert sind. »</p><p>&nbsp;</p><p>Politische, sozioökonomische und gesellschaftliche Debatten verlagern sich zunehmend in den digitalen Raum. Dort werden sie von Algorithmen gesteuert, angeheizt oder entschärft. Tatsächlich basiert das Geschäftsmodell von Social-Media-Plattformen auf der Verstärkung polarisierender Meinungen.&nbsp;</p><p>&nbsp;</p><p>Dennoch dürfen Algorithmen nicht die Oberhand gewinnen, vor allem, damit die Funktionsfähigkeit der Demokratie sichergestellt werden kann. Deshalb sollten die Nutzerinnen und Nutzer von sozialen Netzwerken die Möglichkeit haben, auf einfache Weise einen nicht personalisierten Newsfeed auszuwählen. Oder anders gesagt: die Algorithmen zu deaktivieren.&nbsp;</p><p>&nbsp;</p><p>Leider sieht der Vorentwurf des Bundesgesetzes über Kommunikationsplattformen und Suchmaschinen, den der Bundesrat am 29.&nbsp;Oktober 2025 in die Vernehmlassung gegeben hat, diese Möglichkeit nicht vor.</p>
    • <p>Die Vernehmlassungsvorlage zum neuen Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (VE-KomPG) enthält eine entsprechende Regelung in Artikel&nbsp;18 Absatz&nbsp;2 VE-KomPG. Danach müssen Anbieterinnen von sehr grossen Kommunikationsplattformen oder Suchmaschinen, die Empfehlungssysteme verwenden, für jedes ihrer verwendeten Empfehlungssysteme mindestens eine Nutzungsoption vorsehen, die nicht auf Profiling (automatisierte Bearbeitung von Personendaten) beruht. Durch diese Option sollen die Nutzerinnen und Nutzer wählen können, ob ihnen Inhalte anhand eines personalisierten oder nicht personalisierten Empfehlungssystems angezeigt werden sollen. In den Geltungsbereich der Vernehmlassungsvorlage fallen sehr grosse Kommunikationsplattformen und sehr grosse Suchmaschinen. Dadurch werden nicht sämtliche Social Media Plattformen vom Geltungsbereich erfasst, sondern nur sehr grosse mit hohen Nutzungszahlen wie z. B. Facebook, Instagram oder TikTok.</p><p>&nbsp;</p><p>Die Auswertung der Vernehmlassung ist derzeit noch ausstehend. Der Bundesrat möchte dieser Auswertung nicht vorgreifen. Er anerkennt aber, dass die Forderung der Motion für die Wahrnehmung und den Schutz der demokratischen Rechte der Nutzerinnen und Nutzer digitaler Dienste von zentraler Bedeutung ist und dass die Forderung mit dem ursprünglichen Auftrag sowie dem Sinn und Zweck des Vorentwurfs VE-KomPG im Einklang steht. In diesem Zusammenhang erklärt sich der Bundesrat bereit, diesen Aspekt in den künftigen Gesetzesentwurf aufzunehmen und dabei den durch die Ergebnisse der Vernehmlassung vorgegebenen Rahmen zu berücksichtigen.</p><p><br><br>Der Bundesrat beantragt die Ablehnung der Motion.</p>
    • <p>Der Bundesrat wird beauftragt, die notwendigen Massnahmen zu ergreifen und dem Parlament gegebenenfalls einen Gesetzesentwurf zu unterbreiten, damit die Nutzerinnen und Nutzer von Social-Media-Plattformen einen nicht personalisierten Newsfeed auswählen können.</p>
    • Algorithmen neutralisieren. Demokratie stärken

Back to List