Schutz vor Diskriminierung beim Einsatz von künstlicher Intelligenz und Algorithmen

ShortId
24.3795
Id
20243795
Updated
26.09.2024 16:05
Language
de
Title
Schutz vor Diskriminierung beim Einsatz von künstlicher Intelligenz und Algorithmen
AdditionalIndexing
34;1236;04
1
PriorityCouncil1
Nationalrat
Texts
  • <p>Eines der grössten Risiken von voll- und teilautomatisierten Entscheidverfahren liegt anerkanntermassen in der Diskriminierung. Dies hat relevante Auswirkungen zum Beispiel bei der Wohnungsvergabe, der Berechnung von Versicherungsprämien und Kreditwürdigkeit oder bei der Bearbeitung von Stellenbewerbungen.<br>Leider ist aber der allgemeine Diskriminierungsschutz von Artikel 8 Abs. 2 BV (welcher in Verbindung mit Art. 35 Abs. 3 BV auch zwischen Privaten gelten müsste) heute gesetzlich nicht konkretisiert. Dies soll geändert werden. Bei (teil)automatisierten Entscheidverfahren ist dabei insbesondere zu berücksichtigen, dass Diskriminierungen nicht nur direkt, sondern auch indirekt (via<br>Proxy) erfolgen können, und dass wegen des Skalierungseffekts sehr viele Personen betroffen sein können.<br>Je nach Risiko der Anwendung braucht es deshalb auch angemessene Transparenz- und Sorgfaltspflichten inkl. Folgeabschätzungen.<br>Besondere zu berücksichtigen ist schliesslich die Rechtsdurchsetzung. Diese darf nicht daran scheitern, dass eine individuelle Beweisführung gerade bei KI-Anwendungen ohne transparenten und eindeutigen Entscheidmechanismus sehr schwierig oder technisch unmöglich ist (Black Box Problematik).<br>Der Bundesrat macht ja bereits mit Auftrag vom 22.11.2023 eine interdepartementale Auslegeordnung zur KI Regulierung. Der hier geforderte Diskriminierungsschutz kann gegebenenfalls in darauf folgende Gesetzgebungsverfahren integriert und wenn möglich und sinnvoll auch mit internationalen Regulierungen abgestimmt werden.</p>
  • <div><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial">Der Bundesrat ist sich bewusst, dass der zunehmende Einsatz algorithmischer Entscheid-Systeme nebst zahlreichen Chancen auch gewisse Risiken mit sich bringt. So hielt der Bundesrat beispielsweise bereits in seinen </span><a href="https://www.sbfi.admin.ch/dam/sbfi/de/dokumente/2020/11/leitlinie_ki.pdf.download.pdf/Leitlinien%20K%C3%BCnstliche%20Intelligenz%20-%20DE.pdf" style="text-decoration:none"><span style="font-family:Arial; text-decoration:underline; color:#0000ff">«Leitlinien Künstliche Intelligenz (KI) für den Bund»</span></a><span style="font-family:Arial"> von 2020 fest, dass Personen, Gruppen und Geschlechter vor Diskriminierung und Stigmatisierung geschützt werden sollen. Und auch 2023 in seinem </span><a href="https://www.bfs.admin.ch/asset/de/29325686" style="text-decoration:none"><span style="font-family:Arial; text-decoration:underline; color:#0000ff">«Verhaltenskodex des Bundes für menschenzentrierte und vertrauenswürdige Datenwissenschaft»</span></a><span style="font-family:Arial"> ist Nichtdiskriminierung als Grundprinzip und Vertrauenswürdigkeitsmerkmal definiert, so wie u.a. auch Erklärbarkeit, Nachvollziehbarkeit und Transparenz.</span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial; -aw-import:ignore">&#xa0;</span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial">Wie in der Motion erwähnt, hat der Bundesrat am 22. November 2023 beim UVEK (BAKOM) und beim EDA (Abteilung Europa) eine Auslegeordnung möglicher Regulierungsansätze für den Einsatz von KI in Auftrag gegeben. Im Rahmen dieser Analyse, die bis Ende 2024 vorliegen soll, wird auch die Problematik der algorithmischen Diskriminierung untersucht. </span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial; -aw-import:ignore">&#xa0;</span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial">Gestützt auf die Auslegeordnung zur Regulierung von KI wird der Bundesrat entscheiden, ob er gesetzgeberischen Handlungsbedarf mit Blick auf den in der Motion geforderten Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren sieht, und falls ja, wie dieser konkret angegangen werden könnte. Den Ergebnissen dieser Arbeiten soll zum jetzigen Zeitpunkt nicht vorgegriffen werden.</span></p></div><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
  • <p>Der Bundesrat wird beauftragt, die gesetzlichen Bestimmungen zu schaffen oder anzupassen, um einen angemessenen Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren zu schaffen.</p>
  • Schutz vor Diskriminierung beim Einsatz von künstlicher Intelligenz und Algorithmen
State
Stellungnahme zum Vorstoss liegt vor
Related Affairs
Drafts
  • Index
    0
    Texts
    • <p>Eines der grössten Risiken von voll- und teilautomatisierten Entscheidverfahren liegt anerkanntermassen in der Diskriminierung. Dies hat relevante Auswirkungen zum Beispiel bei der Wohnungsvergabe, der Berechnung von Versicherungsprämien und Kreditwürdigkeit oder bei der Bearbeitung von Stellenbewerbungen.<br>Leider ist aber der allgemeine Diskriminierungsschutz von Artikel 8 Abs. 2 BV (welcher in Verbindung mit Art. 35 Abs. 3 BV auch zwischen Privaten gelten müsste) heute gesetzlich nicht konkretisiert. Dies soll geändert werden. Bei (teil)automatisierten Entscheidverfahren ist dabei insbesondere zu berücksichtigen, dass Diskriminierungen nicht nur direkt, sondern auch indirekt (via<br>Proxy) erfolgen können, und dass wegen des Skalierungseffekts sehr viele Personen betroffen sein können.<br>Je nach Risiko der Anwendung braucht es deshalb auch angemessene Transparenz- und Sorgfaltspflichten inkl. Folgeabschätzungen.<br>Besondere zu berücksichtigen ist schliesslich die Rechtsdurchsetzung. Diese darf nicht daran scheitern, dass eine individuelle Beweisführung gerade bei KI-Anwendungen ohne transparenten und eindeutigen Entscheidmechanismus sehr schwierig oder technisch unmöglich ist (Black Box Problematik).<br>Der Bundesrat macht ja bereits mit Auftrag vom 22.11.2023 eine interdepartementale Auslegeordnung zur KI Regulierung. Der hier geforderte Diskriminierungsschutz kann gegebenenfalls in darauf folgende Gesetzgebungsverfahren integriert und wenn möglich und sinnvoll auch mit internationalen Regulierungen abgestimmt werden.</p>
    • <div><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial">Der Bundesrat ist sich bewusst, dass der zunehmende Einsatz algorithmischer Entscheid-Systeme nebst zahlreichen Chancen auch gewisse Risiken mit sich bringt. So hielt der Bundesrat beispielsweise bereits in seinen </span><a href="https://www.sbfi.admin.ch/dam/sbfi/de/dokumente/2020/11/leitlinie_ki.pdf.download.pdf/Leitlinien%20K%C3%BCnstliche%20Intelligenz%20-%20DE.pdf" style="text-decoration:none"><span style="font-family:Arial; text-decoration:underline; color:#0000ff">«Leitlinien Künstliche Intelligenz (KI) für den Bund»</span></a><span style="font-family:Arial"> von 2020 fest, dass Personen, Gruppen und Geschlechter vor Diskriminierung und Stigmatisierung geschützt werden sollen. Und auch 2023 in seinem </span><a href="https://www.bfs.admin.ch/asset/de/29325686" style="text-decoration:none"><span style="font-family:Arial; text-decoration:underline; color:#0000ff">«Verhaltenskodex des Bundes für menschenzentrierte und vertrauenswürdige Datenwissenschaft»</span></a><span style="font-family:Arial"> ist Nichtdiskriminierung als Grundprinzip und Vertrauenswürdigkeitsmerkmal definiert, so wie u.a. auch Erklärbarkeit, Nachvollziehbarkeit und Transparenz.</span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial; -aw-import:ignore">&#xa0;</span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial">Wie in der Motion erwähnt, hat der Bundesrat am 22. November 2023 beim UVEK (BAKOM) und beim EDA (Abteilung Europa) eine Auslegeordnung möglicher Regulierungsansätze für den Einsatz von KI in Auftrag gegeben. Im Rahmen dieser Analyse, die bis Ende 2024 vorliegen soll, wird auch die Problematik der algorithmischen Diskriminierung untersucht. </span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial; -aw-import:ignore">&#xa0;</span></p><p style="margin-top:0pt; margin-bottom:0pt; line-height:150%; widows:0; orphans:0; font-size:11pt"><span style="font-family:Arial">Gestützt auf die Auslegeordnung zur Regulierung von KI wird der Bundesrat entscheiden, ob er gesetzgeberischen Handlungsbedarf mit Blick auf den in der Motion geforderten Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren sieht, und falls ja, wie dieser konkret angegangen werden könnte. Den Ergebnissen dieser Arbeiten soll zum jetzigen Zeitpunkt nicht vorgegriffen werden.</span></p></div><br><br>Der Bundesrat beantragt die Ablehnung der Motion.
    • <p>Der Bundesrat wird beauftragt, die gesetzlichen Bestimmungen zu schaffen oder anzupassen, um einen angemessenen Schutz vor Diskriminierung durch teil- oder vollautomatisierte Entscheidverfahren zu schaffen.</p>
    • Schutz vor Diskriminierung beim Einsatz von künstlicher Intelligenz und Algorithmen

Back to List