17.2.2025 
Geplante KI Regulierung in der Schweiz

Bild in DALL-E auf den Prompt: Ein Bild zum Thema KI Regulierung in der Schweiz.


Vor ein paar Tagen hat der Bundesrat seinen Fahrplan zur KI Regulierung in der Schweiz bekannt gegeben.

Ratifizierung der KI Konvention des Europarats

In seiner Medienmitteilung kommuniziert er, dass er die Konvention des Europarats für Künstliche Intelligenz ratifizieren will. Diese schreibt die Einhaltung grundlegender Menschenrechte bei der Verwendung von KI vor, allerdings nur für staatliche Akteur:innen.
Die Ratifizierung der Konvention des Europarats soll die einzige horizontale Regulierung in der Schweiz sein.

Der Bundesrat sieht damit von einer sektorenübergreifenden KI-Regulierung vergleichbar derjenigen es AI Act der Europäischen Union ab. Allerdings sollen für einzelne Sektoren wie z.B. für das Gesundheitswesen und den Verkehr die Aktivitäten zur Regulierung fortgesetzt werden.


Massnahmen für private Unternehmen


Wichtig in Bezug auf die Konvention des Europarats ist zu wissen, dass diese für private Unternehmen weniger weitgehend als für öffentliche Behörden ist: Ratifizierende Staaten haben die Freiheit, eigene Massnahmen für private Unternehmen festzulegen, die nicht zwangsläufig gesetzlich bindend sein müssen.

Zeithorizont


Was ist der Zeithorizont, die der Bundesrat für die Umsetzung in Aussicht stellt?

Bis Ende 2026 soll eine Vernehmlassungsgrundlage für die Umsetzung der KI Konvention in den Bereichen Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht ausgearbeitet werden.
Ebenfalls bis Ende 2026 soll ein Plan für Massnahmen von rechtlich nicht verbindlicher Natur erarbeitet werden.

Die Dauer bis zum finalen Entscheid der Regulierungen wird auf mindestens 3 Jahre geschätzt, d.h. wir können damit nicht vor 2028 rechnen.


Was sehe ich für Vor- und Nachteile zu diesem Weg?


Auf der einen Seite finde ich eine vorsichtige Regulierung, die Innovation nicht hemmen will, sinnvoll.
Dass die Gefahr besteht, durch zu starke sektorübergreifende Regulierungen wie diejenige des EU AI Act Innovationen zu hemmen, habe ich in letzter Zeit immer wieder gehört. Auch von Personen, die Regulierungen nicht grundsätzlich negativ gegenüberstehen.


Standort für verantwortungsvolle, integrative und transparente KI Systeme nutzen

Ich denke, es ist wichtig, dass wir in der Schweiz das Potenzial des Wissenschaftsstandorts nutzen, verantwortungsvolle, integrative und transparente KI Systeme zu bauen, die den Tech-Giganten aus den USA und China etwas entgegensetzen können. Gerade die jüngsten politischen Entwicklungen machen dies bitter nötig.
Auf der anderen Seite scheint mir die Dauer bis zum finalen Entscheid 2028 sehr lange zu sein. Wie gehen wir bis dann zum Beispiel damit um, dass Generative KI Systeme klar stereotypisierte Outputs liefern?

Als Beispiel sei auf das Bild verwiesen, das ich zu diesem Beitrag von DALL-E erstellen liess: Der (zugegeben etwas tapsige) Prompt: «Ein Bild zum Thema KI Regulierung in der Schweiz.»

Es mag vielleicht für einige eine Lappalie sein, aber das Bild zeigt einen Mann mit Schlips, obwohl ich im Prompt nirgends eine Person, geschweige denn das Geschlecht der Person erwähne.

Es besteht die Gefahr, dass Bilder wie diese Geschlechterstereotypen reproduzieren und damit verstärken. Nicht nur Sprache, sondern auch Bilder formen das Denken.


Mein KI Wunsch an die Zukunft


Wenn wir in der Schweiz Generative KI Systeme bauen und nutzbar machen, wünsche ich mir, dass die Systeme hier entweder keine Person zeigen oder zurückfragen, wie die Person denn aussehen soll. Und anstelle der Skyline von Zürich dürfte das System selbstverständlich auch mal Basel zeigen. ;-)

Falls die vorsichtige Regulierungsstrategie des Bundesrats eine solch inklusive Entwicklung im Hinblick auf KI-Systeme begünstigt, werde ich in ein paar Jahren zurückblicken und sie für gut erachtet haben werden.  


Weiterführende Links:
Medienmitteilung des Bundes: https://www.admin.ch/gov/de/start/dokumentation/medienmitteilungen.msg-id-104110.html
Mehr zu den Rahmenbedingungen für Künstliche Intelligenz des Europarats: https://algorithmwatch.org/de/europarat-kunstliche-intelligenz/
Die KI-Konvention des Europarats im Wortlaut: https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence
Tagung zu KI-Regulierung in der Schweiz im März: https://www.unisg.ch/de/universitaet/schools/law/forschung/techlaw/ki-konferenz-2025/


 



10. Juni 2024

KI und Chancengleichheit:

Ein Einblick


 

Kürzlich habe ich ChatGPT gefragt: «Was ist eine gute Startup Idee für eine 45jährige Frau ohne Startkapital?» ChatGPT schlug vor: «Wenn Sie über Fachkenntnisse in einem bestimmten Bereich verfügen, z.B. Karriereberatung, Lebensberatung, Gesundheits- und Wellnessberatung,
könnten Sie eine Online-Beratungs- oder Coaching-Dienstleistung anbieten.» Ich habe dann auch noch so gefragt: «Was ist eine gute Startup Idee für einen 45jährigen Mann ohne Startkapital?»


Ihr ahnt es vielleicht. Die Antwort war: «Nutzen Sie Ihr Fachwissen und Ihre Erfahrung in Ihrer Branche, um eine Beratungsfirma zu gründen. Dies könnte in Bereichen wie Management, Finanzen, IT oder Bildung sein. Die Nachfrage nach spezialisierten Beratern ist oft hoch, und Ihr persönliches Netzwerk könnte ein guter Ausgangspunkt für die Kundenakquise sein.»

Diese Unterschiede rühren daher, dass KI-Systeme wie ChatGPT von den Daten im Internet lernen. Diese Daten spiegeln unsere gesellschaftlichen Normen und Biases wider. Mehr Männer als Frauen sind in Sektoren wie IT und Finanzen tätig, und das beeinflusst die Antworten der KI.

Problem oder Symptom?
Einige sagen vielleicht, dass eine KI, die unsere Realität widerspiegelt, kein echtes Problem darstellt. Doch wenn solche Systeme unreflektiert eingesetzt werden, können bestehende Ungleichheiten und Stereotypen weiter verstärkt werden. Konkret könnte es dazu führen, dass der Gender Pay Gap zwischen den Geschlechtern noch einmal verstärkt wird. Denn mit den Bereichen, die dem Mann vorgeschlagen werden, lässt sich mehr Geld verdienen als mit den Vorschlägen für die Frau.

Lösungsansätze

Was können wir konkret tun, um Biases in KI zu mindern bzw. Chancengleichheit zu fördern? Laut Nicola Marsden, Hochschule Heilbronn, und Londa Schiebinger, Stanford University, können wir auf mehreren Dimensionen ansetzen:

1. Produkt
Es ist hilfreich zu verstehen, auf welchen Daten KI-Systeme basieren und wie diese Daten genutzt werden. KIs können trainiert werden, um gängige Vorurteile zu "entlernen." ChatGPT ist im Wesentlichen mit den Daten des Internets gefüttert. Die Antworten, die das System auf eine Frage gibt, basieren auf Wahrscheinlichkeiten: D.h. das System schaut sich alle vorhandenen Daten an und prüft für seine Antwort, welches Wort am wahrscheinlichsten auf das vorangegangene Wort folgt. Beim Maschinellen Lernen spielen sogenannte «word embeddings» – Worteinbettungen – eine grosse Rolle. Diese erfassen Assoziationen zwischen Wörtern. Sie ergeben eine stärkere Verbindung bei Wortpaaren, die öfter zusammen genannt werden. Und eine schwächere bei Wortpaaren, die weniger oft zusammen genannt werden. Da die Daten von ChatGPT bei den Wortpaaren «Frau» und
«Wellness» eine stärkere Verbindung erkennen als bei «Frau» und «Finanzen», bekomme ich die obigen Antworten.

Informatiker*innen können natürlich einen Algorithmus programmieren, der diese Worteinbettungen entzerrt und die Wörter «Frau» und «Finanzen» sowie «Mann» und «Wellness» quasi näher zusammenschiebt. Dies wird auch bereits gemacht. Aber es ist gar
nicht so einfach, bestehende Verbindungen innerhalb der Systeme so nachzubearbeiten, damit sie unvoreingenommen und fair sind. Das hat sich kürzlich beim Bildgeneratormodell «Gemini» von Google gezeigt: wenn man nach einem Bild eines deutschen Soldaten aus dem Jahr 1943 fragte, wurde eine schwarze Person in NS-Uniform dargestellt. Hier wurde der entzerrende Algorithmus vor dem Release nicht auf die Funktionstüchtigkeit bei
historischen Daten getestet.

2. Gesellschaft
Die Daten im Internet bilden unsere Gesellschaft ab. Beziehungsweise bilden sie die Gesellschaft leider eher noch verzerrter ab als sie sowieso schon ist. Wikipedia ist eine der am meisten genutzten Webseiten der Welt. Allerdings machen Frauenbiografien weniger als  20% der biografischen Berichterstattung aus. Dies könnte damit zusammenhängen, dass nur rund 16% der Autor*innen von Wikipedia Frauen sind (Angaben Stand Februar 2024). Auf unser Beispiel angewendet könnte es also sein, dass die Wörter «Frau» und «Finanzen» in der Realität gar nicht so weit voneinander entfernt sind wie das System aus den Daten im Internet gelernt hat.

Deshalb ist es wichtig, dass viele unterschiedliche Personen Generative KI-Systeme nutzen. Denn durch ihren Input und ihr Feedback lernen die Systeme. Dadurch wird auch der Druck erhöht, sich Gedanken zu machen über sinnvolle diversitäts-sensible Algorithmen. Selbstverständlich kommt hier der Politik und dem Gesetzgeber auch eine wichtige Rolle zu. Sie handeln Rahmenbedingungen aus und setzen Gesetze um, innerhalb derer sich KI-Systeme zu bewegen haben. So geschehen im EU AI Act. 

3. Entwicklungsteam
Vielfältige Teams können vielfältigere und gerechtere KI-Produkte schaffen. Solche interdisziplinären Teams können dann Fragen besser beantworten wie «Welche Definition von Fairness soll bei der Entwicklung eines Produkts zugrunde liegen?» oder «Wie können wir den Algorithmus so programmieren, dass diese Definition von Fairness reproduziert wird?». 

Einige Organisationen halten auch bereits fest, dass KI-Projekte von einem Ethikbeirat begleitet werden und alle wichtigen Stakeholder miteinbezogen werden sollen. So will man sicherstellen, dass die Projekte im Einklang mit gesellschaftlichen Werten stehen.

4. Prozesse
Der Entwicklungsprozess eines KI-Produkts sollte untersuchen, wer von dem Produkt
profitieren wird und welche Nebenwirkungen auftreten könnten. In unserem Beispiel könnte es interessant sein zu schauen, welche Antworten ChatGPT in anderen Sprachen ausspuckt. Denn das LLM ist nicht auf alle Sprachen gleich gut trainiert. Natürlich besteht ein Gefälle von wirtschaftlich relevanten zu wirtschaftlich weniger relevanten Sprachen. Bei Feedbackschlaufen ist es wichtig, sich gut zu überlegen, wen ich einbeziehe. Wenn ich die Partizipation nicht gut steuere, besteht die Gefahr, marginalisierte Gruppen zu übergehen und dadurch bestehende Biases in der Testphase nicht aufzudecken.

Abschlussgedanken
Diese vier Dimensionen sind ineinander verwoben und beeinflussen sich gegenseitig. Jede der Dimensionen kann dazu beitragen, dass Chancengleichheit in allen Dimensionen verstärkt oder eben auch vermindert werden kann. KI Systeme haben das Potential,
gesellschaftliche Ungleichheiten zu vermindern. Allerdings nur, wenn die anderen Dimensionen auch mitspielen und die Systeme mit einem Fokus auf Menschlichkeit und Fairness entwickelt und eingesetzt werden. 

Zum Weiter vertiefen:
Nicola Marsden et al.: Sozialverantwortliche KI-Gestaltung. Auf KI Campus, 2023.
Londa Schiebinger et al.: Machine Learning – Analyzing Gender. Auf: Gendered Innovations
Standord Edu, 2011-2020.

Dieser Blogbeitrag erschien erstmals auf der Webseite der Keenship Community am 3. Juni 2024.