KI-Ethik
Eine sichere und vertrauensvolle Nutzung von KI – gerade auch in sensiblen Bereichen wie dem Gesundheitswesen – verlangt darauf eingestellte rechtliche Rahmenbedingungen und die Einhaltung europäischer Datenstandards. Wir unterstützen die europäischen und nationalen Bestrebungen, einen guten Rechtsrahmen für KI zu schaffen. Wir werden unsere Möglichkeiten nutzen, um in Sachsen eine rechtssichere Nutzung von KI in der Praxis sicherzustellen. Dabei spielt es eine besondere Rolle, dass die notwendige Regulierung auf eine Weise innovationsfördernd wirkt, die im Einklang mit den europäischen Werten steht und auf deren Wahrung achtet.
Seit geraumer Zeit erleichtert und verstärkt die Europäische Kommission, die EU-weite Zusammenarbeit auf dem Gebiet der KI, um die europäische Wettbewerbsfähigkeit zu steigern und das auf den EU-Werten beruhende Vertrauen zu stärken. Der dazu vorliegende weltweit erste Rechtsrahmen für KI wird einerseits die Entwicklung von KI fördern, andererseits ein hohes Schutzniveau für öffentliche Interessen gewährleisten und Vertrauen in die KI-Systeme schaffen.
Auf Bundesebene arbeitet beispielsweise das »KI-Observatorium« (Bundesministerium für Arbeit und Soziales) an Leitlinien für die Praxis zur Schaffung eines Ordnungsrahmens. Ethische und rechtsstaatliche Anforderungen sollen zentraler Bestandteil einer »AI made in Europe« sein. Wir werden diese Ansätze weiterverfolgen und in geeigneter Weise für den Freistaat Sachsen umsetzen.
Wir werden uns dabei für einen auf Innovation ausgerichteten Regelungsrahmen einsetzen, der sich flexibel an eine sich rasch entwickelnde Wirtschaft und Gesellschaft anpassen kann. Der Regelungsrahmen muss Test-, Lern- und Anpassungsmöglichkeiten bieten.
Vertrauen in KI-Anwendungen schaffen
Ein guter und anpassungsfähiger Rechtsrahmen für KI-Anwendungen alleine schafft noch kein Vertrauen in KI. Vertrauen in die KI-Technologie und damit deren Akzeptanz kann nur entstehen bzw. erhalten werden, wenn die Mechanismen der KI und deren Kontrolle durch den Menschen plausibel nachvollzogen und verstanden werden können. Aus diesem Grund müssen algorithmische Analyse-, Prognose- und Entscheidungssysteme transparent, nachvollziehbar und kontrollierbar sein sowie in der Konsequenz von Menschen geändert und notfalls beendet werden können. Um dies zu gewährleisten, wollen wir bei den eingesetzten Algorithmen und Systemen Open-Source-Entwicklungen begünstigen.
Zudem muss potenziellen Diskriminierungen durch Lernende Systeme effektiv begegnet werden. Da bereits die Entwicklung und Konzeption von KI-Systemen Diskriminierungspotenziale beinhalten, müssen diskriminierungsrelevante Aspekte sowie sonstige ethische und gesellschaftliche Fragestellungen bereits in diesem frühen Stadium übergreifend beachtet werden. So ist insbesondere darauf zu achten, dass die Datengrundlage für das Anlernen der Algorithmen die gesamte Vielfalt der Gesellschaft abbildet.
Algorithmen zielen auf Regeln, die auf viele Sachverhalte Anwendung finden können. Sie verallgemeinern und vernachlässigen das Individuelle. Ergebnisse und Entscheidungen von KI-Systemen können diskriminierend sein, weil die Trainingsdaten der KI-Algorithmen ungewollt Vorurteile enthalten. Diese diskriminierenden Verzerrungen können durch das Training der Algorithmen in die Software übertragen werden. Eine schlichte Vergrößerung der Trainings-Datenmenge vergrößert dabei nicht zwingend die Chance für Diskriminierungsfreiheit. Durch Trainingsdaten hoher Qualität sowie eine Bewertung von Ergebnissen eines KI-Systems anhand von Validierungsdatensätzen unter gezielter Einbeziehung diskriminierungserfahrener Bevölkerungsgruppen kann die Gefahr von Diskriminierungen minimiert, aber nicht gänzlich ausgeschlossen werden.
Daraus folgt für den Einsatz von KI-basierten Anwendungen, dass ausschließlich solche Entscheidungen an KI delegiert werden, die keine demokratischen und ethischen Problemstellungen nach sich ziehen. Für öffentliche Stellen bedeutet dies: Grundrechtssensible Bereiche, in denen wertende Entscheidungen unter Abwägung widerstreitender Interessen zu treffen sind, stellen kein geeignetes Einsatzgebiet für KI dar.
Wir sehen in einer grundsätzlichen gesellschaftlichen Debatte über KI den Grundstein gesellschaftlicher Akzeptanz. Unser Ziel ist die Vermittlung der technischen Möglichkeiten im Allgemeinen sowie mit Praxisbeispielen sowohl aus dem inneren Bereich der Verwaltung als auch dem Bürgerinnen- und Bürgerservice.
Die sinnvolle Anwendung neuer Technologien erfordert einen breiten Konsens in der Gesellschaft hinsichtlich des Nutzens und der Risiken. Durch eine frühzeitige und ergebnisoffene Bürgerinnen- und Bürgerbeteiligung auf der Grundlage umfassender evidenz-basierter Wissensvermittlung wollen wir einen solchen Konsens erreichen.
Wir streben an, dass neben dem Beteiligungsportal des Freistaats vielfältige Formate der Informationsvermittlung und der Beteiligung der Bürgerinnen und Bürger an den politischen Meinungsbildungsprozessen zur Anwendung kommen. Insbesondere sollen auch Vereine und zivilgesellschaftliche Initiativen, die sich mit KI-Anwendungen beschäftigen, eingebunden und gefördert werden.
Alle Bürgerinnen und Bürger müssen darauf vertrauen können, dass algorithmische Systeme nicht diskriminieren. Wir möchten das Vertrauen mehren, indem Behörden und Unternehmen mittels Selbstverpflichtung anstreben, nur diskriminierungsfreie KI-Anwendungen zu nutzen. Dies kann durch Anreizsysteme wie Gütesiegel, die durch unabhängige Stellen verliehen werden, unterstützt werden. Damit nehmen wir einen Vorschlag der Datenethikkommission der Bundesregierung auf.