Künstliche Intelligenz in Wissenschaft und Forschung

Cover der Publikation von Angela Borgwardt: Bit für Bit in die Zukunft. Künstliche Intelligenz in Wissenschaft und Forschung. Berlin 2020.

Angela Borgwardt: Bit für Bit in die Zukunft. Künstliche Intelligenz in Wissenschaft und Forschung (Schriftenreihe des Netzwerk Wissenschaft). Berlin: Friedrich-Ebert-Stiftung 2020.

Link zur Publikation

Inhalt

In der Publikation werden neue Entwicklungen der Künstlichen Intelligenz (KI) in ihren Auswirkungen auf Wissenschaft und Forschung thematisiert.

KI wird zum Anlass, (erneut) wichtige Fragen zu stellen, die die gesamte Gesellschaft und ihre weitere Entwicklung betreffen, z.B.: Welche Mobilitäts- und Kommunikationsformen wollen wir in Zukunft haben? Welche Bedeutung sollen soziale Beziehungen und persönliche Zuwendung haben, z.B. im Gesundheitssystem? Die damit verbundenen Ziele und Werte liegen jenseits maschineller Logik. Sie sind Hervorbringungen der menschlichen Kultur und Ausdrucksformen des Bewusstseins und der Empathie. KI fordert die Menschen heraus, sich ihrer gesellschaftlichen Ziele und Werte bewusst zu werden, damit die neuen technischen Möglichkeiten zum Nutzen der Menschheit konstruktiv und gemeinwohlorientiert eingesetzt werden können.

 

Wichtige Ergebnisse/Handlungsempfehlungen

Verantwortungsvollen Umgang mit KI erreichen 

In Deutschland und Europa sollte ein Konzept der KI umgesetzt werden, das auf ein demokratisches, offenes und vielfältiges Gemeinwesen ausgerichtet ist – in Abgrenzung zu Konzepten in den USA oder in China, wo KI-Forschungsprogramme sich in der Regel an sicherheitspolitischen bzw. militärischen Fragen orientieren oder in ein autoritäres Gesellschaftskonzept eingebettet sind.

Eine KI „Made in Europe“ sollte sich am Wohl der Gesellschaft orientieren und auf eine Entlastung des Menschen, eine Verringerung sozialer Ungleichheiten und eine nachhaltige Entwicklung ausgerichtet sein. Dazu gehört, Menschen nicht als Datenlieferantinnen und -lieferanten oder manipulierbare Käuferinnen und Käufer zu betrachten. Vielmehr sollte ein ganzheitliches Menschenbild verfolgt werden, das den Menschen in allen gesellschaftlichen Bereichen in den Mittelpunkt stellt: Es bedarf aufgeklärter Bürgerinnen und Bürger, die über Kompetenzen verfügen, KI-Systeme zu verstehen, zu nutzen und mit ihnen zu interagieren. Übergreifendes Ziel sollte es deshalb sein, Menschen über KI (kognitiv) zu befähigen und in der Gesellschaft einen verantwortungsvollen Umgang mit KI zu etablieren, der sich an demokratischen Werten, Menschenrechten und dem Prinzip der Rechtsstaatlichkeit orientiert.

Erklärbarkeit und Verständlichkeit von KI anstreben

Eine wichtige Grundlage für einen verantwortungsvollen Umgang mit KI ist Erklärbarkeit: Die Verarbeitungsschritte eines KI-Systems müssen verständlich und nachvollziehbar sein, um die Gründe zu verstehen, die zu einer Entscheidung geführt haben. Nur dann kann der Mensch daraus sinnvolle Schlüsse ziehen und das System weiter optimieren, und nur dann ist es möglich, Vertrauen und Sicherheit zu schaffen, Gerechtigkeit und Transparenz zu verwirklichen sowie ethische und rechtliche Unabhängigkeit zu wahren. Eine erklärbare KI ist für Entwicklerinnen und Entwickler sowie Anwenderinnen und Anwender wichtig, aber auch für Nutzerinnen und Nutzer die von KI-Systemen Betroffenen. Sie müssen den Einsatz und die Auswirkungen von Algorithmen verstehen, um informiert handeln zu können und systematische Verzerrungen zu erkennen, z.B. Diskriminierungen, die aus automatisierten Entscheidungen resultieren. Bei einem gemeinwohlorientierten Einsatz und der gesellschaftlichen Akzeptanz von KI spielt die Aufklärung der Nutzerinnen und Nutzer eine zentrale Rolle. Deshalb muss intensiv auf ein allgemeines Verständnis von KI-Systemen hingewirkt werden.

Der Mensch gibt einem KI-System durch das Programmieren eine Richtung vor und die Maschine kommt über Algorithmen und Kombinatorik zu bestimmten Schlüssen. Dadurch werden Menschen in die Lage versetzt, bessere Entscheidungen zu treffen. Auch die Wissenschaft kann durch KI gewinnen, z.B. indem Forscherinnen und Forscher KI-Verfahren dazu einsetzen können, den Wissensstand oder die Gesamtheit von Publikationen in einem Fachgebiet systematisch zu erschließen und zu ordnen.

In komplexen Entscheidungssituationen können KI-Systeme zwar neue Phänomene entdecken und dem Menschen Vorschläge machen, doch sollte ein Mensch diese automatisch generierten Schlussfolgerungen aufnehmen, reflektieren, bewerten und letztlich die Entscheidung treffen.

KI-Forschung breit und divers fördern

Um die KI-Wissenschaft in Deutschland zu stärken, müssen die staatlichen Investitionen in KI-Forschung an den Hochschulen erhöht werden. Dabei sollte möglichst divers gefördert werden, d.h. sowohl anwendungsorientierte Forschung als auch Grundlagenforschung ohne direktes Ziel der Verwertbarkeit. Auch sollte sich der Fokus nicht nur auf maschinelles Lernen/Deep Learning richten, sondern gezielt auch auf andere Bereiche gegen den Trend, z.B. Wissensrepräsentation. Zudem gilt es, KI-Forschung auf weitere gesellschaftliche Anwendungsbereiche auszuweiten, indem Schwerpunkte wie Mobilität und Gesundheit durch derzeit vernachlässigte Bereiche wie Bildung ergänzt werden.

Wichtig ist, dass KI-Forschung nicht nur an wenigen Exzellenzstandorten stattfindet, sondern das ganze Wissenschaftssystem umfasst. Entsprechend sollten vielfältige Disziplinen, Themenbereiche und Wissenschaftseinrichtungen gefördert werden, um unterschiedliche Perspektiven auf das Thema zu berücksichtigen. Dies ist eine wichtige Voraussetzung, um die mit KI verbundenen Fragestellungen und Herausforderungen angemessen zu bearbeiten.

Um eine humanistische und gemeinwohlorientierte KI zu gestalten, muss ethische und gesellschaftliche Forschung einen deutlichen höheren Stellenwert erhalten als bisher. Es bedarf einer stärkeren kritischen Reflexion von KI, die sich auch mit möglichen Gefahren wie z.B. Datenmissbrauch und Fragen der Verantwortung beschäftigt. Notwendig ist deshalb eine verstärkte Förderung der Geistes- und Sozialwissenschaften, einschließlich der Digital Humanities. Dabei sollten diese nicht nur als dialogische Forschung gefördert werden, also im Sinne einer Vermittlung und Akzeptanzförderung von KI, sondern auch im Bereich der KI-Forschung selbst. Bei der Umsetzung der KI-Strategie der Bundesregierung sollte somit darauf geachtet werden, in diesem Bereich Forschung zu fördern und auch explizit Professuren in ethischer und gesellschaftlicher Forschung einzurichten.

KI-Expertise im gesamten Wissenschaftssystem aufbauen

Im Rahmen ihrer KI-Strategie will die Bundesregierung hundert zusätzliche KI-Professuren einrichten, um die KI-Forschung zu stärken. Die Besetzung der Professuren sollte mit Augenmaß stattfinden, da es ausreichend Zeit braucht, um qualifizierte KI-Wissenschaftlerinnen und Wissenschaftler in dieser Zahl zu finden. Deshalb sollten die Hochschulen die Möglichkeit haben, diese Stellen sukzessive in den nächsten Jahren besetzen. Entscheidend ist dabei, klare Qualitätskriterien für die KI-Professuren zu benennen und die Berufungen konsequent daran auszurichten. Dabei muss auch auf Diversität geachtet werden, d.h. es sollten ausreichend weibliche und junge Wissenschaftlerinnen und Wissenschaftler zum Zug kommen.

Die Schaffung von KI-Professuren muss durch weitere Aktivitäten auf verschiedenen Ebenen ergänzt werden, da nachhaltige KI-Expertise im Wissenschaftssystem nur „von unten“ aufgebaut werden kann. Deshalb ist es notwendig, zügig Maßnahmen in der Nachwuchsförderung und im Ausbildungsbereich umzusetzen. Zum einen sollten Doktorandinnen/Doktoranden- und Postdoc-Programme in der KI-Forschung aufgelegt werden, zum anderen sollten an den Schulen verstärkt digitale Schlüsselkompetenzen vermittelt und die Schülerinnen und Schüler mit Informatik und KI vertraut gemacht werden.

KI rechtlich und politisch regulieren

Um Fehlentwicklungen und Missbrauch von KI entgegenzuwirken, bedarf es geeigneter rechtlicher Rahmenbedingungen. Diese müssen sicherstellen, dass sowohl Rechtssicherheit als auch ausreichend Spielraum für Innovationen gegeben ist.

Eine wichtige Frage bei KI-Systemen ist, wer bei Entscheidungen die Verantwortung trägt, insbesondere bei Fehlern. Anwenderinnen und Anwender sowie Nutzerinnen und Nutzer müssen wissen, wer praktisch zur Verantwortung gezogen werden kann. Der Gesetzgeber sollte hier für Haftungsklarheit sorgen und deshalb eine Person bzw. eine Stelle festlegen, an die sich der bzw. die Einzelne wenden kann. Teilweise kann das bestehende Recht bei KI angewendet werden, doch ist es sinnvoll, bei grundlegenden Innovationen wie z.B. autonom fahrenden Autos neue gesetzliche Regelungen zu schaffen, in denen ein konkreter Anspruch formuliert und speziell bestimmt wird, wer die Verantwortung tragen soll. Das würde den Bürger_innen mehr rechtliche Klarheit geben.

Kooperationen von großen Digitalunternehmen und Hochschulen nehmen im KI-Bereich immer mehr zu. Diesen Bereich muss die Politik stark regulieren, damit die Unabhängigkeit der Forschung gewahrt bleibt, die Zusammenarbeit auf Augenhöhe und nach nachvollziehbaren Regeln stattfindet und die Gewinne nicht ungleich verteilt werden bzw. die Zusammenarbeit zulasten der Hochschulen geht. Es müssen klare Regelungen für Kooperationen zwischen Hochschulen und Wirtschaft getroffen werden, die für die Öffentlichkeit auch transparent sind.

Neue Datenökonomie mit Datensouveränität verbinden

Eine wesentliche Frage ist, wie zukünftig die Verknüpfung und Verfügbarkeit von Daten wirtschaftlich organisiert werden soll. Im Bereich der Datenökonomie ist derzeit auf globaler Ebene eine Monopolisierung von riesigen, personenbezogenen Datenmengen auf großen Plattformen festzustellen: Die digitalen Märkte werden inzwischen von wenigen internationalen Datenkonzernen wie z.B. Google und Facebook dominiert und die Menschen werden nur noch als Kunden oder Konsumentinnen angesprochen. Mit dieser Entwicklung geht einher, dass unverzichtbare Aspekte wie Teilhabe an Daten, demokratische Kontrolle, Transp

In Europa sollte ein Alternativmodell der Datenökonomie aufgebaut werden, bei dem zahlreiche Akteure miteinander kooperieren und sowohl Daten bereitstellen als auch Daten nutzen können. Diese Form der Datenökonomie sollte mit Datensouveränität verbunden werden. Eine solche Möglichkeit bietet der Ansatz des Data Space (Datenraumarchitektur), in dem vielfältige Unternehmen und Einzelpersonen Daten bereitstellen, nutzen und miteinander austauschen. Die Daten werden kryptografisch gesichert und nur zertifizierte Anwenderinnen und Anwender können auf diese Daten für bestimmte Zwecke zugreifen.

KI-Systeme sollten immer im Anwendungskontext betrachtet und zertifiziert werden. Entscheidend ist dabei die Art der verwendeten Daten, die Qualitätssicherung der Daten und die Vorkehrungen zur Unterbindung von Fehlentwicklungen. Auf dieser Basis kann KI verantwortungsvoll, erklärbar, nachvollziehbar, transparent und gerecht eingesetzt werden.

Darüber hinaus sind in vielen Bereichen Investitionen erforderlich, um die gewünschte digitale Souveränität zu erreichen. So muss Europa in der technologischen Hardware unabhängiger werden. Im Bereich Computer- und Speicherleistungen sollten die begonnenen Investitionen weitergeführt werden, damit leistungsfähige Infrastrukturen auf- und ausgebaut werden.

Umgang mit Daten klären

Beim Einsatz von Daten in KI-Systemen sind grundlegende Entscheidungen zu treffen und es werden ethische und rechtliche Fragen von großer Bedeutung aufgeworfen. Die zentrale Frage lautet, wie mit Daten umgegangen werden soll und wer über sie verfügt. Diskutiert werden müssen z.B. folgende Fragen: Wem gehören die Daten, mit denen Maschinen lernen? Reichen die bestehenden gesetzlichen Regelungen aus? Wie können diskriminierende Auswirkungen von KI erkannt und verhindert werden? Inwieweit unterliegen Algorithmen einem Unternehmensgeheimnis oder sollten sie immer auch externen Kontrollinstanzen vorgelegt werden?

Bei der Diskussion im Umgang mit Daten ist es erforderlich, in Bezug auf die Art der Daten und ihre Verwendung zu differenzieren. Ganz entscheidend ist dabei die Frage, ob es sich um personenbezogene oder nicht personenbezogene Daten handelt. Zu klären ist auch, wie weit die Transparenz und Offenlegungspflicht gehen sollte und ob Rohdaten oder aggregierte Daten betroffen sind. Daran schließen sich weitere Fragen an: Wem gegenüber soll die Offenlegungspflicht gelten? Soll z.B. ein zertifiziertes Unternehmen mit einem Schlüssel Zugriff darauf haben? Oder sollen bestimmte Daten grundsätzlich allgemein zugänglich sein (Open Data)? Auch muss entschieden werden, welche Datenarten für die jeweilige Nutzung und die Art des Zugangs in Frage kommen.

Schutz und Qualität der Daten sicherstellen

Die Konsequenzen von automatisiert getroffenen Entscheidungen eines KI-Systems können sehr weitreichend sein. Aufgrund von unvollständigen oder fehlerhaften Daten können Algorithmen falsche bzw. problematische Entscheidungen treffen. Deshalb muss die Qualität der in KI-Systemen verwendeten Daten gewährleistet werden: Die Daten müssen sicher, valide und zuverlässig sein und einen sorgfältigen Umgang mit personenbezogenen Daten einschließen. Zudem muss der Prozess der Qualitätssicherung nachvollziehbar dokumentiert werden. Der Staat sollte hier Standards setzen und für deren Einhaltung sorgen.

Notwendig sind klare gesetzliche Regelungen über die Zulässigkeit und die Grenzen der Datennutzung. Die Prinzipien des Datenschutzes in der europäischen Datenschutz-Grundverordnung (DSGVO) findet immer dann Anwendung, wenn KI mit persönlichen Daten arbeitet. Hier stellt sich die Frage, ob die gesetzlichen Regelungen der DSGVO ausreichen, um die Rechte der Bürgerinnen und Bürger zu schützen.

Um die Potenziale von KI für die Gesellschaft ausschöpfen zu können, muss die Forschung aber auch Zugang zu den erforderlichen Daten erhalten. Bisher ist es in vielen Bereichen, z.B. in der Medizin, noch eine große Herausforderung, die Nutzung von Daten im Kontext von maschinellem Lernen und KI zu organisieren. Hier gilt es, an angemessenen Lösungen weiterzuarbeiten. Ziel sollte es sein, das Individuum vor dem Missbrauch seiner Daten zu schützen und gleichzeitig die Möglichkeiten von KI dazu einzusetzen, die Daten für das Gemeinwohl und zur Bearbeitung gesellschaftlicher Herausforderungen einzusetzen.

Gesellschaftliche Debatte über Werte und Ziele führen

Wie bei jeder neuen technischen Entwicklung muss auch bei KI ein verantwortungsvoller Umgang mit den damit verbundenen Möglichkeiten erreicht werden. Deshalb bedarf es eines offenen gesellschaftlichen Diskurses über die Frage, wie die neuen technischen Möglichkeiten genutzt werden sollen und welche Regelungen und Grenzen notwendig sind, um Gefahren und Missbrauch entgegenzutreten. Dies kann nur durch eine breite öffentliche Debatte über die Werte und Ziele des Gemeinwesens erreicht werden, an dem sich Akteure aus Wissenschaft, Politik, Wirtschaft und Zivilgesellschaft beteiligen. Die Kernfrage lautet: „Welche Gesellschaft wollen wir und welchen Beitrag kann KI dazu leisten?“ Daran schließen sich weitere Grundsatzfragen an, die die gesamte Gesellschaft und ihre weitere Entwicklung betreffen, z.B.: Welche Formen der Mobilität und Kommunikation wollen wir in Zukunft? Welche Bedeutung sollen soziale Beziehungen in unserer Gesellschaft haben? Wie können die Fähigkeiten von Mensch und Maschine optimal zusammenwirken?

Die kontinuierliche Verständigung über gesellschaftliche Ziele und ethische Werte ist Kernbestandteil einer lebendigen Demokratie. Auf dieser Basis müssen politische Entscheidungen getroffen werden, um KI konstruktiv, transparent, gemeinwohlorientiert und menschenfreundlich zu gestalten.

zurück zur Übersicht