künstlicher Intelligenz, Robotik und „autonomen“ Systemen
Erklärung zu
Europäische Gruppe für Ethikder Naturwissenschaften
und der Neuen Technologien
Forschung und Innovation
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien Erklärung zu künstlicher Intelligenz, Robotik und „autonomen“ Systemen
Europäische KommissionGeneraldirektion Forschung und Innovation Referat RTD.01 – Mechanismus für wissenschaftliche Beratung
Kontakt Jim Dratwa, Leiter des EGE-BürosE-Mail [email protected] [email protected]
Europäische KommissionB-1049 Brüssel
Druck: Amt für Veröffentlichungen, Luxemburg.
Manuskript abgeschlossen im März 2018.
Weder die Europäische Kommission noch Personen, die im Auftrag der Kommission handeln, können für die Verwendung der im Folgenden dargelegten Informationen verantwortlich gemacht werden.Für den Inhalt dieser Erklärung ist allein die Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien (EGE) verantwortlich. Auch wenn die Erklärung unter Beteiligung von Mitarbeitern der Kommissionsdienststellen erarbeitet wurde, entsprechen die in dieser Erklärung zum Ausdruck gebrachten Ansichten dem gemeinsamen Standpunkt der EGE und stellen keinesfalls eine offizielle Haltung der Kommission dar.Es handelt sich hierbei um eine Erklärung der EGE, die von den Mitgliedern der EGE verabschiedet wurde: Emmanuel Agius, Anne Cambon-Thomsen, Ana Sofia Carvalho, Eugenijus Gefenas, Julian Kinderlerer, Andreas Kurtz, Jonathan Montgomery, Herman Nys (stellvertretender Vorsitzender), Siobhán O’Sullivan (stellvertretende Vorsitzende), Laura Palazzani, Barbara Prainsack, Carlos Maria Romeo Casabona, Nils-Eric Sahlin, Jeroen van den Hoven, Christiane Woopen (Vorsitzende). Berichterstatter: Jeroen van den Hoven.
Weitere Informationen zur Europäischen Union sind im Internet verfügbar (http://europa.eu).
Luxemburg: Amt für Veröffentlichungen der Europäischen Union, 2018.
Druck ISBN 978-92-79-88940-0 doi:10.2777/315421 KI-02-18-803-DE-C
PDF ISBN 978-92-79-88937-0 doi:10.2777/3658 KI-02-18-803-DE-N
© Europäische Union, 2018.Weiterverwendung mit Quellenangabe gestattet. Die Weiterverwendungspolitik der Europäischen Kommission ist im Beschluss 2011/833/EU (ABl. L 330 vom 14.12.2011, S. 39) geregelt.
Für die Verwendung oder den Nachdruck von Fotos oder anderem Material, an dem die EU kein Urheberrecht hält, ist eine Genehmigung direkt bei den Urheberrechtsinhabern einzuholen.Titelbild © EVZ, #141003388, 2018. Quelle: Fotolia.com.
EUROPÄISCHE KOMMISSION
Generaldirektion Forschung und Innovation2018
Erklärung zu
künstlicher Intelligenz, Robotik und „autonomen“
Systemen
Europäische Gruppe für Ethikder Naturwissenschaften und der Neuen Technologien
Brüssel, 9. März 2018
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 3
Inhalt
ZUSAMMENFASSUNG 5
HINTERGRUND 6
MORALISCHE ÜBERLEGUNGEN 9
Grundlegende Fragen 9
Grundlegende Erwägungen 10
Jenseits eines eng definierten ethischen Rahmens 12
AUF DEM WEG ZU EINEM GEMEINSAMEN ETHISCHEN RAHMEN FÜR KÜNSTLICHE INTELLIGENZ, ROBOTIK UND „AUTONOME“ SYSTEME 15
ETHISCHE GRUNDSÄTZE UND DEMOKRATISCHE VORAUSSETZUNGEN 18
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 5
Zusammenfassung
Der Fortschritt auf den Gebieten der künstlichen Intelligenz (KI), der
Robotik und der sogenannten „autonomen“ Technologien1 wirft zahlreiche
immer dringlichere und komplexere moralische Fragen auf. Die derzeitigen
Bemühungen, Antworten auf die damit verbundenen ethischen,
gesellschaftlichen und rechtlichen Herausforderungen zu finden und die
Entwicklungen auf das Gemeinwohl auszurichten, bestehen aus
unzusammenhängenden Einzelinitiativen. Daran wird deutlich, dass ein
kollektiver, umfassender und inklusiver Reflektions- und Dialogprozess
benötigt wird – ein Dialog insbesondere darüber, nach welchen Werten wir
unsere Gesellschaft gestalten wollen und welche Rolle die Technologien
dabei spielen sollen.
In dieser Erklärung wird die Einleitung eines Prozesses gefordert, der den
Weg für die Entwicklung eines gemeinsamen, international anerkannten
ethischen und rechtlichen Rahmens für die Konstruktion, Produktion,
Verwendung und Steuerung von künstlicher Intelligenz, Robotik und
„autonomen“ Systemen bereiten würde. Ferner wird in der Erklärung ein
Katalog ethischer Grundsätze vorgeschlagen, der auf den in den EU-
Verträgen und in der Charta der Grundrechte der Europäischen Union
verankerten Werten beruht und als Leitfaden für die Entwicklung dieses
Prozesses dienen kann.
1 Diese Erklärung befasst sich mit verschiedenen intelligenten Technologien, die sich schnell aufeinander zu entwickeln und oft zusammenhängen, miteinander verbunden oder vollständig integriert sind, z. B. die klassische künstliche Intelligenz, Algorithmen des maschinellen Lernens, Deep Learning (tiefgehendes Lernen) sowie konnektionistische Netze, Generative Adversarial Networks (erzeugende gegnerische Netze), Mechatronik und Robotik. Selbstfahrende Autos und Kampfroboter, Chatbots sowie Sprach- und Bilderkennungssysteme gehören zu den bekanntesten Anwendungen, in denen diese Technologien kombiniert werden.
6 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
Hintergrund
Die ersten zwei Jahrzehnte des 21. Jahrhunderts haben eindrucksvolle
Beispiele für die Leistungsfähigkeit der sogenannten „autonomen
Technologie“ und „künstlichen Intelligenz“ hervorgebracht. Zu den
bekanntesten, aber längst nicht einzigen Beispielen gehören selbstfahrende
Autos und Drohnen, Tiefsee- und Weltraumroboter, Waffensysteme,
Softwareagenten wie Bots im Finanzgeschäft oder Deep Learning in der
medizinischen Diagnostik. Künstliche Intelligenz (KI), insbesondere in Form
des maschinellen Lernens, und die zunehmende Verfügbarkeit großer
Datensätze aus den unterschiedlichsten Lebensbereichen sind wesentliche
Motoren dieser Entwicklungen. Durch ihren Zusammenfluss werden diese
digitalen Technologien rasant leistungsfähiger. Sie kommen in immer mehr
neuen Produkten und Dienstleistungen zum Einsatz, im öffentlichen wie im
privaten Sektor, und können sowohl für militärische als auch für zivile
Zwecke verwendet werden. Die in diese Systeme integrierte KI kann Arbeit
neu definieren oder die Arbeitsbedingungen für Menschen verbessern und
die Notwendigkeit des menschlichen Beitrags, Inputs und Eingreifens
während des Betriebs verringern. Sie kann unter anderem helfen, Menschen
in schwierigen, verschmutzten, tristen oder gefährlichen Arbeitsumfeldern
durch intelligente Technologien zu unterstützen oder zu ersetzen.
Intelligente Systeme sind heute in der Lage, ohne direktes Eingreifen oder
direkte Kontrolle durch den Menschen von außen Kundengespräche im
Online-Callcenter zu führen, Roboterhände zu steuern, die präzise und
ununterbrochen Gegenstände greifen und bearbeiten, große Aktienmengen
in Sekundenschnelle zu kaufen und zu verkaufen, Autos bei Kollisionsgefahr
ausweichen oder bremsen zu lassen, Personen und ihr Verhalten zu
klassifizieren oder Geldbußen zu verhängen.
Bedauerlicherweise sind einige der besonders leistungsstarken kognitiven
Instrumente auch besonders intransparent. Ihr Handeln wird nicht mehr
linear von Menschen programmiert. Google Brain entwickelt KI-Lösungen,
die künstliche Intelligenz angeblich besser und schneller entwickeln können
als Menschen. AlphaZero kann sich ohne Kenntnis der Schachregeln
innerhalb von vier Stunden eigenständig zu einem Weltklassespieler
entwickeln. Es ist unmöglich zu verstehen, wie AlphaGo fähig war, den
menschlichen Go-Weltmeister zu schlagen. Durch Deep Learning und
sogenannte „Generative Adversarial Network“-Konzepte sind Maschinen in
der Lage, sich selbst neue Strategien „beizubringen“ und eigenständig nach
neuen analysierbaren Informationen zu suchen. In diesem Sinne ist ihr
Handeln nicht mehr nachvollziehbar und kann nicht mehr vom Menschen
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 7
überprüft werden. Zum einen lässt sich nicht ermitteln, wie die Maschinen
über die ersten Algorithmen hinaus ihre Ergebnisse erzielen. Zum anderen
beruht ihre Leistung auf im Lernprozess verwendeten Daten, die
möglicherweise nicht mehr verfügbar oder zugänglich sind. So können sich
in der Vergangenheit eingeflossene Verzerrungen und Fehler im System
festsetzen.
Wenn Systeme in der Lage sind, diese Aufgaben ohne menschliche
Steuerung oder Aufsicht auszuführen, wird inzwischen oft von „autonomen“
Systemen gesprochen. Diese sogenannten „autonomen“ Systeme können
sich in Form von High-Tech-Robotiksystemen oder als intelligente Software
wie Bots manifestieren. Oft werden sie unbeaufsichtigt in ihre Umwelt
entlassen und können Dinge leisten, die ihre menschlichen Entwickler oder
Besitzer nicht vorhergesehen haben.
Die folgenden relevanten technologischen Entwicklungen sind also zu
beobachten:
1) Die Leistungsfähigkeit von künstlicher Intelligenz in Form des
maschinellen Lernens (insbesondere das „Deep Learning“) nimmt,
angetrieben von Massendaten (Big Data), rasant zu. KI kommt in immer
mehr neuen digitalen Produkten und Dienstleistungen im öffentlichen
und privaten Sektor zum Einsatz und kann sowohl für militärische als
auch für zivile Zwecke verwendet werden. Wie erwähnt, lassen sich die
inneren Abläufe der KI gegebenenfalls nur sehr schwer – oder gar nicht
– nachvollziehen, erklären und kritisch bewerten. Diese
fortgeschrittenen Fähigkeiten liegen zum großen Teil in der Hand
privater Akteure und sind häufig urheberrechtlich geschützt.
2) Mit fortgeschrittener Mechatronik (eine Kombination aus KI und
Deep Learning, Datenwissenschaft, Sensortechnologie, dem Internet der
Dinge sowie Maschinen- und Elektrotechnik) wird ein breites Spektrum
an zunehmend komplexen Robotik- und High-Tech-Systemen für
praktische Anwendungen in Dienstleistungs- und Fertigungsbranchen,
im Gesundheitswesen, im Einzelhandel, in der Logistik, in der Domotik
(Hausautomatisierungstechnik) sowie im Bereich Sicherheit und Schutz
entwickelt. In der öffentlichen Debatte stehen zwei Anwendungsbereiche
besonders im Vordergrund, nämlich Kampfroboter und „autonome“
Fahrzeuge.
3) Es werden immer intelligentere Systeme mit einem hohen Maß an
sogenannter „Autonomie“ hergestellt, womit gemeint ist, dass die
Systeme Aufgaben unabhängig von menschlicher Steuerung und ohne
menschliche Kontrolle ausführen können.
8 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
4) Offenbar besteht in der Robotik, KI und Mechatronik ein Streben nach
immer mehr Automatisierung und „Autonomie“. Länder und
Großunternehmen lenken massive Investitionen in diesen Bereich.
Großmächte der Welt haben eine Führungsrolle in der KI-Forschung zu
einem ihrer vorrangigen Ziele erklärt.
5) Die Interaktion zwischen Mensch und Maschine wird immer enger (Co-
Bots, Cybercrews, digitale Zwillinge und sogar der Einbau intelligenter
Maschinen in den menschlichen Körper in Form von Gehirn-Computer-
Schnittstellen oder Cyborgs). Ähnliche Entwicklungen sind in allen
Bereichen der künstlichen Intelligenz zu beobachten. Auf manchen
Gebieten erzielen gut aufeinander abgestimmte Teams aus KI-Systemen
und menschlichen Fachkräften bessere Ergebnisse als Menschen oder
Maschinen allein.
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 9
Moralische Überlegungen
Grundlegende Fragen
Das Aufkommen von High-Tech-Systemen und Software, die immer
unabhängiger vom Menschen funktionieren und Aufgaben wahrnehmen
können, die bei Ausführung durch den Menschen Intelligenz voraussetzen,
macht besondere Überlegungen erforderlich. Die Systeme werfen zahlreiche
wichtige und schwierige moralische Fragen auf.
Erstens stellen sich Fragen im Zusammenhang mit Schutz, Sicherheit,
Schadensverhütung und Risikominderung. Wie lässt sich eine Welt mit
vernetzter KI und „autonomen“ Geräten sicher und geschützt gestalten?
Wie können die Risiken abgeschätzt werden?
Zweitens entstehen Fragen im Zusammenhang mit der moralischen
Verantwortung des Menschen. Wo liegt in dynamischen und komplexen
soziotechnischen Systemen mit fortgeschrittenen KI- und
Robotikkomponenten die moralisch zuständige Stelle? Wie sollte die
moralische Verantwortung zugewiesen und aufgeteilt werden, und wer ist
(in welchem Sinne) für unerwünschte Ergebnisse verantwortlich? Ist es
sinnvoll, von einer „gemeinsamen Kontrolle“ und einer „gemeinsamen
Verantwortung“ von Mensch und intelligenter Maschine zu sprechen?
Werden Menschen nur als moralische „Knautschzone“ Teil der Ökosysteme
„autonomer“ Geräte sein und nur bei Haftungsfragen ins Spiel kommen,
oder werden sie tatsächlich in der Lage sein, Verantwortung für ihr Handeln
zu übernehmen?
Drittens ergeben sich Fragen im Hinblick auf Steuerung, Regulierung,
Konstruktion, Entwicklung, Überprüfung, Überwachung, Testverfahren und
Zertifizierung. Wie sollten unsere Institutionen und Gesetze umgestaltet
werden, damit die Systeme dem Wohlergehen des Einzelnen und der
Gesellschaft dienen und damit die Gesellschaft beim Umgang mit diesen
Technologien geschützt ist?
Ein vierter Fragenkomplex betrifft den demokratischen
Entscheidungsprozess, einschließlich der Entscheidungsfindung in Bezug auf
Institutionen, politische Strategien und Werte, die allen vorstehenden
Fragen zugrunde liegen. Weltweit wird untersucht, inwieweit die Bürger
durch hochentwickelte Anstoß-Methoden (Nudging) ausgenutzt werden, die
auf einer Kombination aus maschinellem Lernen, Big Data und
Verhaltenswissenschaft beruhen, die Architekturen für ein geschicktes
10 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
Profilieren, Mikro-Targeting, Maßschneidern und Manipulieren von
Wahlmöglichkeiten zu bestimmten wirtschaftlichen oder politischen Zwecke
ermöglicht.
Schließlich stellen sich Fragen zur Erklärbarkeit und Transparenz von KI und
„autonomen“ Systemen. Welchen Werten dienen diese Systeme tatsächlich
und nachweislich? Welche Werte legen wir bei der Gestaltung unserer
Strategien und unserer Maschinen zugrunde? Nach welchen Werten wollen
wir unsere Gesellschaften ausrichten? Lassen wir es zu, dass bestimmte
Werte im Zuge des technischen Fortschritts und nutzenorientierter
Kompromisse – offen oder stillschweigend – untergraben werden? Die KI-
gesteuerte „Optimierung“ gesellschaftlicher Prozesse auf der Grundlage von
Social-Scoring-Systemen (Bewertungssysteme auf Basis sozialer Daten),
mit denen in manchen Ländern experimentiert wird, verstößt in der gleichen
Weise gegen den Grundgedanken von Gleichheit und Freiheit wie ein
Kastensystem, weil dabei „unterschiedliche Arten von Menschen“
konstruiert werden, während es in Wirklichkeit nur „unterschiedliche
Eigenschaften“ von Menschen gibt. Wie können der Angriff auf die
demokratischen Systeme und der Einsatz von Bewertungssystemen
verhindert werden, auf die sich die beherrschende Stellung derjenigen Akteure
gründet, die Zugang zu diesen leistungsstarken Technologien haben?
Grundlegende Erwägungen
Aus ethischer Sicht ist Folgendes zu beachten:
„Autonomie“ ist ein Begriff aus der Philosophie und bezeichnet die Fähigkeit
des Menschen, sich eigene Vorschriften aufzuerlegen und Normen, Regeln
und Gesetze zu formulieren, zu erdenken und zu wählen, nach denen er
sich richtet. Dazu gehört auch das Recht, sich eigene Standards zu setzen
und die eigenen Ziele im Leben zu bestimmen. Die kognitiven Prozesse, die
das unterstützen und ermöglichen, sind eng mit der Würde des Menschen
und menschlichem Tun und Handeln schlechthin verbunden. Kennzeichnend
für diese Prozesse sind typischerweise die Merkmale des
Selbstbewusstseins, der Selbstwahrnehmung und der Selbstbestimmung
auf der Grundlage von Ursachen und Werten. Autonomie im ethisch
relevanten Sinne kann demnach nur dem Menschen zugeschrieben werden.
Daher ist es in gewisser Weise unzutreffend, den Begriff der „Autonomie“
auf reine Gegenstände anzuwenden, auch wenn es sich dabei um
hochentwickelte, komplexe und anpassungsfähige oder sogar „intelligente“
Systeme handelt. Allerdings hat sich der Begriff des „autonomen“ Systems
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 11
zur Bezeichnung eines Höchstmaßes an Automatisierung und maximaler
Unabhängigkeit vom Menschen im Sinne einer operativen und
entscheidungsbezogenen „Autonomie“ in der wissenschaftlichen Literatur
und der öffentlichen Debatte sehr stark durchgesetzt. Autonomie in ihrer
ursprünglichen Bedeutung ist jedoch ein wesentlicher Aspekt der
Menschenwürde, der nicht relativiert werden darf.
Da kein intelligenter Gegenstand und kein intelligentes System – seien sie
auch noch fortgeschritten und hochentwickelt – für sich genommen als
„autonom“ im ursprünglichen ethischen Sinne bezeichnet werden kann, ist
es auch nicht möglich, ihnen den moralischen Status des Menschen zu
verleihen oder ihnen die Menschenwürde übertragen. Menschenwürde als
Fundament für Menschenrechte impliziert, dass eine sinnvolle menschliche
Intervention und Teilhabe immer möglich sein muss, wenn Menschen und
ihr Umfeld von einem Sachverhalt betroffen sind. Im Gegensatz zur
Automatisierung der Produktion ist es daher nicht angebracht, Menschen in
der gleichen Weise zu steuern und über sie zu entscheiden, wie es bei
Gegenständen oder Daten geschieht, selbst wenn das technisch denkbar ist.
Eine solche „autonome“ Steuerung von Menschen wäre unethisch und
würde die tief verwurzelten europäischen Grundwerte aushöhlen. Menschen
sollten in der Lage sein, selbst zu bestimmen, welchen Werten die
Technologie dient, was moralisch relevant ist und welche letztendlichen
Ziele und Vorstellungen des Guten gefördert werden sollten. Dies darf nicht
Maschinen überlassen werden, so leistungsstark sie auch sein mögen.
Die Fähigkeit und die Bereitschaft zur Übernahme und Zuweisung einer
moralischen Verantwortung ist ein fester Bestandteil des Verständnisses der
Person, auf der all unsere moralischen, gesellschaftlichen und rechtlichen
Institutionen beruhen. Die moralische Verantwortung ist hier umfassend zu
verstehen und kann sich auf unterschiedliche Aspekte des menschlichen
Handelns beziehen, zum Beispiel auf Ursächlichkeit, Rechenschaftspflicht
(die Pflicht, Rechenschaft abzulegen), Haftung (die Pflicht, Entschädigung
zu leisten), reaktive Einstellungen wie Lob und Schuldzuweisung
(Angemessenheit unterschiedlicher moralischer Emotionen) und Pflichten im
Zusammenhang mit gesellschaftlichen Rollen. Die moralische
Verantwortung kann, in welchem Sinne auch immer, nicht auf „autonome“
Technologien angewandt oder übertragen werden.
In der aktuellen Debatte über Kampfroboter (LAWS – Lethal Autonomous
Weapons Systems, tödliche autonome Waffensysteme) und autonome
Fahrzeuge scheint ein breiter Konsens darüber zu herrschen, dass eine
12 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
sinnvolle menschliche Kontrolle für die moralische Verantwortung
unverzichtbar ist. Der Grundsatz der sinnvollen menschlichen Kontrolle
(Meaningful Human Control – MHC) wurde erstmals im Zusammenhang mit
der Beschränkung der Entwicklung und Verwendung künftiger
Waffensysteme vorgeschlagen. Danach sollten Menschen – und nicht
Computer oder ihre Algorithmen – letztendlich die Kontrolle behalten und
somit die moralische Verantwortung tragen.2
Jenseits eines eng definierten ethischen Rahmens
In zwei Bereichen hat die Entwicklung „autonomer“ Systeme bereits viel
beachtete ethische Debatten ausgelöst: bei selbstfahrenden Autos und
Letalen (tödlichen) Autonomen Waffensystemen (LAWS). Obwohl noch
keine vollständig fahrerlosen Fahrzeuge auf dem Markt sind, bereiten sich
weltweit mehrere Länder darauf vor, die Zulassung „autonomer“ Fahrzeuge
auf öffentlichen Straßen in ihren Rechtssystemen zu ermöglichen. 2016
wurde eine moralische Kontroverse ausgelöst, als der erste Mensch beim
Fahren im „autonomen“ Modus bei einem Autounfall ums Leben kam. Die
moralische Debatte beschränkt sich heute häufig auf die Diskussion über
Ausnahmefälle im Zusammenhang mit dem Gedankenexperiment des
sogenannten „Weichenstellerfalls“. Dabei geht es um das Dilemma bei
unvermeidbaren Unfällen, wenn man bei jeder möglichen Option damit
rechnen muss, dass Menschen ums Leben kommen. Diese enge
Interpretation ethischer Problemstellungen begünstigt einen kalkulierenden
Ansatz und beinhaltet einen oft übermäßig vereinfachten Maßstab für das
menschliche Miteinander. In diesem Rahmen scheinen sich die Fragen im
Wesentlichen um die Verantwortlichkeit „autonomer“ Systeme und ihre
Auswirkungen zu drehen, sowie darum, wie die Systeme programmiert
werden sollten, damit sie mit moralisch akzeptablem Ergebnis im Hinblick
auf verlorene bzw. gerettete Menschenleben eingesetzt werden können.
Dabei bleiben übergeordnete Fragestellungen unberücksichtigt, zum
Beispiel: Welche Konstruktionsentscheidungen wurden in der Vergangenheit
getroffen, die zu diesem moralischen Dilemma geführt haben? Welche
Werte sollten der Konstruktion zugrunde liegen? Wie und durch wen sollten
Werte bei der Konstruktion im Konfliktfall gewichtet werden? Welchen
Status haben die enormen Mengen empirischer Informationen, die über
menschliche Entscheidungen in „Weichenstellerfällen“ gesammelt und auf
das automatisierte Fahren übertragen werden?
2 Artikel 36 (nichtstaatliche Organisation), 2015.
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 13
Ebenfalls umstritten und kontrovers diskutiert ist der Bereich der
„autonomen“ Waffensysteme. Diese militärischen Systeme haben zwar
tödliche Waffen geladen, doch was die Software anbelangt, unterscheiden
sie sich nicht wesentlich von „autonomen“ Systemen, die in vielen zivilen
Bereichen im alltäglichen Umfeld zu finden sind. Die Diskussion findet zum
großen Teil im Rahmen der Konferenz über bestimmte konventionelle
Waffen in Genf statt, die sich mit der moralischen Vertretbarkeit
„autonomer“ Waffen und der rechtlichen und moralischen Verantwortung
für den Einsatz dieser Systeme befasst. Jetzt müssen weitere Fragen
beantwortet werden, zum Beispiel die Frage nach der Art und Bedeutung
einer „sinnvollen menschlichen Kontrolle“ über diese Systeme und die
Frage, wie moralisch wünschenswerte Formen der Kontrolle umgesetzt
werden können.
Ein dritter wichtiger Anwendungsbereich ist „autonome“ Software unter
Einsatz von Bots. Handels-, Finanz- und Aktienmärkte werden im
Wesentlichen durch Algorithmen und Software betrieben. Ohne
menschliches Zutun oder Kontrolle von außen können intelligente Systeme
heute Kundengespräche in Online-Callcentern führen;
Spracherkennungsschnittstellen und Empfehlungssysteme von Online-
Plattformen wie Siri, Alexa und Cortana machen Benutzern Vorschläge.
Über die naheliegenden Fragen des Datenschutzes und der Privatsphäre
hinaus wäre möglicherweise zu klären, ob Menschen ein Recht darauf haben
zu erfahren, ob sie es mit einem Menschen oder mit einem KI-Artefakt zu
tun haben. Eine weitere Frage ist, ob die auf einer Deutung der Vorstellung
des Betroffenen von der eigenen Identität beruhenden Vorschläge eines KI-
Systems eingeschränkt werden sollten.
Zwar wächst das Bewusstsein für die Notwendigkeit einer
Auseinandersetzung mit solchen Fragen, doch kann der Prozess zur
Beantwortung dieser heiklen ethischen, rechtlichen und gesellschaftlichen
Fragen mit der Entwicklungsgeschwindigkeit von KI und Robotik nicht
Schritt halten. Die derzeitigen Bemühungen bestehen aus
unzusammenhängenden Einzelinitiativen. Es bedarf eindeutig eines
kollektiven, umfassenden und inklusiven Prozesses, der den Weg für die
Entwicklung eines gemeinsamen, international anerkannten ethischen Rahmens für
die Konstruktion, Produktion, Verwendung und Steuerung von künstlicher Intelligenz,
Robotik und „autonomen“ Systemen bereiten würde.
In dieser Erklärung wird die Einleitung eines solchen Prozesses gefordert.
Ferner wird ein Katalog ethischer Grundsätze und demokratischer
14 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
Voraussetzungen vorgeschlagen, der auch als Leitfaden für Überlegungen
zu verbindlichen Rechtsvorschriften dienen könnte. Nach Ansicht der EGE
sollte Europa hierbei eine aktive und führende Rolle übernehmen. Im
Rahmen ihrer Überwachung der Debatten über die moralische
Verantwortung für KI und die sogenannten „autonomen“ Technologien
fordert die EGE systematischere Überlegungen und Forschungsinitiativen zu
den ethischen, rechtlichen und Governance-relevanten Aspekten von High-
Tech-Systemen, die in der Lage sind, ohne direkte menschliche Kontrolle
zum Vorteil oder zum Schaden des Menschen in der Welt zu agieren. Es
besteht ein dringender Handlungsbedarf.
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 15
Auf dem Weg zu einem gemeinsamen ethischen
Rahmen für künstliche Intelligenz, Robotik und
„autonome“ Systeme
Die bekanntesten Initiativen zur Formulierung ethischer Grundsätze für den
Umgang mit KI und „autonomen“ Systemen gehen von Branchenakteuren,
praktischen Anwendern und Berufsverbänden aus. Aktuelle Beispiele sind
das Strategiepapier des IEEE (Institute of Electrical and Electronics
Engineers) über an ethischen Grundsätzen orientierte Konstruktion
(Ethically Aligned Design)3, der von der Internationalen Fernmeldeunion im
Sommer 2017 ausgerichtete Gipfel „AI for Good“4 oder die Arbeit der ACM
(Association for Computing Machinery) zu dem Thema, darunter eine im
Februar 2018 durchgeführte große Konferenz von ACM und AAAI
(Association for the Advancement of Artificial Intelligence) zu KI, Ethik und
Gesellschaft (Conference on AI, Ethics, and Society)5. Im Privatsektor
haben sich Unternehmen wie IBM, Microsoft und Googles DeepMind eigene
Ethiknormen zu KI vorgegeben und sich zusammengeschlossen, um groß
angelegte Initiativen wie „Partnership on AI“6 oder „OpenAI“7 ins Leben zu
rufen, bei denen die Branchenakteure, gemeinnützige Organisationen und
wissenschaftliche Einrichtungen zusammenkommen.
Eine der wichtigsten Initiativen, die eine verantwortungsvolle Entwicklung
von KI fordern, wurde vom Future of Life Institute auf den Weg gebracht
und führte zur Aufstellung der „KI-Leitsätze von Asilomar“. Die 23
Grundsätze sollen als Leitfaden für Forschung und Anwendung im Bereich
der künstlichen Intelligenz dienen und wurden von Hunderten
Interessenträgern unterzeichnet8, in erster Linie von Vertretern aus
Wissenschaft, KI-Forschung und Industrie. Ein ähnlicher
Vorbereitungsprozess geht auf eine Initiative des im November 2017 von
der Universität Montreal ausgerichteten Forums für die sozial vertretbare
Entwicklung von künstlicher Intelligenz (Forum on the Socially Responsible
Development of Artificial Intelligence) zurück und hat zur Entwicklung des
ersten Entwurfs einer möglichen Erklärung für die verantwortungsvolle
Entwicklung von künstlicher Intelligenz (Declaration for a Responsible
Development of Artificial Intelligence) geführt. Der Entwurf wurde auf einer
3 http://standards.ieee.org/news/2016/ethically_aligned_design.html 4 https://www.itu.int/en/ITU-T/AI/Pages/201706-default.aspx 5 http://www.aies-conference.com/ 6 https://www.partnershiponai.org/ 7 https://openai.com/ 8 https://futureoflife.org/ai-principles/
16 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
Online-Plattform veröffentlicht, wo sich Vertreter aus allen
gesellschaftlichen Bereichen zum Wortlaut äußern können9.
Von den Vereinten Nationen und den Sitzungen zum Übereinkommen über
bestimmte konventionelle Waffen (CCW, Genf) wurde eine weltweite
Debatte über die militärische Verwendung von KI angestoßen. Dabei haben
die Hohen Vertragsparteien den Grundsatz der sogenannten „sinnvollen
menschlichen Kontrolle für LAWS“ gebilligt und erklärt, dass autonome
Waffensysteme, die keine sinnvolle menschliche Kontrolle erfordern,
verboten werden sollten (VN-Generalversammlung, 2016). Ferner haben
die Vereinten Nationen ein Sonderforschungsinstitut in Den Haag
eingerichtet, das sich mit der Steuerung von Robotik und KI befassen soll
(UNICRI).10 Einige Initiativen und nichtstaatliche Organisationen, die sich für
einen „auf das Gute“ ausgerichteten Einsatz von KI und „autonomen“
Systemen engagieren (z. B. die Foundation for Responsible Robotics),
plädieren für ein Verbot autonomer Waffen.
Die auf nationaler Ebene ergriffenen Maßnahmen sind uneinheitlich. Einige
Länder legen den Schwerpunkt auf die Entwicklung von Vorschriften für
Roboter und künstliche Intelligenz und erlassen sogar entsprechende
Gesetze (z. B. zur Regulierung selbstfahrender Autos auf öffentlichen
Straßen), während sich andere Länder erst noch mit der Thematik
auseinandersetzen müssen. Das Fehlen einer harmonisierten europäischen
Vorgehensweise hat das Europäische Parlament dazu veranlasst, eine Reihe
von Maßnahmen zur Vorbereitung der Regulierung einer fortgeschrittenen
Robotik zu fordern11, einschließlich der Entwicklung eines ethischen
Leitrahmens für die Konstruktion, Herstellung und Nutzung von Robotern.
Vor diesem Hintergrund weist die EGE auf die Risiken einer unkoordinierten,
unausgewogenen Vorgehensweise bei der Regulierung von KI und
„autonomen“ Technologien hin. Ein regulatives Flickwerk könnte zu einer
selektiven Anwendung ethischer Grundsätze („ethics shopping“) und damit
zu einer Verlagerung der Entwicklung und Nutzung von KI in Regionen mit
geringeren ethischen Standards führen. Wenn zugelassen wird, dass die
9 http://nouvelles.umontreal.ca/en/article/2017/11/03/montreal-declaration-for-a-
responsible-development-of-artificial-intelligence/ 10 In diesem Zusammenhang sei auch auf den COMEST-Bericht (World Commission on the
Ethics of Scientific Knowledge and Technology) über Ethik in der Robotik und den IBC-Bericht (International Bioethics Committee) über Big Data im Gesundheitswesen hingewiesen, die beide im September 2017 unter Federführung der UNESCO verabschiedet wurden.
11 Europäisches Parlament, Rechtsausschuss, 2015/2103(INL), Bericht mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik, Berichterstatterin: Mady Delvaux.
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 17
Debatte von bestimmten Regionen, Fachrichtungen oder Akteuren der
Branche dominiert wird oder von demografischen Gegebenheiten abhängt,
besteht die Gefahr, dass umfassendere gesellschaftliche Belange und
Sichtweisen unberücksichtigt bleiben. Der aktuellen Diskussion fehlt
bisweilen auch ein Überblick darüber, welche „autonomen“ Technologien im
nächsten Jahrzehnt wahrscheinlich untersucht, entwickelt und umgesetzt
werden, was eine vorausschauende Regulierung erschwert.
Die EGE fordert ein weitreichendes systematisches öffentliches Engagement
und eine öffentliche Auseinandersetzung mit den ethischen Aspekten der
KI, Robotik und „autonomen“ Technologie sowie mit der Frage, welche
Werte die Gesellschaften für die Entwicklung und Steuerung dieser
Technologien zugrunde legen möchten. Dieser Prozess, für dessen
Mitgestaltung die EGE bereitsteht, sollte eine Plattform bieten, auf der die
verschiedenen oben dargelegten globalen Initiativen zusammengeführt
werden können. Im Rahmen des Prozesses sollte eine umfassende, inklusiv
geführte und weitreichende gesellschaftliche Debatte stattfinden, bei der
unterschiedliche Sichtweisen einbezogen und Seiten mit verschiedenen
Fachkenntnissen und Wertvorstellungen angehört werden. Die EGE fordert
die Europäische Union dringend auf, sich an die Spitze eines solchen
Prozesses zu stellen und hält die Kommission dazu an, die Umsetzung des
Prozesses auf den Weg zu bringen und zu fördern.
Als ersten Schritt zur Formulierung ethischer Leitlinien, die als Grundlage
für die Einführung globaler Standards und gesetzgeberischer Maßnahmen
dienen können, schlägt die EGE einen Katalog von Grundsätzen und
demokratischen Voraussetzungen vor, der auf den in den EU-
Verträgen und in der Charta der Grundrechte der Europäischen
Union verankerten Grundwerten beruht.
18 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
Ethische Grundsätze und demokratische
Voraussetzungen
a) Die Würde des Menschen
Der Grundsatz der Menschenwürde im Sinne der Anerkennung des dem
Menschen eigenen Status, der Achtung würdig zu sein, darf nicht durch
autonome Technologien verletzt werden. Das bedeutet beispielsweise, dass
es Grenzen für die Unterscheidung und Klassifizierung von Menschen
anhand von Algorithmen und „autonomen“ Systemen gibt, insbesondere
wenn die Betroffenen nicht über diese Unterscheidungen und
Klassifizierungen informiert werden. Daraus folgt außerdem, dass
(gesetzlich) eingeschränkt werden muss, auf welche Weisen Menschen
vorgetäuscht werden darf, dass sie mit einem anderen Menschen umgehen,
während sie tatsächlich mit Algorithmen und intelligenten Maschinen
kommunizieren. Ein relationales Konzept der Menschenwürde, das durch
unsere sozialen Beziehungen gekennzeichnet ist, setzt voraus, dass wir
wissen, ob und wann wir mit einer Maschine oder einem anderen Menschen
interagieren, und dass wir uns das Recht vorbehalten können, bestimmte
Aufgaben einer Maschine oder aber einem Menschen zu übertragen.
b) Autonomie
Der Grundsatz der Autonomie impliziert die Freiheit des Menschen. Hieraus
leitet sich die menschliche Verantwortung und damit die Kontrolle und das
Wissen über „autonome“ Systeme ab, da die Freiheit des Menschen, sich
eigene Standards und Normen zu setzen, und sein Vermögen, danach zu
leben, nicht durch solche Systeme beeinträchtigt werden darf. Daher
müssen alle „autonomen“ Technologien die Fähigkeit des Menschen achten,
selbst zu bestimmen, wann und wie er ihnen Entscheidungen und
Handlungen überträgt. Dazu gehört auch die Transparenz und
Vorhersagbarkeit von autonomen Systemen, ohne die es für die Benutzer
nicht möglich wäre, in die Systeme einzugreifen oder sie abzuschalten,
wenn sie dies aus moralischen Gründen für notwendig erachten.
c) Verantwortung
Der Grundsatz der Verantwortung muss für die Forschung und Nutzung von
künstlicher Intelligenz grundlegend sein. „Autonome“ Systeme sollten nur
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 19
auf solche Weisen entwickelt und verwendet werden, die dem allgemeinen,
als Ergebnis bewusster demokratischer Prozesse definierten Wohl von
Gesellschaft und Umwelt dienen. Daraus folgt, dass sie so konstruiert sein
sollten, dass ihre Auswirkungen mit einer Vielfalt an grundlegenden
menschlichen Werten und Rechten in Einklang stehen. Da eine wesentliche
Herausforderung im möglichen Missbrauch „autonomer“ Technologien liegt,
sind Risikobewusstsein und ein Vorsorgeansatz entscheidend. Anwendungen
von KI und Robotik dürfen keine unannehmbare Gefahr für Menschen
darstellen und dürfen die Freiheit und Autonomie des Menschen nicht
dadurch beeinträchtigen, dass sie die Auswahlmöglichkeiten und das Wissen
der Bürgerinnen und Bürger auf unrechtmäßige und betrügerische Weise
einschränken. Stattdessen sollten ihre Entwicklung und Verwendung darauf
ausgerichtet sein, den Zugang zu Wissen und den Zugang zu Chancen für
den Einzelnen zu erhöhen.
Die Forschung, Konstruktion und Entwicklung von KI, Robotik und
„autonomen“ Systemen sollte von einem echten Bemühen um
Forschungsethik, soziale Verantwortung von Entwicklern und einer
weltweiten wissenschaftlichen Zusammenarbeit zum Schutz grundlegender
Rechte und Werte geleitet sein und die Konzeption von Technologien zum
Ziel haben, die diese Rechte und Werte fördern und nicht beeinträchtigen.
d) Gerechtigkeit, Gleichbehandlung und Solidarität
Künstliche Intelligenz sollte zu globaler Gerechtigkeit und
gleichberechtigtem Zugang zu dem Nutzen und den Vorteilen beitragen, die
KI, Robotik und autonome Systeme bieten können. Diskriminierende
Verzerrungen in den Datensätzen, mit denen KI-Systeme trainiert und
betrieben werden, sollten so frühzeitig wie möglich unterbunden oder
aufgedeckt, gemeldet und neutralisiert werden.
Es sind konzertierte globale Anstrengungen erforderlich, damit der
gleichberechtigte Zugang zu „autonomen“ Technologien, eine faire
Verteilung des Nutzens sowie Chancengleichheit zwischen und innerhalb der
Gesellschaften gewährleistet werden. Dazu müssen neue Modelle der fairen
Verteilung und des Vorteilsausgleichs entwickelt werden, die Antworten auf
die durch Automatisierung, Digitalisierung und KI verursachten
wirtschaftlichen Veränderungen liefern können. Dabei sollte die
Zugänglichkeit von KI-Kerntechnologien sichergestellt und die Ausbildung in
20 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
den MINT-Fächern und digitalen Disziplinen insbesondere im Hinblick auf
benachteiligte Regionen und soziale Gruppen gefördert werden.
Wachsamkeit ist in Bezug auf die Kehrseite der detaillierten und
massenhaften Datenansammlung zu Einzelpersonen geboten, die den
Solidaritätsgedanken z. B. im Zusammenhang mit Systemen der
gegenseitigen Unterstützung – etwa in der Sozialversicherung und im
Gesundheitswesen – unter Druck setzen werden. Diese Prozesse können
den sozialen Zusammenhalt untergraben und einen radikalen
Individualismus fördern.
e) Demokratie
Schlüsselentscheidungen über die Regulierung der Entwicklung und
Anwendung von künstlicher Intelligenz sollten das Ergebnis demokratischer
Debatten und öffentlichen Engagements sein. Damit sie auf inklusive,
fundierte und weitsichtige Weise getroffen werden, sollte darüber ein
öffentlicher Dialog im Geist der globalen Zusammenarbeit geführt werden.
Das Recht auf Ausbildung oder auf Zugang zu Informationen über die neuen
Technologien und ihre ethischen Implikationen wird dazu beitragen, dass
jeder über die Risiken und Chancen aufgeklärt ist und in die Lage versetzt
wird, an Entscheidungsprozessen mitzuwirken, die unsere Zukunft
entscheidend bestimmen.
Ein zentraler Aspekt der Grundsätze der Menschenwürde und der
Autonomie ist das Recht des Menschen auf Selbstbestimmung durch
demokratische Mittel. Für unsere demokratischen politischen Systeme sind
Wertepluralismus, Vielfalt und Akzeptanz einer Vielzahl von
Lebensentwürfen der Bürgerinnen und Bürger von zentraler Bedeutung.
Diese Werte dürfen nicht durch neue Technologien gefährdet, untergraben
oder egalisiert werden, die den politischen Entscheidungsprozess
unterbinden oder beeinflussen oder die Meinungsfreiheit sowie das Recht,
Informationen unbeeinflusst zu erhalten oder weiterzugeben, verletzen. Die
digitalen Technologien sollten stattdessen dazu verwendet werden, das
kollektive Wissen zu nutzen und die bürgerlichen Prozesse zu verbessern,
von denen unsere demokratischen Gesellschaften abhängen.
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 21
f) Rechtsstaatlichkeit und Rechenschaftspflicht
Rechtsstaatlichkeit, Zugang zur Justiz sowie das Recht auf
Wiedergutmachung und auf ein faires Verfahren bilden den notwendigen
Rahmen, um die Einhaltung von Menschenrechtsstandards und möglichen
KI-spezifischen Vorschriften sicherzustellen. Dazu gehört auch der Schutz
vor Risiken, die von „autonomen“ Systemen ausgehen und gegen
Menschenrechte wie das auf Sicherheit und das auf Privatsphäre verstoßen
könnten.
Um der ganzen Bandbreite rechtlicher Fragestellungen auf diesem Gebiet
gerechtzuwerden, sollte frühzeitig in die Entwicklung belastbarer Lösungen
investiert werden, die für eine faire und eindeutige Zuordnung von
Verantwortlichkeiten und wirksame rechtsverbindliche Mechanismen
sorgen.
In diesem Zusammenhang sollten sich Regierungen und internationalen
Organisationen intensiver um die Klärung der Frage bemühen, wer für
Schäden haftbar ist, die durch das unerwünschte Verhalten „autonomer“
Systeme verursacht werden. Außerdem sollten wirksame Systeme zur
Schadensbegrenzung vorhanden sein.
g) Sicherheit, Schutz, körperliche und geistige Unversehrtheit
Bei „autonomen“ Systemen kommen Sicherheit und Schutz auf drei Weisen
zum Tragen: 1) äußere Sicherheit für ihre Umgebung und die Benutzer, 2)
Zuverlässigkeit und interne Belastbarkeit (z. B. Schutz vor Hackerangriffen)
und 3) psychische Sicherheit im Zusammenhang mit der Interaktion
zwischen Mensch und Maschine. Alle Sicherheitsdimensionen müssen von
KI-Entwicklern berücksichtigt und vor der Freigabe streng geprüft werden,
damit sichergestellt ist, dass „autonome“ Systeme nicht gegen das Recht
des Menschen auf körperliche und geistige Unversehrtheit und auf ein
sicheres und geschütztes Umfeld verstoßen. Dabei sollte ein besonderes
Augenmerk auf schutzbedürftigen Menschen liegen. Besondere Beachtung
sollte auch einem möglichen doppelten Verwendungszweck von KI und
einer potenziellen Verwendung für Waffen gegeben werden, zum Beispiel in
den Bereichen Cybersicherheit, Finanzwesen oder Infrastruktur und in
bewaffneten Konflikten.
22 Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien
h) Datenschutz und Privatsphäre
In einer Zeit der allgegenwärtigen und massenhaften Sammlung von Daten
durch digitale Kommunikationstechnologien stehen das Recht auf Schutz
personenbezogener Daten und das Recht auf Schutz der Privatsphäre vor
enormen Herausforderungen. Sowohl physische KI-Roboter als Teil des
Internets der Dinge als auch über das World Wide Web tätige KI-Softbots
müssen den Datenschutzvorschriften entsprechen und dürfen keine Daten
sammeln und verbreiten bzw. mit Datensätzen betrieben werden, für deren
Nutzung und Verbreitung keine aufgeklärte Einwilligung vorliegt.
„Autonome“ Systeme dürfen nicht gegen das Recht auf ein Privatleben
verstoßen; hierzu gehören auch das Recht auf Freiheit von Technologien,
die die persönliche Entwicklung und persönliche Meinungen beeinflussen,
das Recht, Beziehungen mit anderen Menschen einzugehen und zu
entwickeln, sowie das Recht, von Überwachung frei zu sein. Auch in dieser
Hinsicht sollten exakte Kriterien festgelegt und Mechanismen eingeführt
werden, die die ethische Entwicklung und ethisch vertretbare Anwendung
„autonomer“ Systeme gewährleisten.
Vor dem Hintergrund der Bedenken in Bezug auf die Folgen „autonomer“
Systeme für Privatleben und Privatsphäre könnte auch die laufende Debatte
über die Einführung zwei neuer Rechte einbezogen werden: das Recht auf
sinnvollen zwischenmenschlichen Kontakt und das Recht, nicht profiliert,
gemessen, analysiert, angeleitet oder angestoßen zu werden.
i) Nachhaltigkeit
Die KI-Technologie muss mit der Verantwortung des Menschen für die
Sicherstellung der grundlegenden Voraussetzungen für das Leben auf
unserem Planeten, des stetigen Wohlergehens der Menschheit und der
Bewahrung der Umwelt für künftige Generationen im Einklang stehen.
Strategien zur Verhinderung der negativen Auswirkungen künftiger
Technologien auf das menschliche Leben und die Natur sollten sich auf
Konzepte stützen, die den Vorrang von Umweltschutz und Nachhaltigkeit
sicherstellen.
Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien 23
Umsichtig konstruiert und eingesetzt können künstliche Intelligenz, Robotik
und „autonome“ Systeme Wohlstand schaffen, das Wohlergehen fördern
und zur Verwirklichung der moralischen Ideale und sozioökonomischen Ziele
Europas beitragen. Ethische Erwägungen und gemeinsame moralische
Werte können dazu dienen, die Welt von morgen zu gestalten. Sie sollten
als Impulsgeber und Chance für Innovation aufgefasst werden und nicht als
Einschränkung und Hindernis.
Die EGE fordert die Kommission auf zu untersuchen, welche bestehenden
Rechtsinstrumente zur Verfügung stehen, um den in dieser Erklärung
dargelegten Problemen wirksam zu begegnen und zu prüfen, ob neue
Steuerungs- und Regelungsinstrumente erforderlich sind.
Die EGE fordert die Einleitung eines Prozesses, der den Weg für die
Entwicklung eines gemeinsamen, international anerkannten ethischen und
rechtlichen Rahmens für die Konstruktion, Produktion, Verwendung und
Steuerung von künstlicher Intelligenz, Robotik und „autonomen“ Systemen
bereitet.
Kontaktaufnahme mit EU-Ansprechpartnern
BESUCHEN SIE UNS
In der Europäischen Union gibt es Hunderte von „Europe-Direct“-Informationsbüros.Die Anschrift des nächstgelegenen Zentrums finden Sie unter http://europa.eu/contact
RUFEN SIE UNS AN ODER SCHICKEN SIE UNS EINE E-MAIL
Europe Direct beantwortet Ihre Fragen über die Europäische Union.Sie erreichen diesen Dienst
– büber die gebührenfreie Rufnummer 00 800 6 7 8 9 10 11 (manche Telefondienstanbieter berechnen möglicherweise Gebühren),
– über die Standardrufnummer +32 22999696 oder
– per E-Mail unter http://europa.eu/contact
Informationen über die EU
DIE EU IM INTERNET
Informationen über die Europäische Union finden Sie in allen Amtssprachen der EU im Europa-Portal: http://europa.eu
EU-VERÖFFENTLICHUNGEN
Im EU-Bookshop können Sie – zum Teil kostenlos – EU-Veröffentlichungen herunterladen oder bestellen: http://bookshop.europa.eu. Wünschen Sie mehrere Exemplare einer kostenlosen Veröffentlichung, wenden Sie sich an Europe Direct oder ein Informationsbüro in Ihrer Nähe (siehe http://europa.eu/contact)
EU-RECHT UND DAMIT VERBUNDENE DOKUMENTE
Informationen zum EU-Recht, darunter alle EU-Rechtsvorschriften seit 1951 in sämtlichen Amtssprachen, finden Sie in EUR-Lex unter: http://eur-lex.europa.eu
OFFENE DATEN DER EU
Über ihr Offenes Datenportal (http://data.europa.eu/euodp/en/data) stellt die EU Datensätze zur Verfügung. Die Daten können zu gewerblichen und nichtgewerblichen Zwecken kostenfrei herunt-ergeladen bzw. weiterverwendet werden.
Der Fortschritt auf den Gebieten der künstlichen Intelligenz (KI), der Robotik und der sogenannten „autonomen“ Technologien wirft zahlreiche immer dringlichere und komplexere moralische Fragen auf. Die derzeitigen Bemühungen, Antworten auf die damit verbundenen ethischen, gesellschaftlichen und rechtlichen Herausforderungen zu finden und die Entwicklungen auf das Gemeinwohl auszurichten, bestehen aus unzusammenhängenden Einzelinitiativen. Daran wird deutlich, dass ein kollektiver, umfassender und inklusiver Reflektions - und Dialogprozess benötigt wird – ein Dialog insbesondere darüber, nach welchen Werten wir unsere Gesellschaft gestalten wollen und welche Rolle die Technologien dabei spielen sollen.
In dieser Erklärung wird die Einleitung eines Prozesses gefordert, der den Weg für die Entwicklung eines gemeinsamen, international anerkannten ethischen und rechtlichen Rahmens für die Konstruktion, Produktion, Verwendung und Steuerung von künstlicher Intelligenz, Robotik und „autonomen“ Systemen bereiten würde. Ferner wird in der Erklärung ein Katalog ethischer Grundsätze vorgeschlagen, der auf den in den EU-Verträgen und in der Charta der Grundrechte der Europäischen Union verankerten Werten beruht und als Leitfaden für die Entwicklung dieses Prozesses dienen kann.
Forschungs- und Innovationspolitik