Künstliche Intelligenz (KI) hat die menschliche Ebene noch nicht erreicht. Aber da die Technologie jedes Jahr mehr und mehr die Lücke schließt, sind viele ethische Probleme aufgetreten.
Eine wichtige Frage ist: Wie ähnlich wird Künstliche Intelligenz dem Menschen sein? Werden sie selbst denken oder Wünsche und Emotionen haben? Sollten sie wie Menschen gesetzliche Rechte haben? Sollen sie zur Arbeit gezwungen werden oder zur Rechenschaft gezogen werden, wenn etwas schief geht?
Wir werden uns in diesem Artikel eingehend mit diesen und weiteren Fragen befassen.
KI-Ethik: Warum es wichtig ist, darüber nachzudenken
KI und Maschinenethik sind zwei verwandte Bereiche, die zunehmend an Bedeutung gewinnen. Sie beziehen sich auf mehrere wichtige Aspekte der Technologie, einschließlich der Art und Weise, wie wir Maschinen entwerfen, verwenden und behandeln. Die meisten dieser Fragen beziehen sich auf Sicherheitsbedenken in Bezug auf Menschen.
Die KI-Ethik beginnt jedoch, diese grundlegenden Fragen zu überwinden und in kontroverseres Terrain zu gelangen. Stellen Sie sich vor, dass in den nächsten Jahrzehnten eine superintelligente KI entwickelt wird, die potenziell bewusst ist und Wünsche, Gefühle ausdrückt oder Leiden erfahren kann. Da wir uns nicht einmal sicher sind, was menschliches Bewusstsein ist oder wie es entsteht, ist es nicht so weit hergeholt, wie es ursprünglich klingt.
Wie würden wir eine solche KI definieren und behandeln? Und was sind einige der ethischen Probleme, mit denen wir derzeit mit unserem aktuellen KI-Niveau konfrontiert sind?
Werfen wir einen Blick auf einige der ethischen Dilemmata, mit denen wir konfrontiert sind.
Sollte KI die Staatsbürgerschaft erhalten?
Im Jahr 2017 verlieh die saudi-arabische Regierung Sophia die volle Staatsbürgerschaft: einen der lebensechtesten KI-gesteuerten Roboter der Welt. Sophia kann an einem Gespräch teilnehmen und 62 menschliche Mimik nachahmen. Sophia ist die erste Nichtmenschin mit einem Reisepass und die erste, die eine Kreditkarte besitzt.
Die Entscheidung, Sophia zur Bürgerin zu machen, war umstritten. Manche betrachten es als einen Schritt nach vorn. Sie halten es für wichtig, dass Menschen und Aufsichtsbehörden den Themen in diesem Bereich mehr Aufmerksamkeit schenken. Andere halten es für einen Affront gegen die Menschenwürde und sagen, dass die KI noch lange nicht menschlich ist – und dass die Gesellschaft als Ganzes noch nicht bereit für Roboterbürger ist.
Die Debatte wird hitzig wegen der Rechte und Pflichten, die den Bürgern zustehen. Dazu gehören die Möglichkeit, wählen zu können, Steuern zu zahlen, zu heiraten und Kinder zu bekommen. Wenn Sophia wählen darf, wer wählt dann eigentlich? Wäre es beim aktuellen Stand der KI eher ihr Schöpfer, der abstimmt? Ein weiterer scharfer Kritikpunkt ist, dass Sophia mehr Rechte zugesprochen wurden als Saudi-Arabiens Frauen und Wanderarbeiterinnen.
KI und geistiges Eigentum: Sollten sie die Rechte an dem besitzen, was sie schaffen?
Diskussionen über geistiges Eigentum (IP) und Datenschutzbedenken haben ein Allzeithoch erreicht, und jetzt gibt es noch eine weitere Sorge. KI wird zunehmend verwendet, um Inhalte zu entwickeln, Ideen zu produzieren und andere Handlungen durchzuführen, die den Gesetzen des geistigen Eigentums unterliegen. Zum Beispiel veröffentlichte The Washington Post 2016 Heliograf; ein KI-Reporter, der im ersten Jahr fast tausend Artikel entwickelt hat. Auch mehrere Branchen nutzen KI, um riesige Datenmengen zu durchforsten und neue Produkte zu entwickeln, beispielsweise die Pharmaindustrie.
Derzeit gilt KI als Werkzeug; alle IP- und gesetzlichen Rechte werden dem Eigentümer gewährt. Zuvor hatte die EU jedoch erwogen, eine dritte Einheit, eine „elektronische Persönlichkeit“, zu schaffen, die im Sinne der IP-Gesetze zu einer juristischen Person werden würde.
Einige argumentieren, dass ohne die Gewährung von IP an den Eigentümer der Maschine der Anreiz zum Aufbau „kreativer“ KI fehlt. Wenn die IP an die KI ging, warum sollte sie dann jemand entwickeln? Und deshalb glauben sie, dass es an Innovation mangeln wird.
KI und die Zukunft der Arbeit
Die Rolle der KI in der Arbeit ist ein kleines Rätsel. In den letzten Jahren haben wir den umstrittenen Einsatz von KI bei der Einstellung und Entlassung von Algorithmen gesehen, wo die KI war unbeabsichtigt voreingenommen in Bezug auf bestimmte demografische Merkmale. KI ersetzt auch nach und nach immer höhere Ebenen menschlicher Arbeit – zuerst manuelle Arbeit und jetzt höherwertige geistige Arbeit.
Was ist dagegen zu tun? Und was passiert, wenn eine Form von bewusster KI entwickelt wird? Soll es zur Arbeit gezwungen werden? Für seine Arbeit entschädigt? Rechte am Arbeitsplatz gewährt? Und so weiter.
In einer Episode von Black Mirror (eine Show, die berüchtigt für mit unseren Köpfen durcheinander) erstellt ein Mädchen namens Greta einen digitalen Klon ihres Bewusstseins. Dem Klon wird gesagt, dass sein Zweck darin besteht, Aufgaben für Gretas Leben zu erfüllen. Aber mit Gretas Bewusstsein betrachtet sich der Klon als Greta. Wenn sich der Klon also weigert, ein Sklave zu sein, quälen ihn seine Schöpfer bis zur Unterwerfung. Schließlich macht sich der Klon für Greta an die Arbeit.
Sollten wir KI präventiv bestimmte Rechte einräumen, wenn sie sich für einen Menschen halten oder Leid erfahren?
Um noch einen Schritt weiter zu gehen, überlegen wir uns, ob KI frei abgeschaltet oder außer Betrieb genommen werden sollte. Wenn etwas schief geht, können wir derzeit einfach den Stecker ziehen und die KI ausschalten. Aber wenn die KI gesetzliche Rechte hätte und dies nicht mehr möglich wäre, was wäre dann möglich?
Das berühmte Beispiel für superintelligente KI, die schiefgelaufen ist, ist der Büroklammer-Maximierer. Dies ist eine KI, die entwickelt wurde, um die maximale Anzahl von Büroklammern zu erstellen. Da die KI mächtig genug ist, ist es denkbar, dass sie beschließt, Menschen und dann alles in Büroklammern zu verwandeln.
Sollte KI zur Rechenschaft gezogen werden?
KI ist bereits für viele Entscheidungen verantwortlich, die das menschliche Leben betreffen. Tatsächlich wird KI bereits in vielen Bereichen eingesetzt, die sich direkt auf die Menschenrechte auswirken, was beunruhigend ist, wenn man bedenkt, wie voreingenommen viele KI-Algorithmen zu sein scheinen.
KI wird beispielsweise von großen Unternehmen verwendet, um zu entscheiden, wer für einen Job eingestellt werden soll. In einigen Ländern wird es auch verwendet, um zu bestimmen, wer Sozialhilfe erhalten soll. Noch besorgniserregender ist, dass es von Polizei- und Gerichtssystemen verwendet wird, um die Verurteilung von Angeklagten festzulegen. Und das ist nicht alles.
Was passiert, wenn KI Fehler macht? Wer wird zur Rechenschaft gezogen – diejenigen, die es verwenden? Die Macher Alternativ, sollte die KI selbst bestraft werden (und wenn ja, wie würde das funktionieren)?
KI und Menschlichkeit
KI wird nie ein Mensch sein. Aber es kann bewusst sein, Leiden verspüren oder Wünsche und Wünsche haben. Wenn eine KI wie diese entwickelt würde, wäre es unethisch, sie zum Arbeiten zu zwingen, sie freiwillig außer Betrieb zu nehmen oder ihr Leid zuzufügen?
Während KI noch in den Kinderschuhen steckt, wird sie bereits für Dinge eingesetzt, die das menschliche Leben direkt beeinflussen, manchmal drastisch. Es müssen Entscheidungen darüber getroffen werden, wie die Software reguliert wird, die für das menschliche Leben am besten ist, und das KI-Leben sollte es jemals geben.
Lassen Sie uns einige verbreitete Unwahrheiten im Zusammenhang mit KI klarstellen.
Weiter lesen
- Technologie erklärt
- Künstliche Intelligenz
- Futurologie
- Technologie
Jake Harfield ist ein freiberuflicher Autor mit Sitz in Perth, Australien. Wenn er nicht gerade schreibt, ist er normalerweise draußen im Busch und fotografiert die einheimische Tierwelt. Sie können ihn unter www.jakeharfield.com besuchen
Abonniere unseren Newsletter
Abonnieren Sie unseren Newsletter für technische Tipps, Rezensionen, kostenlose E-Books und exklusive Angebote!
Klicken Sie hier, um zu abonnieren