Da moderne KI-Sprachmodelle wie ChatGPT und Microsofts Bing Chat weltweit Wellen schlagen, machen sich viele Menschen Sorgen, dass KI die Welt erobern könnte.
Obwohl wir auf absehbare Zeit nicht auf SkyNet stoßen werden, wird die KI in mehreren Dingen besser als der Mensch. Hier kommt das Problem der KI-Steuerung ins Spiel.
Das KI-Steuerungsproblem erklärt
Das Problem der KI-Steuerung ist die Vorstellung, dass die KI letztendlich besser darin wird, Entscheidungen zu treffen als Menschen. In Übereinstimmung mit dieser Theorie haben wir keine Chance, die Dinge später zu reparieren, wenn Menschen die Dinge nicht vorher richtig einrichten, was bedeutet, dass die KI eine effektive Kontrolle hat.
Die aktuelle Forschung zu KI- und maschinellen Lernmodellen (ML) ist mindestens Jahre davon entfernt, die menschlichen Fähigkeiten zu übertreffen. Es ist jedoch vernünftig anzunehmen, dass die KI angesichts der aktuellen Fortschritte den Menschen sowohl in Bezug auf Intelligenz als auch auf Effizienz übertreffen wird.
Das soll nicht heißen, dass KI- und ML-Modelle keine Grenzen haben. Schließlich sind sie an die Gesetze der Physik und der Rechenkomplexität sowie an die Rechenleistung der Geräte gebunden, die diese Systeme unterstützen. Es ist jedoch davon auszugehen, dass diese Grenzen die menschlichen Fähigkeiten bei weitem übersteigen.
Dies bedeutet, dass superintelligent KI-Systeme können eine große Bedrohung darstellen wenn sie nicht richtig konzipiert sind und Sicherheitsvorkehrungen getroffen haben, um potenziell böswilliges Verhalten zu überprüfen. Solche Systeme müssen von Grund auf so aufgebaut werden, dass sie menschliche Werte respektieren und ihre Macht im Zaum halten. Das bedeutet das Steuerungsproblem, wenn es sagt, dass die Dinge richtig eingerichtet werden müssen.
Wenn ein KI-System die menschliche Intelligenz ohne angemessene Schutzmaßnahmen übertreffen würde, könnte das Ergebnis katastrophal sein. Solche Systeme könnten die Kontrolle über physische Ressourcen übernehmen, da viele Aufgaben besser oder effizienter gelöst werden. Da KI-Systeme auf maximale Effizienz ausgelegt sind, kann ein Kontrollverlust schwerwiegende Folgen haben.
Wann tritt das KI-Steuerungsproblem auf?
Das Hauptproblem besteht darin, dass es für einen menschlichen Vorgesetzten umso schwieriger ist, die Technologie zu überwachen, je besser ein KI-System wird, um sicherzustellen, dass die manuelle Steuerung bei einem Ausfall des Systems problemlos übernommen werden kann. Darüber hinaus ist die menschliche Neigung, sich auf ein automatisiertes System zu verlassen, höher, wenn das System die meiste Zeit zuverlässig funktioniert.
Ein gutes Beispiel dafür ist die Tesla Full-Self-Driving (FSD)-Suite. Während das Auto selbst fahren kann, muss ein Mensch seine Hände am Lenkrad haben, um die Kontrolle über das Auto zu übernehmen, falls das System ausfallen sollte. Da diese KI-Systeme jedoch zuverlässiger werden, wird die Aufmerksamkeit selbst des aufmerksamsten Menschen allmählich schwanken, und die Abhängigkeit vom autonomen System wird zunehmen.
Was passiert also, wenn Autos mit Geschwindigkeiten fahren, mit denen Menschen nicht mithalten können? Am Ende geben wir die Kontrolle an die autonomen Systeme des Autos ab, was bedeutet, dass ein KI-System die Kontrolle über Ihr Leben haben wird, zumindest bis Sie Ihr Ziel erreichen.
Kann das KI-Steuerungsproblem gelöst werden?
Es gibt zwei Antworten darauf, ob das KI-Steuerungsproblem gelöst werden kann oder nicht. Erstens, wenn wir die Frage wörtlich interpretieren, kann das Kontrollproblem nicht gelöst werden. Es gibt nichts, was wir tun können, was direkt auf die menschliche Tendenz abzielt, sich auf ein automatisiertes System zu verlassen, wenn es die meiste Zeit zuverlässig und effizienter arbeitet.
Sollte diese Tendenz jedoch als Merkmal solcher Systeme berücksichtigt werden, können wir Wege finden, um das Steuerungsproblem zu umgehen. Zum Beispiel die Algorithmische Entscheidungsfindung und das Kontrollproblem Forschungspapier schlägt drei verschiedene Methoden vor, um mit der misslichen Lage umzugehen:
- Die Verwendung von weniger zuverlässigen Systemen erfordert, dass sich ein Mensch aktiv mit dem System auseinandersetzt, da weniger zuverlässige Systeme kein Steuerungsproblem darstellen.
- Warten, bis ein System die menschliche Effizienz und Zuverlässigkeit übertrifft, bevor es in der realen Welt eingesetzt wird.
- Um nur eine Teilautomatisierung mithilfe der Aufgabenzerlegung zu implementieren. Das bedeutet, dass nur diejenigen Teile eines Systems automatisiert werden, die keinen menschlichen Bediener zur Durchführung einer wichtigen Aufgabe benötigen. Dies wird als DCAF-Ansatz (Dynamic/Complementary Allocation of Function) bezeichnet.
Der DCAF-Ansatz stellt immer einen menschlichen Bediener an die Spitze eines automatisierten Systems und stellt sicher, dass seine Eingabe die wichtigsten Teile des Entscheidungsprozesses des Systems steuert. Wenn ein System so engagiert ist, dass ein menschlicher Bediener ständig darauf achten kann, kann das Steuerungsproblem gelöst werden.
Können wir KI jemals wirklich kontrollieren?
Da KI-Systeme fortschrittlicher, leistungsfähiger und zuverlässiger werden, werden wir ihnen weitere Aufgaben übertragen. Das Problem der KI-Steuerung kann jedoch mit den richtigen Vorkehrungen und Sicherheitsvorkehrungen gelöst werden.
KI verändert bereits jetzt die Welt für uns, meistens zum Besseren. Solange die Technologie unter menschlicher Aufsicht bleibt, sollten wir uns um nichts kümmern müssen.