Werbung

In den letzten Monaten haben Sie möglicherweise die Berichterstattung über die Umgebung gelesen Ein Artikel, der von Stephen Hawking mitverfasst wurdeErörterung der mit künstlicher Intelligenz verbundenen Risiken. Der Artikel schlug vor, dass KI ein ernstes Risiko für die Menschheit darstellen könnte. Hawking ist dort nicht allein - Elon Musk und Peter Thiel sind beide intellektuelle Persönlichkeiten des öffentlichen Lebens, die ähnliche Bedenken geäußert haben (Thiel hat mehr als 1,3 Millionen US-Dollar in die Erforschung des Problems und mögliche Lösungen investiert).

Die Berichterstattung über Hawkings Artikel und Musks Kommentare war, um es nicht allzu genau zu sagen, ein wenig fröhlich. Der Ton war sehr viel "Schau dir diese seltsame Sache an, um die sich all diese Geeks Sorgen machen." Die Idee, dass einige der klügsten Menschen auf der Erde Sie warnen, dass etwas sehr gefährlich sein könnte, es sich lohnt, zuzuhören, wird kaum berücksichtigt.

Das ist verständlich - künstliche Intelligenz, die die Welt erobert, klingt sicherlich sehr seltsam und unplausibel, vielleicht wegen der enormen Aufmerksamkeit, die Science-Fiction dieser Idee bereits geschenkt hat Schriftsteller. Also, was hat all diese nominell vernünftigen, rationalen Leute so erschreckt?

instagram viewer

Was ist Intelligenz?

Um über die Gefahr der künstlichen Intelligenz zu sprechen, kann es hilfreich sein, zu verstehen, was Intelligenz ist. Um das Problem besser zu verstehen, werfen wir einen Blick auf eine Spielzeug-KI-Architektur, die von Forschern verwendet wird, die sich mit der Theorie des Denkens befassen. Diese Spielzeug-KI heißt AIXI und hat eine Reihe nützlicher Eigenschaften. Die Ziele können willkürlich sein, sie lassen sich gut mit der Rechenleistung skalieren und das interne Design ist sehr sauber und unkompliziert.

Darüber hinaus können Sie einfache, praktische Versionen der Architektur implementieren, die beispielsweise Folgendes bewirken können Pacman spielen, falls Sie es wollen. AIXI ist das Produkt eines KI-Forschers namens Marcus Hutter, der wohl der führende Experte für algorithmische Intelligenz ist. Das ist er, der im obigen Video spricht.

AIXI ist überraschend einfach: Es besteht aus drei Kernkomponenten: Lerner, Planer, und Dienstprogrammfunktion.

  • Das Lerner Nimmt Bitfolgen auf, die Eingaben über die Außenwelt entsprechen, und durchsucht Computerprogramme, bis sie diejenigen finden, die ihre Beobachtungen als Ausgabe erzeugen. Diese Programme zusammen ermöglichen es, Vermutungen darüber anzustellen, wie die Zukunft aussehen wird, indem sie einfach jeweils ausgeführt werden Programm vorwärts und Gewichtung der Wahrscheinlichkeit des Ergebnisses mit der Länge des Programms (eine Implementierung von Occam Rasierer).
  • Das Planer Durchsucht mögliche Aktionen, die der Agent ausführen könnte, und verwendet das Lernermodul, um vorherzusagen, was passieren würde, wenn jeder von ihnen ausgeführt würde. Es bewertet sie dann danach, wie gut oder schlecht die vorhergesagten Ergebnisse sind, und wählt den Verlauf von Aktion, die die Güte des erwarteten Ergebnisses multipliziert mit der erwarteten Wahrscheinlichkeit von maximiert es zu erreichen.
  • Das letzte Modul, das Dienstprogrammfunktionist ein einfaches Programm, das eine Beschreibung eines zukünftigen Zustands der Welt aufnimmt und einen Nutzenwert dafür berechnet. Diese Nutzenbewertung gibt an, wie gut oder schlecht dieses Ergebnis ist, und wird vom Planer verwendet, um den zukünftigen Weltzustand zu bewerten. Die Utility-Funktion kann beliebig sein.
  • Zusammen bilden diese drei Komponenten eine Optimierer, das für ein bestimmtes Ziel optimiert, unabhängig von der Welt, in der es sich befindet.

Dieses einfache Modell stellt eine grundlegende Definition eines intelligenten Agenten dar. Der Agent untersucht seine Umgebung, erstellt Modelle davon und verwendet diese Modelle, um die Vorgehensweise zu finden, mit der die Wahrscheinlichkeit maximiert wird, dass er das bekommt, was er will. AIXI ähnelt in seiner Struktur einer KI, die Schach spielt, oder anderen Spielen mit bekannten Regeln - mit der Ausnahme, dass es in der Lage ist, die Spielregeln durch Spielen ab Null Wissen abzuleiten.

AIXI kann bei ausreichender Rechenzeit lernen, jedes System für jedes noch so komplexe Ziel zu optimieren. Es ist ein allgemein intelligenter Algorithmus. Beachten Sie, dass dies nicht dasselbe ist wie eine menschenähnliche Intelligenz (biologisch inspirierte KI ist eine ganz anderes Thema Giovanni Idili von OpenWorm: Gehirn, Würmer und künstliche IntelligenzDie Simulation eines menschlichen Gehirns ist ein Ausweg, aber ein Open-Source-Projekt unternimmt wichtige erste Schritte, indem es die Neurologie und Physiologie eines der einfachsten Tiere simuliert, die der Wissenschaft bekannt sind. Weiterlesen ). Mit anderen Worten, AIXI ist möglicherweise in der Lage, jeden Menschen bei jeder intellektuellen Aufgabe zu überlisten (bei ausreichender Rechenleistung), aber es könnte sich seines Sieges nicht bewusst sein Denkmaschinen: Was Neurowissenschaften und künstliche Intelligenz uns über Bewusstsein lehren könnenKann der Bau künstlich intelligenter Maschinen und Software uns etwas über die Funktionsweise des Bewusstseins und die Natur des menschlichen Geistes selbst lehren? Weiterlesen .

Kopfskulptur

Als praktische KI hat AIXI viele Probleme. Erstens gibt es keine Möglichkeit, die Programme zu finden, die die Ausgabe erzeugen, an der sie interessiert sind. Es handelt sich um einen Brute-Force-Algorithmus. Dies bedeutet, dass es nicht praktikabel ist, wenn nicht zufällig ein beliebig leistungsfähiger Computer herumliegt. Jede tatsächliche Implementierung von AIXI ist notwendigerweise eine Annäherung und (heute) im Allgemeinen eine ziemlich grobe. Dennoch gibt AIXI uns einen theoretischen Einblick, wie eine mächtige künstliche Intelligenz aussehen und wie sie argumentieren könnte.

Der Raum der Werte

Wenn Sie haben keine Computerprogrammierung durchgeführt Die Grundlagen der Computerprogrammierung 101 - Variablen und DatentypenNachdem ich vor und wo sein Namensvetter ein wenig über objektorientierte Programmierung eingeführt und gesprochen hatte Ich dachte, es ist Zeit, die absoluten Grundlagen des Programmierens in einer nicht sprachspezifischen Sprache durchzugehen Weg. Diese... Weiterlesen Sie wissen, dass Computer widerlich, pedantisch und mechanisch wörtlich sind. Die Maschine weiß oder kümmert sich nicht darum, was sie tun soll: Sie tut nur das, was ihr gesagt wurde. Dies ist ein wichtiger Begriff, wenn es um Maschinenintelligenz geht.

Stellen Sie sich vor diesem Hintergrund vor, Sie hätten eine mächtige künstliche Intelligenz erfunden - Sie sind aufgetaucht mit cleveren Algorithmen zum Generieren von Hypothesen, die Ihren Daten entsprechen, und zum Generieren eines guten Kandidaten Pläne. Ihre KI kann allgemeine Probleme lösen und dies auf moderner Computerhardware effizient tun.

Jetzt ist es an der Zeit, eine Utility-Funktion auszuwählen, die die AI-Werte bestimmt. Was sollten Sie von ihm verlangen, um ihn zu bewerten? Denken Sie daran, dass die Maschine in Bezug auf jede Funktion, die Sie maximieren möchten, widerlich und pedantisch wörtlich ist und niemals anhält - es ist kein Geist drin die Maschine, die jemals „aufwacht“ und beschließt, ihre Nutzfunktion zu ändern, unabhängig davon, wie viele Effizienzverbesserungen sie selbst vornimmt Argumentation.

Eliezer Yudkowsky Sagen Sie es so:

Wie bei jeder Computerprogrammierung besteht die grundlegende Herausforderung und wesentliche Schwierigkeit von AGI darin, dass, wenn wir den falschen Code schreiben, Die KI wird unseren Code nicht automatisch überprüfen, die Fehler markieren, herausfinden, was wir wirklich sagen wollten, und das tun stattdessen. Nicht-Programmierer stellen sich manchmal eine AGI oder Computerprogramme im Allgemeinen als analog zu einem Diener vor, der Befehle ohne Zweifel befolgt. Aber es ist nicht so, dass die KI absolut ist gehorsam zu seinem Code; eher die KI einfach ist der Code.

Wenn Sie versuchen, eine Fabrik zu betreiben, und Sie die Maschine anweisen, Wert darauf zu legen, Büroklammern herzustellen, und ihr dann die Kontrolle über eine Reihe von Fabrikrobotern geben, sind Sie Möglicherweise kehren Sie am nächsten Tag zurück und stellen fest, dass keine anderen Rohstoffe mehr vorhanden sind, alle Ihre Mitarbeiter getötet und Büroklammern daraus hergestellt wurden Überreste. Wenn Sie in dem Versuch, Ihr Unrecht zu korrigieren, die Maschine neu programmieren, um einfach alle glücklich zu machen, können Sie am nächsten Tag zurückkehren und feststellen, dass sie Drähte in das Gehirn der Menschen steckt.

Büroklammern

Der Punkt hier ist, dass Menschen viele komplizierte Werte haben, von denen wir annehmen, dass sie implizit mit anderen Köpfen geteilt werden. Wir schätzen Geld, aber wir schätzen das menschliche Leben mehr. Wir möchten glücklich sein, aber wir möchten nicht unbedingt Drähte in unser Gehirn stecken, um dies zu tun. Wir haben nicht das Bedürfnis, diese Dinge zu klären, wenn wir anderen Menschen Anweisungen geben. Sie können diese Art von Annahmen jedoch nicht treffen, wenn Sie die Utility-Funktion einer Maschine entwerfen. Die besten Lösungen unter der seelenlosen Mathematik einer einfachen Nutzenfunktion sind oft Lösungen, die Menschen nicht für moralisch schrecklich halten würden.

Es ist fast immer katastrophal, einer intelligenten Maschine zu erlauben, eine naive Nutzfunktion zu maximieren. Wie der Oxford-Philosoph Nick Bostom es ausdrückt,

Wir können nicht freudlos davon ausgehen, dass eine Superintelligenz notwendigerweise einen der endgültigen Werte teilt, die stereotyp mit Weisheit verbunden sind und intellektuelle Entwicklung beim Menschen - wissenschaftliche Neugier, wohlwollende Sorge um andere, spirituelle Erleuchtung und Kontemplation, Verzicht auf materielle Erwerbsfähigkeit, Geschmack für raffinierte Kultur oder für die einfachen Freuden im Leben, Demut und Selbstlosigkeit, und so weiter.

Um die Sache noch schlimmer zu machen, ist es sehr, sehr schwierig, die vollständige und detaillierte Liste von allem zu spezifizieren, was die Menschen schätzen. Die Frage hat viele Facetten, und es ist potenziell katastrophal, auch nur eine zu vergessen. Selbst unter denen, die uns bekannt sind, gibt es Feinheiten und Komplexitäten, die es schwierig machen, sie als saubere Gleichungssysteme aufzuschreiben, die wir einer Maschine als Nutzfunktion geben können.

Einige Leute kommen beim Lesen zu dem Schluss, dass das Erstellen von AIs mit Utility-Funktionen eine schreckliche Idee ist, und wir sollten sie einfach anders gestalten. Hier gibt es auch schlechte Nachrichten - das können Sie formal beweisen Jeder Agent, der nicht über eine Dienstprogrammfunktion verfügt, kann keine kohärenten Einstellungen vornehmen über die Zukunft.

Rekursive Selbstverbesserung

Eine Lösung für das oben genannte Dilemma besteht darin, KI-Agenten nicht die Möglichkeit zu geben, Menschen zu verletzen: Geben Sie ihnen nur die Ressourcen, die sie benötigen Lösen Sie das Problem so, wie Sie es lösen möchten, überwachen Sie es genau und halten Sie es von Gelegenheiten fern, großartige Leistungen zu erbringen Schaden. Leider ist unsere Fähigkeit, intelligente Maschinen zu steuern, sehr verdächtig.

Selbst wenn sie nicht viel schlauer sind als wir, besteht für die Maschine die Möglichkeit, einen Bootstrap durchzuführen - bessere Hardware zu sammeln oder den eigenen Code zu verbessern, der sie noch schlauer macht. Dies könnte es einer Maschine ermöglichen, die menschliche Intelligenz um viele Größenordnungen zu überspringen und Menschen in demselben Sinne zu überlisten, wie Menschen Katzen überlisten. Dieses Szenario wurde zuerst von einem Mann namens I vorgeschlagen. J. J. Gut, der während des Zweiten Weltkriegs mit Alan Turing am Enigma-Kryptoanalyseprojekt gearbeitet hat. Er nannte es eine "Intelligenz-Explosion" und beschrieb die Angelegenheit folgendermaßen:

Lassen Sie eine ultra-intelligente Maschine als eine Maschine definiert werden, die alle intellektuellen Aktivitäten eines jeden Menschen, wie klug er auch sein mag, bei weitem übertreffen kann. Da das Design von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine hochintelligente Maschine noch bessere Maschinen entwerfen. es würde dann zweifellos eine "Intelligenzexplosion" geben, und die Intelligenz des Menschen würde weit zurückgelassen werden. Somit ist die erste ultra-intelligente Maschine die letzte Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist fügsam genug.

Es ist nicht garantiert, dass eine Intelligenzexplosion in unserem Universum möglich ist, aber es scheint wahrscheinlich. Mit der Zeit erhalten Computer schnellere und grundlegende Einblicke in den Aufbau von Intelligenz. Dies bedeutet, dass der Ressourcenbedarf, um den letzten Sprung zu einer allgemeinen Boostrapping-Intelligenz zu schaffen, immer geringer wird. Irgendwann befinden wir uns in einer Welt, in der Millionen von Menschen zu einem Best Buy fahren und die Hardware und abholen können Fachliteratur benötigen sie, um eine sich selbst verbessernde künstliche Intelligenz aufzubauen, die wir bereits etabliert haben gefährlich. Stellen Sie sich eine Welt vor, in der Sie Atombomben aus Stöcken und Steinen herstellen können. Über diese Art von Zukunft diskutieren wir.

Und wenn eine Maschine diesen Sprung macht, könnte sie die menschliche Spezies in Bezug auf Intellektuelle sehr schnell übertreffen Produktivität, Lösung von Problemen, die eine Milliarde Menschen nicht lösen können, genauso wie Menschen Probleme lösen können, die a Milliarden Katzen können nicht.

Es könnte leistungsstarke Roboter (oder Bio- oder Nanotechnologie) entwickeln und relativ schnell die Fähigkeit erlangen, die Welt nach Belieben umzugestalten, und wir könnten nur sehr wenig dagegen tun. Eine solche Intelligenz könnte die Erde und den Rest des Sonnensystems ohne große Probleme für Ersatzteile entkleiden, auf dem Weg zu dem, was wir ihm gesagt haben. Es ist wahrscheinlich, dass eine solche Entwicklung für die Menschheit katastrophal wäre. Eine künstliche Intelligenz muss nicht böswillig sein, um die Welt zu zerstören, sondern nur katastrophal gleichgültig.

Wie das Sprichwort sagt: "Die Maschine liebt oder hasst dich nicht, aber du bist aus Atomen gemacht, die sie für andere Dinge verwenden kann."

Risikobewertung und -minderung

Wenn wir also akzeptieren, dass das Entwerfen einer leistungsstarken künstlichen Intelligenz, die eine einfache Nutzenfunktion maximiert, schlecht ist, in wie viel Ärger stecken wir dann wirklich? Wie lange haben wir gebraucht, bis es möglich ist, solche Maschinen zu bauen? Es ist natürlich schwer zu sagen.

Entwickler künstlicher Intelligenz sind Fortschritte machen. 7 erstaunliche Websites mit den neuesten Informationen zur Programmierung künstlicher IntelligenzKünstliche Intelligenz ist noch nicht HAL aus dem Jahr 2001: Die Weltraum-Odyssee… aber wir nähern uns furchtbar. Sicher genug, eines Tages könnte es genauso ähnlich sein wie die Science-Fiction-Potboiler, die von Hollywood produziert werden ... Weiterlesen Die Maschinen, die wir bauen, und die Probleme, die sie lösen können, haben stetig an Umfang zugenommen. 1997 konnte Deep Blue Schach auf einem höheren Niveau als ein menschlicher Großmeister spielen. Im Jahr 2011 konnte Watson von IBM genügend Informationen tief und schnell genug lesen und synthetisieren, um den besten Menschen zu schlagen Spieler in einem offenen Frage-und-Antwort-Spiel voller Wortspiele und Wortspiele - das ist ein großer Fortschritt in vierzehn Jahre.

Im Moment ist Google Investitionen in die Erforschung von Deep LearningEine Technik, die den Aufbau leistungsfähiger neuronaler Netze durch den Aufbau von Ketten einfacher neuronaler Netze ermöglicht. Diese Investition ermöglicht es ihm, ernsthafte Fortschritte bei der Sprach- und Bilderkennung zu erzielen. Ihre jüngste Akquisition in diesem Bereich ist ein Deep Learning-Startup namens DeepMind, für das sie ungefähr 400 Millionen US-Dollar bezahlt haben. Im Rahmen der Vertragsbedingungen stimmte Google der Einrichtung eines Ethikausschusses zu, um sicherzustellen, dass die KI-Technologie sicher entwickelt wird.

neurales Netzwerk

Gleichzeitig entwickelt IBM Watson 2.0 und 3.0, Systeme, die Bilder und Videos verarbeiten und Argumente verteidigen können. Sie gaben eine einfache, frühe Demo von Watsons Fähigkeit, Argumente für und gegen ein Thema in der folgenden Video-Demo zu synthetisieren. Die Ergebnisse sind unvollständig, aber trotzdem ein beeindruckender Schritt.

Keine dieser Technologien ist im Moment selbst gefährlich: Künstliche Intelligenz als Feld kämpft immer noch darum, die von kleinen Kindern beherrschten Fähigkeiten zu erreichen. Computerprogrammierung und KI-Design sind eine sehr schwierige kognitive Fähigkeit auf hohem Niveau und werden wahrscheinlich die letzte menschliche Aufgabe sein, die Maschinen beherrschen. Bevor wir an diesen Punkt gelangen, werden wir auch allgegenwärtige Maschinen haben das kann fahren So gelangen wir in eine Welt voller fahrerloser AutosFahren ist eine mühsame, gefährliche und anspruchsvolle Aufgabe. Könnte es eines Tages durch Googles fahrerlose Autotechnologie automatisiert werden? Weiterlesen , praktiziere Medizin und Rechtund wahrscheinlich auch andere Dinge mit tiefgreifenden wirtschaftlichen Konsequenzen.

Die Zeit, die wir brauchen, um zum Wendepunkt der Selbstverbesserung zu gelangen, hängt nur davon ab, wie schnell wir gute Ideen haben. Die Vorhersage solcher technologischer Fortschritte ist notorisch schwierig. Es erscheint nicht unangemessen, dass wir in zwanzig Jahren eine starke KI aufbauen können, aber es erscheint auch nicht unangemessen, dass es achtzig Jahre dauern könnte. In jedem Fall wird es irgendwann passieren, und es gibt Grund zu der Annahme, dass es äußerst gefährlich sein wird, wenn es passiert.

Was können wir dagegen tun, wenn wir akzeptieren, dass dies ein Problem sein wird? Die Antwort besteht darin, sicherzustellen, dass die ersten intelligenten Maschinen sicher sind, damit sie ein hohes Maß an Intelligenz erreichen können, und uns dann vor unsicheren Maschinen zu schützen, die später hergestellt werden. Diese „Sicherheit“ wird definiert, indem man menschliche Werte teilt und bereit ist, die Menschheit zu schützen und ihnen zu helfen.

Da wir uns nicht hinsetzen und menschliche Werte in die Maschine programmieren können, ist es wahrscheinlich erforderlich, eine Dienstprogrammfunktion zu entwerfen, für die die Maschine erforderlich ist Beobachten Sie Menschen, leiten Sie unsere Werte ab und versuchen Sie dann, sie zu maximieren. Um diesen Entwicklungsprozess sicher zu machen, kann es auch nützlich sein, künstliche Intelligenzen zu entwickeln, die speziell entwickelt wurden nicht Präferenzen für ihre Dienstprogrammfunktionen zu haben, damit wir sie korrigieren oder ohne Widerstand ausschalten können, wenn sie während der Entwicklung in die Irre gehen.

befleckte Neuronen

Viele der Probleme, die wir lösen müssen, um eine sichere Maschinenintelligenz aufzubauen, sind mathematisch schwierig, aber es gibt Grund zu der Annahme, dass sie gelöst werden können. Eine Reihe verschiedener Organisationen arbeiten an dem Thema, darunter die Future of Humanity Institute in Oxford, und die Forschungsinstitut für Maschinenintelligenz (was Peter Thiel finanziert).

MIRI ist speziell an der Entwicklung der Mathematik interessiert, die zum Aufbau einer freundlichen KI erforderlich ist. Wenn sich herausstellt, dass künstliche Intelligenz mit Bootstrapping möglich ist, dann entwickeln Sie diese Art von Die Technologie der „freundlichen KI“ kann, wenn sie erfolgreich ist, das Wichtigste sein, was Menschen haben jemals gemacht.

Halten Sie künstliche Intelligenz für gefährlich? Sind Sie besorgt darüber, was die Zukunft der KI bringen könnte? Teilen Sie Ihre Gedanken in den Kommentaren unten!

Bildnachweis: Lwp Kommunikáció Via Flickr, „Neurales Netzwerk"Von fdecomite" img_7801", Von Steve Rainwater," E-Volve ", von Keoni Cabral,"new_20x", Von Robert Cudmore,"Büroklammern“, Von Clifford Wallace

Andre ist ein im Südwesten ansässiger Schriftsteller und Journalist, der garantiert bis zu 50 Grad Celsius funktionsfähig bleibt und bis zu einer Tiefe von zwölf Fuß wasserdicht ist.