Die neuesten Innovationen rund um KI-basierte Technologie sprengen die Grenzen dessen, was wir einst mit KI für möglich gehalten haben. Da Chatbots wie ChatGPT und Bing Chat jedoch in einigen Dingen fast so gut wie Menschen werden, ist es an der Zeit, für eine Weile auf die Bremse zu treten?

Elon Musk und mehrere KI-Forscher gehören zu den 1.188 Personen (zum Zeitpunkt des Schreibens), die so denken. Ein vom gemeinnützigen Future of Life Institute veröffentlichter Brief fordert eine sechsmonatige Pause beim Training von KI-Technologien, die besser als GPT 4 sind, aber ist eine Pause wirklich erforderlich?

Worum geht es beim Offenen Brief zur Zukunft des Lebens?

Der Brief, herausgegeben vom Future of Life Institute weist darauf hin, dass KI-Labore „in einen außer Kontrolle geratenen Wettlauf geraten“ sind, um mehr und mehr zu entwickeln und einzusetzen leistungsfähigere KI-Modelle, die niemand, einschließlich ihrer Schöpfer, "verstehen, vorhersagen oder zuverlässig" kann Kontrolle".

Es weist auch darauf hin, dass moderne KI-Systeme nun bei allgemeinen Aufgaben und Fragen mit dem Menschen wettbewerbsfähig werden ob wir "nichtmenschliche Köpfe entwickeln sollten, die schließlich zahlenmäßig überlegen, überlistet, veraltet und ersetzt werden könnten uns".

instagram viewer

Der Brief fordert schließlich alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen. Die Pause sollte öffentlich und auch über alle Schlüsselakteure hinweg überprüfbar sein. Darin heißt es auch, dass, wenn eine solche Pause nicht schnell durchgesetzt werden kann, die Regierungen eingreifen sollten, um das Training von KI-Modellen vorübergehend zu verbieten.

Sobald die Pause aktiv ist, werden KI-Labore und unabhängige Experten gebeten, sie zu nutzen, um gemeinsam eine zu entwickeln und umzusetzen „gemeinsamer Satz von Sicherheitsprotokollen“, um sicherzustellen, dass Systeme, die sich an diese Regeln halten, „über das vertretbare Maß hinaus sicher sind zweifeln".

Dieser Brief wurde von einigen namentlich genannten Persönlichkeiten unterzeichnet, darunter Elon Musk, Steve Wozniak und KI-Forscher und -Autoren. Tatsächlich ist die Liste der Unterzeichner derzeit aufgrund der hohen Nachfrage pausiert.

Was sind Musks Bedenken in Bezug auf fortschrittliche KI-Technologie und OpenAI?

Während die Unterzeichnung des Briefes von Future of Life darauf hindeuten könnte, dass Musk besorgt über die Sicherheitsrisiken ist, die solche fortschrittlichen KI-Systeme darstellen, könnte der wahre Grund ein anderer sein.

Musk hat OpenAI zusammen mit dem derzeitigen CEO Sam Altman im Jahr 2015 als gemeinnützige Organisation gegründet. Später im Jahr 2018 stieß er jedoch mit Altman aneinander, nachdem er feststellte, dass er mit den Fortschritten des Unternehmens nicht zufrieden war. Berichten zufolge wollte Musk übernehmen, um die Entwicklung zu beschleunigen, aber Altman und der OpenAI-Vorstand schossen die Idee ab.

Musk verließ OpenAI kurz darauf und nahm sein Geld mit, wobei er sein Versprechen brach, 1 Milliarde zur Finanzierung beizutragen und nur 100 Millionen zu geben, bevor er ging. Dies zwang OpenAI kurz darauf, im März 2019, ein privates Unternehmen zu werden, um Mittel für die Fortsetzung seiner Forschung zu beschaffen.

Bildnachweis: Heisenberg Media/Wikimedia Commons

Ein weiterer Grund für Musks Ausstieg war, dass die KI-Entwicklung bei Tesla künftig einen Interessenkonflikt verursachen würde. Es ist offensichtlich, dass Tesla fortschrittliche KI-Systeme benötigt, um es anzutreiben Vollständige Selbstfahrfunktionen. Seit Musk OpenAI verlassen hat, ist das Unternehmen mit seinen KI-Modellen davongelaufen und hat gestartet GPT3.5-betriebenes ChatGPT im Jahr 2022 und später im Anschluss an GPT-4 im März 2023.

Die Tatsache, dass Musks KI-Team bei weitem nicht an OpenAI heranreicht, muss jedes Mal berücksichtigt werden, wenn er sagt, dass moderne KI-Modelle Risiken bergen könnten. Er hatte auch keine Probleme Einführung der Beta-Version von Tesla Full Self-Driving auf öffentlichen Straßen, was im Wesentlichen regelmäßige Tesla-Fahrer zu Beta-Testern macht.

Das endet hier auch nicht. Musk war auch auf Twitter ziemlich kritisch gegenüber OpenAI, wobei Altman so weit ging zu sagen, dass er sie angreift, während er kürzlich im Podcast „On with Kara Swisher“ auftrat.

Im Moment sieht es so aus, als würde Musk den Future of Life-Brief nur nutzen, um die Entwicklung bei OpenAI und allen anderen Unternehmen, die aufholen, zu stoppen zu GPT-4, um seinen Unternehmen die Möglichkeit zu geben, aufzuholen, anstatt sich tatsächlich Sorgen über die potenziellen Gefahren dieser KI-Modelle zu machen Pose. Beachten Sie, dass der Brief auch darum bittet, das „Training“ von KI-Systemen für sechs Monate zu unterbrechen, was relativ leicht umgangen werden kann, um sie in der Zwischenzeit weiterzuentwickeln.

Braucht es wirklich eine Pause?

Die Notwendigkeit einer Pause hängt vom Zustand der KI-Modelle in der Zukunft ab. Der Brief hat definitiv einen etwas dramatischen Ton, und wir riskieren nicht, die Kontrolle über unsere Zivilisation an die KI zu verlieren, wie es so offen gesagt wird. Das gesagt, KI-Technologien stellen einige Bedrohungen dar.

Angesichts der Tatsache, dass OpenAI und andere KI-Labore bessere Sicherheitsüberprüfungen anbieten können, würde eine Pause mehr schaden als nützen. Der Vorschlag des Schreibens, eine Reihe gemeinsamer Sicherheitsprotokolle vorzuschlagen, die „rigoros geprüft und von unabhängigen externen Experten überwacht“ werden, klingt jedoch nach einer guten Idee.

Da Technologiegiganten wie Google und Microsoft Milliarden in die KI-Entwicklung und -Integration in ihre Produkte stecken, ist es unwahrscheinlich, dass der Brief das aktuelle Tempo der KI-Entwicklung beeinflussen wird.

KI ist gekommen, um zu bleiben

Da Technologiegiganten die KI-Integration in ihre Produkte weiter vorantreiben und Milliarden von Dollar in Forschung und Entwicklung stecken, ist KI hier, um zu bleiben, unabhängig davon, was die Opposition sagt.

Aber es ist keine schlechte Idee, Sicherheitsmaßnahmen zu implementieren, um zu verhindern, dass diese Technologien aus dem Ruder laufen und sich möglicherweise in Werkzeuge für Schaden verwandeln.