Experten gehen davon aus, dass KI die Menschheit, wie wir sie kennen, auslöschen wird. Was wird also getan, um dies zu verhindern?

Wieder einmal hat eine Gruppe führender KI-Forscher und Technologieunternehmen davor gewarnt, dass die derzeitige rasante Entwicklung der künstlichen Intelligenz eine Katastrophe für die Menschheit bedeuten könnte.

Die Risiken umfassen nukleare Konflikte, Krankheiten, Fehlinformationen und außer Kontrolle geratene KI, die alle eine unmittelbare Bedrohung für das Überleben der Menschheit darstellen.

Aber es darf nicht vergessen werden, dass viele dieser Warnungen von denselben Leuten kommen, die die KI-Entwicklung leiten und in ihren jeweiligen Unternehmen Tools und Programme für künstliche Intelligenz vorantreiben.

Warum warnen Technologieunternehmen und KI-Wissenschaftler vor KI-Risiken?

Am 30. Mai 2023 veröffentlichten mehr als 350 KI-Forscher, -Entwickler und -Ingenieure eine mitunterzeichnete Erklärung, in der sie vor der Bedrohung der Menschheit durch KI warnten.

instagram viewer

Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.

Unterzeichner der Safe.ai-Erklärung Dazu gehörten Sam Altman von OpenAI, Demis Hassabis von Google DeepMind und Dario Amodei von Anthropic sowie Turing Die Preisträger Geoffrey Hinton und Yoshua Bengio (obwohl Yann LeCun, der ebenfalls den gleichen Preis gewann, es versäumte, zu unterschreiben). Die Liste ist fast ein Who-is-Who der KI-Entwicklungswelt – die Menschen, die in Sachen KI führend sind – und doch sind sie alle hier und warnen davor, dass KI eine Katastrophe für die Menschheit bedeuten könnte.

Es handelt sich um eine kurze Erklärung, die die Bedrohungen deutlich macht und insbesondere zwei Schlüsselbereiche nennt, die die Welt, wie wir sie kennen, gefährden könnten: Atomkrieg und globale Gesundheitsprobleme. Während die Gefahr eines nuklearen Konflikts Anlass zur Sorge gibt, ist das Risiko einer Pandemie für die meisten eine greifbarere Bedrohung.

Allerdings ist es nicht nur eine globale Pandemie, die KI-bedingte Gesundheitsprobleme verursachen könnte. Der Wächter berichtet über mehrere andere KI-Gesundheitsprobleme, die sich auf den Menschen auswirken könnten, wenn sie nicht vor der breiten Nutzung behoben werden. Ein Beispiel bezog sich auf die Verwendung von KI-gestützten Oximetern, die „den Blutsauerstoffgehalt bei Patienten mit dunklerer Haut überschätzten, was zu einer Unterbehandlung ihrer Hypoxie führte“.

Darüber hinaus ist es nicht das erste Mal, dass eine Gruppe von Technologieführern eine Pause oder eine ernsthafte Neubewertung der KI-Entwicklung fordert. Im März 2023, Elon Musk und andere KI-Forscher haben einen ähnlichen Aufruf zum Handeln unterzeichnet Sie fordern ein Moratorium für die KI-Entwicklung, bis mehr Regulierung umgesetzt werden kann, um den Prozess zu steuern.

Was ist das Risiko von KI?

Die meisten mit KI verbundenen Risiken hängen zumindest in diesem Zusammenhang mit der Entwicklung einer außer Kontrolle geratenen KI-Technologie zusammen das übersteigt die Fähigkeiten des Menschen, wendet sich schließlich gegen seinen Schöpfer und löscht, wie wir wissen, das Leben aus Es. Es ist eine Geschichte, die unzählige Male in Science-Fiction-Romanen behandelt wurde, aber die Realität ist jetzt näher, als wir vielleicht denken.

Die Fähigkeiten großer Sprachmodelle (die Tools wie ChatGPT zugrunde liegen) nehmen drastisch zu. Jedoch, Tools wie ChatGPT haben viele Probleme, wie inhärente Voreingenommenheit, Datenschutzbedenken und KI-Halluzinationen, ganz zu schweigen von der Fähigkeit, einen Jailbreak zu erhalten, um außerhalb der Grenzen seiner programmierten Geschäftsbedingungen zu handeln.

Da große Sprachmodelle zunehmen und über mehr Datenpunkte sowie einen Internetzugang und mehr verfügen, auf die zurückgegriffen werden kann Angesichts der aktuellen Ereignisse befürchten die KI-Forscher, dass es eines Tages, in den Worten von OpenAI-CEO Sam Altman, „ganz gut gehen“ könnte falsch."

Wie regulieren Regierungen die KI-Entwicklung, um Risiken zu stoppen?

Die KI-Regulierung ist der Schlüssel zur Risikoprävention. Anfang Mai 2023, Sam Altman forderte mehr KI-Regulierung, in dem es heißt, dass „regulierende Eingriffe der Regierungen von entscheidender Bedeutung sein werden, um die Risiken immer leistungsfähigerer Modelle zu mindern.“

Dann ist die Die Europäische Union hat das AI Act angekündigt, eine Verordnung, die einen viel stärkeren Rahmen für die KI-Entwicklung in der gesamten EU bieten soll (wobei viele Vorschriften auch auf andere Gerichtsbarkeiten übergreifen). Altman drohte zunächst damit, OpenAI aus der EU zurückzuziehen, nahm seine Drohung dann jedoch zurück und stimmte zu, dass das Unternehmen die von ihm zuvor geforderte KI-Verordnung einhalten würde.

Unabhängig davon ist klar, dass die Regulierung der Entwicklung und Nutzung von KI wichtig ist.

Wird KI die Menschheit beenden?

Da ein Großteil der Debatte zu diesem Thema auf Hypothesen über die Leistungsfähigkeit zukünftiger Versionen der KI basiert, gibt es Fragen hinsichtlich der Langlebigkeit und Leistungsfähigkeit, die jede KI-Verordnung haben kann. Wie lässt sich eine Branche am besten regulieren, die sich ohnehin schon mit 1000 Meilen pro Minute bewegt und in der es täglich zu Durchbrüchen in der Entwicklung kommt?

Darüber hinaus bestehen immer noch Zweifel an den Fähigkeiten der KI im Allgemeinen und wo sie letztendlich landen wird. Während diejenigen, die das Schlimmste befürchten, darauf hinweisen, dass die künstliche allgemeine Intelligenz zum menschlichen Oberherrn werden könnte, verweisen andere darauf Tatsache ist, dass aktuelle Versionen der KI nicht einmal grundlegende mathematische Fragen lösen können und dass vollständig selbstfahrende Autos immer noch ein Weg sind aus.

Es ist schwer, denjenigen, die in die Zukunft blicken, nicht zuzustimmen. Viele der Leute, die am lautesten über die Probleme schreien, die KI aufwerfen könnte, sitzen am Steuer und schauen, wohin die Reise gehen könnte. Wenn sie diejenigen sind, die eine KI-Regulierung fordern, um uns vor einer möglicherweise schrecklichen Zukunft zu schützen, ist es möglicherweise an der Zeit, zuzuhören.