Die KI-Entwicklung schreitet rasant voran, aber wer sollte die KI und ihre Auswirkungen auf die Welt leiten?
Die zentralen Thesen
- KI muss strenger überwacht werden, da weiterhin Schwachstellen in der Cybersicherheit und Datenschutzbedenken auftauchen.
- Die Regierung, Technologieunternehmen und Endnutzer spielen alle eine Rolle bei der Regulierung der KI, aber jeder Ansatz hat seine Grenzen.
- Medienunternehmen, gemeinnützige Organisationen, Verbände der Technologiebranche, akademische Einrichtungen und Strafverfolgungsbehörden tragen ebenfalls zur Regulierung von KI bei.
Die breite Öffentlichkeit hat unterschiedliche Ansichten über KI – einige glauben, dass Maschinen menschliche Arbeitskräfte vollständig ersetzen werden, während andere behaupten, KI sei eine Modeerscheinung. Einig sind sich jedoch alle darüber, dass KI einer strengeren Überwachung bedarf.
Trotz der Bedeutung der KI-Regulierung ist sie gegenüber der Ausbildung in den Hintergrund getreten. Entwickler sind so besessen davon, das nächstgrößere KI-Modell zu entwickeln, dass sie Cybersicherheit gegen schnelle Fortschritte eintauschen. Die Frage ist nicht, ob KI einer Regulierung bedarf; Es geht darum, welches Leitungsgremium mit angemessener Finanzierung, Humanressourcen und technologischer Kapazität die Initiative ergreifen wird.
Wer sollte also die KI regulieren?
Regierungsstellen
Verschiedene Menschen, vom Verbraucher bis zum Technologieführer hoffen, dass die Regierung die KI regulieren wird. Öffentlich geförderte Institutionen verfügen über die entsprechenden Ressourcen. Sogar Elon Musk und Sam Altman, zwei Haupttreiber des KI-Rennens, glauben das Datenschutzbedenken im Zusammenhang mit KI sind zu gefährlich, als dass die Leitungsgremien sie übersehen könnten.
Die Regierung sollte sich auf den Schutz der Privatsphäre und der bürgerlichen Freiheiten ihrer Wähler konzentrieren, wenn sie die KI-Regulierung übernimmt. Cyberkriminelle finden immer wieder Möglichkeiten, KI-Systeme für ihre Machenschaften auszunutzen. Personen, die sich mit KI nicht so gut auskennen, könnten sich leicht von künstlichen Stimmen, gefälschten Videos und von Bots betriebenen Online-Profilen täuschen lassen.
Ein großes Problem bei der Regulierung von KI durch die Regierung besteht jedoch darin, dass sie unbeabsichtigt Innovationen unterdrücken könnte. KI ist eine komplexe, sich weiterentwickelnde Technologie. Wenn die Beamten, die die Einsatz-, Entwicklungs- und Schulungsrichtlinien überwachen, nicht verstehen, wie KI funktioniert, könnten sie voreilige und ineffiziente Urteile fällen.
KI-Entwickler, Technologieunternehmen und Labore
Angesichts der potenziellen Hindernisse, die sich aus der Überwachung der KI durch die Regierung ergeben könnten, würden viele es vorziehen, wenn Technologieunternehmen die Vorreiterrolle bei der Regulierung übernehmen würden. Sie glauben, dass Entwickler für die von ihnen veröffentlichte Technologie verantwortlich sein sollten. Durch Selbstregulierung können sie Innovationen vorantreiben und sich auf die effiziente Weiterentwicklung dieser Systeme konzentrieren.
Darüber hinaus wird ihnen ihr tiefes Verständnis von KI dabei helfen, faire, fundierte Richtlinien zu erstellen, die der Benutzersicherheit Priorität einräumen, ohne die Funktionalität zu beeinträchtigen. Wie bei jeder Technologie rationalisiert Branchenexpertise die Überwachung. Die Beauftragung ungeschulter Beamter mit der Regulierung von Technologien, die sie kaum verstehen, könnte mehr Probleme als Vorteile mit sich bringen.
Nehmen Sie als Beispiel die Anhörung des US-Senats 2018 zu den Datenschutzgesetzen von Facebook. In diesem Bericht von Die Washington PostSie werden feststellen, dass viele Gesetzgeber mit den Grundfunktionen von Facebook verwechselt werden. Wenn der US-Senat also keine einzige Abteilung für Technologiespezialisten einrichtet, sind diese wahrscheinlich nicht qualifiziert, ein so fortschrittliches, sich ständig veränderndes System wie die KI zu regulieren.
Das Hauptproblem bei der Selbstregulierung von Technologieunternehmen besteht jedoch darin, dass zwielichtige Konzerne ihre Macht missbrauchen könnten. Da kein Dritter eingreift, können sie grundsätzlich tun und lassen, was sie wollen.
Endnutzer
Einige befürchten, dass staatliche und private Einrichtungen KI-Systeme missbrauchen. Sie sind sich nicht sicher, ob sie einer Handvoll Leitungsgremien die vollständige Kontrolle über solch leistungsstarke Technologien gewähren sollen, insbesondere da sich die KI noch in der Entwicklung befindet. Möglicherweise streiten sie sich irgendwann um die Autorität, anstatt auf eine effiziente Regulierung hinzuarbeiten.
Um diese Risiken zu mindern, glauben Skeptiker, dass Endbenutzer freie Hand bei der Verwendung von KI-Modellen haben sollten, wie sie es möchten. Sie sagen, dass staatliche Stellen nur dann eingreifen sollten, wenn KI-Benutzer gegen das Gesetz verstoßen. Es ist ein ehrgeiziges Ziel, aber es könnte technisch erreicht werden, wenn Open-Source-KI-Entwickler Marktanteile dominieren würden.
Allerdings benachteiligt diese Situation technisch nicht versierte Personen. Die Benutzer sind dafür verantwortlich, die Einschränkungen in ihren Systemen festzulegen – leider verfügt nicht jeder über die Ressourcen dazu.
Es ist auch kurzsichtig, proprietäre Modelle vom Markt zu nehmen. Die Verbreitung von Open-Source-KI-Modelle haben mehrere positive und negative Auswirkungen; Für einige überwiegen die Nachteile die Vorteile.
Andere Einheiten, die bei der Regulierung der KI eine Rolle spielen
Obwohl große Unternehmen bei der Regulierung von KI eine Vorreiterrolle übernehmen werden, gibt es Institutionen, die eine wichtige Rolle spielen:
Medien spielen eine entscheidende Rolle bei der Gestaltung der öffentlichen Wahrnehmung von KI. Sie berichten über Branchenentwicklungen, stellen neue Tools vor, machen auf die schädliche Nutzung von KI aufmerksam und befragen Experten zu relevanten Bedenken.
Die meisten Fakten, die Endnutzer über KI wissen, stammen im Wesentlichen aus den Medien. Die Veröffentlichung falscher Daten, ob absichtlich oder unabsichtlich, wird irreversiblen Schaden anrichten – man darf nicht unterschätzen, wie schnell sich Fehlinformationen verbreiten.
2. Nichtregierungsorganisationen
Mehrere gemeinnützige Organisationen konzentrieren sich auf den Schutz der Privatsphäre und der bürgerlichen Freiheiten von KI-Nutzern. Sie informieren die Öffentlichkeit durch kostenlose Ressourcen, setzen sich für neue Richtlinien ein, kooperieren mit Regierungsbeamten und äußern übersehene Bedenken.
Das einzige Problem bei NPOs ist, dass ihnen in der Regel die Ressourcen fehlen. Da sie nicht mit der Regierung verbunden sind, sind sie im täglichen Betrieb auf private Anfragen und Spenden angewiesen. Leider erhalten nur wenige Organisationen ausreichende Mittel.
3. Verbände der Tech-Industrie
KI-fokussierte Verbände der Technologiebranche können die Rechte und Interessen der Öffentlichkeit vertreten. Wie NPOs arbeiten sie mit Gesetzgebern zusammen, vertreten betroffene Einzelpersonen, setzen sich für faire Richtlinien ein und sensibilisieren für bestimmte Themen.
Der Unterschied besteht jedoch darin, dass sie häufig Verbindungen zu privaten Unternehmen haben. Ihre Mitglieder machen immer noch Werbung, aber sie erhalten in der Regel ausreichend Geld von ihren Mutterorganisationen, solange sie Ergebnisse liefern.
4. Akademische Institutionen
Obwohl KI mehrere Risiken birgt, ist sie von Natur aus neutral. Alle Vorurteile, Datenschutzprobleme, Sicherheitsfehler und potenziellen Cyberkriminalitätsaktivitäten gehen auf Menschen zurück, sodass KI an sich kein Grund zur Angst ist.
Doch die wenigsten verstehen bereits, wie moderne KI-Modelle funktionieren. Missverständnisse verzerren die Wahrnehmung von KI durch die Menschen und schüren unbegründete Ängste wie die Übernahme der Menschheit durch KI oder den Diebstahl von Arbeitsplätzen.
Akademische Einrichtungen könnten diese Bildungslücken durch zugängliche Ressourcen schließen. Es gibt noch nicht allzu viele wissenschaftliche Arbeiten zu modernen LLMs und NLP-Systemen. Die Öffentlichkeit kann KI verantwortungsvoller nutzen und Cyberkriminalität bekämpfen, wenn sie vollständig versteht, wie sie funktioniert.
5. Strafverfolgungsbehörden
Die Strafverfolgungsbehörden müssen damit rechnen, dass es noch mehr Fälle geben wird KI-gestützte Cyberangriffe. Mit der Verbreitung generativer Modelle können Kriminelle schnell Stimmen synthetisieren, Deepfake-Bilder erzeugen und kratzen persönlich identifizierbare Informationen (PII) und sogar völlig neue Personas erstellen.
Die meisten Behörden sind für den Umgang mit diesen Verbrechen nicht ausgerüstet. Sie sollten in neue Systeme investieren und ihre Beamten in modernen Cyberkriminalität schulen; andernfalls werden sie Schwierigkeiten haben, diese Gauner zu fangen.
Die Zukunft der KI-Regulierung
Angesichts der Schnelllebigkeit von KI ist es unwahrscheinlich, dass ein einzelnes Leitungsgremium sie kontrollieren kann. Ja, Technologieführer werden mehr Macht haben als Verbraucher, aber verschiedene Unternehmen müssen zusammenarbeiten, um KI-Risiken zu bewältigen, ohne den Fortschritt zu behindern. Es ist am besten, jetzt Kontrollmaßnahmen festzulegen, da künstliche allgemeine Intelligenz (AGI) noch in weiter Ferne liegt.
Allerdings ist die KI-Regulierung genauso weit entfernt wie die AGI. In der Zwischenzeit müssen Benutzer Sicherheitspraktiken beachten, um KI-gesteuerte Bedrohungen zu bekämpfen. Gute Gewohnheiten wie die Begrenzung der Anzahl der Personen, mit denen Sie online in Kontakt treten, und die Sicherung Ihrer digitalen personenbezogenen Daten tragen bereits wesentlich dazu bei.