Künstliche Intelligenz (KI) ist ebenso umstritten wie beeindruckend. Sie kann viele Bereiche der Arbeit und des Alltags erleichtern, wirft aber auch einige ethische Fragen auf. Vor allem der Einsatz von KI durch die US-Regierung löst bei manchen Menschen Unbehagen aus.

Heutzutage sind viele staatliche KI-Projekte im Einsatz oder in der Entwicklung, und einige haben viel Gutes bewirkt. Gleichzeitig werfen sie viele Bedenken hinsichtlich des Datenschutzes bei künstlicher Intelligenz auf. Hier ist ein genauerer Blick auf diese Projekte und was sie für die öffentliche Privatsphäre bedeuten.

Beispiele für staatliche KI- und Automatisierungsprojekte

Die grundlegendsten Beispiele für künstliche Intelligenz, die von der US-Regierung verwendet werden, betreffen die Automatisierung routinemäßiger Büroarbeiten. Im Jahr 2019 verwendet Seattle Robotische Prozessautomatisierung (RPA) sich um die Dateneingabe und Bearbeitung von Anträgen zu kümmern. Seitdem hat die Stadt mehr als 6.000 rückständige Anträge bearbeitet und Hunderte von Arbeitsstunden eingespart.

Andere staatliche KI-Projekte sind auffälliger. Die New Yorker Feuerwehr testet Roboterhunde aus Bostoner Dynamik um strukturelle Schäden und giftige Dämpfe zu messen, bevor Feuerwehrleute eintreten. Vor dem Feuerwehrroboterprojekt hatte die New Yorker Polizei geplant, dieselben Roboter einzusetzen.

Polizeidienststellen und andere Regierungsbehörden im ganzen Land erwägen den Einsatz ähnlicher Technologien. Mit dem Start dieser staatlichen KI-Projekte sind jedoch ihre potenziellen Datenschutzmängel deutlicher geworden.

Ist künstliche Intelligenz eine Bedrohung für Datenschutz und Sicherheit?

Ob Sie in Zukunft Polizeiroboter sehen werden, ist noch ungewiss, aber die Dinge scheinen in diese Richtung zu gehen. Diese Projekte haben viele Vorteile, aber Bedenken hinsichtlich des Datenschutzes bei künstlicher Intelligenz werden im Umgang mit der Regierung ernster. Hier sind einige der größten Probleme mit diesen Technologien.

Künstliche Intelligenz ist auf das Sammeln und Analysieren von Daten angewiesen. Infolgedessen bedeuten mehr staatliche KI-Projekte, dass diese Behörden zusätzliche Informationen über ihre Bürger sammeln und speichern. Manche Leute haben Lust, all diese Informationen zu sammeln verletzt ihre Privatsphäre und ihre Rechte verletzt.

Technologien wie das Feuerwehrhundeprojekt sind besonders besorgniserregend, da sie die staatliche Überwachung irreführend machen können. Behörden sagen, dass der Roboter da ist, um Sicherheitsbedenken zu überprüfen, aber es gibt keine Möglichkeit für die Leute zu sagen, welche Daten er sammelt. Es könnte Kameras und Sensoren haben, die ihre Gesichter scannen oder ihre Handys verfolgen, ohne dass sie es wissen.

Einige Leute befürchten, dass der „Cool-Faktor“ von Robotern ihr Überwachungspotenzial verschleiert. Polizeiroboter könnten in Zukunft Bürger ausspionieren, ohne viel Verdacht zu erregen, da die Menschen nur neue Technologien sehen, anstatt ihre Privatsphäre zu verletzen.

Unklare Verantwortlichkeiten

Diese KI- und Automatisierungsprojekte werfen auch die Frage nach der Verantwortlichkeit auf. Wenn ein Roboter einen Fehler macht, der zu Schäden führt, wer ist dafür verantwortlich? Wenn ein Regierungsangestellter seine Grenzen überschreitet und die Rechte von jemandem verletzt, können Gerichte ihn zur Rechenschaft ziehen, aber was ist mit einem Roboter?

Sie können dieses Problem bei selbstfahrenden Autos beobachten. In einigen Autopilot-Absturzfällen wurde der Hersteller im Rahmen eines Produkthaftungsanspruchs angeklagt, während andere den Fahrer beschuldigen. In einem Fall ist die Nationaler Verkehrssicherheitsausschuss Verantwortung sowohl dem Hersteller als auch dem Fahrer aufgebürdet wird, aber letztlich von Fall zu Fall entschieden werden muss. Polizeiroboter trüben das Wasser auf die gleiche Weise. Wenn sie Ihre Privatsphäre verletzen, ist unklar, ob Sie dem Hersteller, der Polizei oder den menschlichen Vorgesetzten die Schuld geben sollen.

Diese Verwirrung könnte Gerichtsverfahren verlangsamen und erschweren. Es kann eine Weile dauern, bis Opfer von Datenschutzverletzungen oder Verletzungen ihrer Rechte die Gerechtigkeit erhalten, die sie verdienen. Neue Gesetze und Präzedenzfälle könnten die Dinge klären und dieses Problem lösen, aber im Moment ist es ungewiss.

Risiken durch Datenschutzverletzungen

Künstliche Intelligenz, die von der US-Regierung verwendet wird, könnte auch die Bedenken hinsichtlich des Datenschutzes von KI erweitern, die Sie im privaten Sektor sehen. Das Sammeln einiger Daten mag vollkommen legal sein, aber je mehr Organisationen sammeln, desto mehr ist gefährdet. Das Unternehmen oder die Regierung dürfen die Informationen nicht für illegale Zwecke verwenden, aber sie können Menschen anfällig für Cyberkriminalität machen.

Dort gab es mehr als 28.000 Cyberangriffe allein im Jahr 2019 gegen die US-Regierung. Wenn Behörden mehr private Informationen von Bürgern besitzen, könnten diese Angriffe mehr als nur die Regierung betreffen. Eine erfolgreiche Datenschutzverletzung könnte viele Menschen gefährden, ohne dass sie es wissen. Verstöße bleiben oft unbemerkt, also müssen Sie das tun Überprüfen Sie, ob Ihre Daten nicht bereits zum Verkauf stehen.

Sucht beispielsweise ein Polizeiroboter künftig per Gesichtserkennung nach gesuchten Kriminellen, speichert er womöglich die biometrischen Daten vieler Bürger. Hacker, die in das System eindringen, könnten diese Informationen stehlen und damit in die Bankkonten von Personen eindringen. Staatliche KI-Projekte müssen über starke Cybersicherheitsmaßnahmen verfügen, wenn sie die Daten der Menschen nicht gefährden wollen.

Regierungs-KI hat Vorteile, gibt aber Anlass zur Sorge

Noch ist nicht klar, wie die amerikanische Regierung in Zukunft künstliche Intelligenz einsetzen wird. Neue Schutzmaßnahmen und Gesetze könnten diese Probleme lösen und alle Vorteile der KI ohne ihre Risiken bringen. Im Moment lösen diese Bedenken jedoch einige Alarme aus.

Datenschutzbedenken gibt es überall dort, wo KI funktioniert. Diese Fragen werden ernster, da es eine größere Rolle in der Regierung spielt. Staatliche KI-Projekte könnten viel Gutes bewirken, bergen aber auch erhebliches Schadenspotenzial.

Microsoft warnt davor, dass „1984“ in drei Jahren wahr werden könnte

Lesen Sie weiter

TeilenTwitternTeilenEmail

Verwandte Themen

  • Sicherheit
  • Künstliche Intelligenz
  • Online-Datenschutz

Über den Autor

Shannon Flynn (79 veröffentlichte Artikel)

Shannon ist ein Inhaltsersteller in Philly, PA. Sie schreibt seit etwa 5 Jahren im technischen Bereich, nachdem sie ihren Abschluss in IT gemacht hat. Shannon ist Managing Editor des ReHack Magazine und befasst sich mit Themen wie Cybersecurity, Gaming und Business Technology.

Mehr von Shannon Flynn

Abonnieren Sie unseren Newsletter

Abonnieren Sie unseren Newsletter für technische Tipps, Rezensionen, kostenlose E-Books und exklusive Angebote!

Klicken Sie hier, um sich anzumelden