Diskussionen über KI-Sensibilität sind nichts Neues, aber Neuigkeiten über Googles KI LaMDA haben die Flammen geschürt. Nachdem ein Ingenieur behauptete, der Bot sei bei Bewusstsein und habe sogar eine Seele, sind einige bekannte Fragen wieder aufgetaucht.

Kann KI wie LaMDA tatsächlich empfindungsfähig oder selbstbewusst sein, und wenn ja, wie können Sie das feststellen? Spielt es eine Rolle?

Was ist LaMDA?

LaMDA, kurz für Language Model for Dialogue Applications, erschien erstmals 2021 auf der Entwicklerkonferenz von Google. Das fortschrittliche KI-System soll helfen, andere, kleinere Chatbots zu bauen. Als Google es zum ersten Mal vorstellte, kündigte es Pläne an, es in alles zu integrieren und Diensten wie Google Assistant und Search zu helfen, sich menschlicher oder zumindest natürlicher zu fühlen.

Als Google-Ingenieur Blake Lemoine mit LaMDA sprach, um zu sehen, ob Hassreden verwendet wurden, hatte er einen anderen Eindruck. Lemoine behauptete, LaMDA sei empfindungsfähig, und wenn er nicht wüsste, dass es sich um einen Bot handelte, würde er denken, es sei ein achtjähriges Kind.

instagram viewer

Nach seinen Gesprächen mit LaMDA versuchte Lemoine zu beweisen, dass es bei Bewusstsein war, und zu verteidigen, was er für seine gesetzlichen Rechte hielt. Als Reaktion darauf stellte Google Lemoine wegen Verstoßes gegen Vertraulichkeitsvereinbarungen in bezahlten Verwaltungsurlaub.

Ist LaMDA tatsächlich empfindungsfähig?

Ist LaMDA also tatsächlich empfindungsfähig? Die meisten Experten, die sich mit dem Thema befasst haben, sind skeptisch. LaMDA ist eine hochentwickelte KI-Chat-Plattform, die Billionen von Wörtern aus dem Internet analysiert, sodass sie wie eine echte Person klingen kann.

Dies ist nicht das erste Mal, dass eine der KIs von Google Menschen vorgaukelt, sie sei menschlich. Im Jahr 2018 demonstrierte Google seine Duplex-KI, indem es ein Restaurant anrief, um einen Tisch zu reservieren. Zu keinem Zeitpunkt schien der Mitarbeiter am anderen Ende daran zu zweifeln, dass er mit einer Person sprach.

Empfindung ist schwierig zu definieren, obwohl die meisten Menschen bezweifle, dass die KI diesen Punkt erreicht hat noch. Die wichtige Frage ist jedoch möglicherweise nicht, ob LaMDA tatsächlich empfindungsfähig ist, sondern welchen Unterschied es macht, wenn es Menschen vorgaukeln kann, dass dies der Fall ist.

Mögliche rechtliche Auswirkungen von LaMDA

Die LaMDA-Situation wirft viele rechtliche und ethische Fragen auf. Erstens mögen einige Leute fragen, ob Google Recht hatte, Lemoine zu beurlauben, weil er sich darüber geäußert hat.

Gemäß Abschnitt 740 des New Yorker Arbeitsgesetzes schützen Whistleblower-Schutzmaßnahmen Mitarbeiter davor Konsequenzen, wenn sie glauben, dass die Praktiken ihres Arbeitgebers gegen das Gesetz verstoßen oder ein erhebliches Risiko für die Öffentlichkeit darstellen Sicherheit. Das angebliche Empfindungsvermögen von LaMDA erfüllt diese gesetzliche Anforderung nicht ganz, aber sollte es?

Die Vergabe von KI-Rechten ist ein heikles Thema. Während KI kann Dinge erschaffen und menschlich erscheinen, können Sie in einige komplizierte Situationen geraten, wenn diese Maschinen rechtlich geschützt sind. Gesetzliche Rechte betreffen Belohnungen und Bestrafungen, die die KI nicht betreffen, und erschweren die Justiz.

Wenn ein selbstfahrendes Auto einen Fußgänger anfährt, ist die KI schuldig, wenn das Gesetz sie wie einen Menschen behandelt? Und wenn ja, wird dem Opfer nicht unbedingt Gerechtigkeit widerfahren, da man KI technisch gesehen nicht so bestrafen kann, wie man es mit einem Menschen tun würde.

Eine weitere Frage, die sich bei LaMDA und ähnlichen KI-Chatbots stellt, ist ihre Sicherheit. Wenn diese Bots überzeugend real erscheinen, vertrauen die Leute ihnen möglicherweise mehr und sind bereit, ihnen etwas zu geben sensiblere Informationen. Das öffnet einer Reihe von Datenschutz- und Sicherheitsbedenken Tür und Tor, wenn diese Technologie in die falschen Hände gerät.

KI wirft komplizierte ethische Fragen auf

KIs wie LaMDA werden immer ausgefeilter und lebensechter. Da dieser Trend zunimmt, sollten Unternehmen und Gesetzgeber neu bewerten, wie sie mit KI umgehen und wie sich diese Entscheidungen auf Justiz und Sicherheit auswirken könnten.

So wie es aussieht, ist Googles LaMDA-KI vielleicht nicht empfindungsfähig, aber es ist gut genug, um die Leute dazu zu bringen, dies zu glauben, was einige Alarme auslösen sollte.