In der KI werden Fortschritte in beispiellosem Ausmaß erzielt, wobei fast wöchentlich neue Entwicklungen erfolgen. Generative KI-Tools wie ChatGPT sind mittlerweile so beliebt, dass sie überall integriert werden.

Aber sollten wir? Der Einsatz von KI-Technologie für Produktivität, Bildung und Unterhaltung ist sinnvoll. Allerdings denken Unternehmen jetzt darüber nach, es direkt in unsere Messaging-Apps zu integrieren, und das kann sich als destruktiv erweisen. Hier sind sieben Gründe dafür.

1. KI-Chatbots neigen zu Halluzinationen

Wenn Sie verwendet haben ChatGPT, Bing oder Bard, Sie wissen, dass generative KI-Chatbots dazu neigen, zu „halluzinieren“. Von einer KI-Halluzination spricht man, wenn diese Chatbots etwas erfinden, weil es an geeigneten Trainingsdaten für die vom Benutzer angeforderte Anfrage mangelt.

Mit anderen Worten: Sie liefern Fehlinformationen, klingen dabei aber zuversichtlich, als ob es sich um eine Tatsache handelte. Dies ist ein großes Problem, da viele Menschen bei der Verwendung eines Chatbots keine Faktenprüfung durchführen und davon ausgehen, dass dieser standardmäßig korrekt ist. Es ist eines der größten

instagram viewer
Fehler, die es beim Einsatz von KI-Tools zu vermeiden gilt.

Wenn es in Messaging-Apps eingebaut wird, ist der Schaden, den es anrichten kann, sogar noch größer, da Menschen es (absichtlich oder absichtlich) nutzen könnten unbeabsichtigt) Fehlinformationen unter ihren Kontakten und in den sozialen Medien verbreiten, Propaganda verbreiten und Echo fördern Kammern.

2. Menschen reden nicht gern mit Bots

Bildquelle: Graphicsstudio/Vecteezy

Denken Sie daran, wie nervig es ist, wenn Sie versuchen, den Kundendienst eines Unternehmens zu kontaktieren, und Sie dazu gezwungen werden, mit einem zu sprechen Chatbot anstelle einer echten menschlichen Führungskraft, die tatsächlich die Nuancen Ihres Problems verstehen und ein angemessenes Angebot machen kann Orientierungshilfe.

Gleiches gilt für persönliche Gespräche. Stellen Sie sich vor, Sie sprechen mit Ihrem Freund und auf halbem Weg stellen Sie fest, dass er KI verwendet hat Reagieren Sie die ganze Zeit auf Ihre Nachrichten, anstatt dies allein aufgrund ihrer Gedanken und Gedanken zu tun Meinungen.

Wenn Sie wie die meisten Menschen sind, würden Sie sich sofort beleidigt fühlen und den Einsatz von KI in einem privaten Gespräch als solche empfinden unsensibel, unheimlich und sogar passiv-aggressiv, als ob die andere Person Sie ihrer Zeit, Aufmerksamkeit usw. nicht für wert hält Empathie.

Der Einsatz von KI zum Beispiel beim Schreiben von E-Mails ist verständlich, da es sich um eine professionelle Interaktion handelt, aber der Einsatz von KI in persönlichen Gesprächen wird niemand fördern wollen. Sobald die Neuheit der Technologie verblasst, wird es unhöflich, sie in diesem Zusammenhang zu verwenden.

3. KI kann Ihre einzigartige Tonalität nicht kopieren

Generative KI-Tools ermöglichen es Ihnen bereits heute, die Tonalität Ihrer Nachricht zu ändern, z. B. formell, fröhlich oder neutral, je nachdem, an wen Sie schreiben und wie Sie rüberkommen möchten. Magic Compose in Google MessagesMit beispielsweise können Sie dasselbe tun.

Das ist zwar gut, aber beachten Sie, dass diese Tonalitäten auf der Grundlage festgelegter Trainingsdaten und nicht Ihres persönlichen Chat-Verlaufs trainiert werden, sodass Ihre einzigartige Tonalität oder die Emojis, die Sie normalerweise verwenden, nicht reproduziert werden können.

Das interessiert Sie möglicherweise nicht so sehr, insbesondere wenn Sie KI verwenden, um einfache geschäftliche E-Mails zu schreiben, für die alle mehr oder weniger die gleiche formale Tonalität verwenden. Aber es ist weitaus wichtiger, als Sie vielleicht denken, wenn Sie es verwenden, um mit Ihren Freunden und Ihrer Familie über eine Messaging-App zu sprechen.

Solange KI-Tools Ihnen nicht die Möglichkeit geben, ihr Sprachmodell basierend auf Ihrem Chat-Verlauf zu trainieren, werden sie nicht in der Lage sein, Ihren einzigartigen Dialekt und Ihre Exzentrizitäten zu reproduzieren. Allerdings ist diese Herausforderung nicht so schwer zu lösen, sodass wir sie möglicherweise bald in die Tat umsetzen können.

4. Gute Aufforderungen zu schreiben braucht Zeit

Das Erreichen der gewünschten Ergebnisse mit einem KI-Chatbot hängt stark von der Qualität Ihrer Eingabeaufforderung ab. Wenn Sie eine schlechte Eingabeaufforderung schreiben, erhalten Sie eine schlechte Antwort und müssen die Eingabeaufforderung verfeinern, bis Sie ein zufriedenstellendes Ergebnis erhalten.

Dieser Vorgang ist sinnvoll, wenn Sie lange Inhalte verfassen möchten, ist jedoch äußerst ineffizient, wenn Sie in einem informellen Gespräch mehrere kurze Antworten verfassen.

In den meisten Fällen dauert es möglicherweise länger, Ihre Eingabeaufforderungen zu verfeinern und brauchbare Antworten zu erhalten, als wenn Sie die Nachrichten einfach selbst geschrieben hätten.

5. KI kann anstößige Ergebnisse liefern

Neben der Genauigkeit gehört auch die Voreingenommenheit dazu größte Probleme mit generativer KI. Manche Menschen empfinden KI als unvoreingenommen, da sie keine eigenen Motive hat. Allerdings sind die Menschen hinter diesen KI-Tools letztendlich Menschen mit ihren eigenen Vorurteilen.

Mit anderen Worten: Voreingenommenheit ist in das System eingebrannt. KI versteht von Natur aus nicht, was als anstößig gilt und was nicht, daher könnte sie beispielsweise trainiert werden gegenüber bestimmten Personengruppen oder bestimmten Kulturen voreingenommen sein – und dabei beleidigende Ergebnisse hervorbringen.

6. KI versteht Sarkasmus oder Humor möglicherweise nicht

Das Verständnis der KI für Redewendungen wie Ironie und Metaphern verbessert sich im Laufe der Zeit, ist aber noch lange nicht so weit, dass sie in einem Gespräch zur Erkennung von Humor eingesetzt werden kann. Als man beispielsweise Googles Bard aufforderte, sarkastisch zu sein, war das Ergebnis ein Zufall.

In einigen Fällen war es wirklich lustig und passte zu meinem Sarkasmus. Aber in anderen Fällen kam es entweder zu einer unlustigen Standardantwort oder sie weigerte sich einfach Beteiligen Sie sich insgesamt an dem Gespräch und sagen Sie, dass es mir bei meinem Problem nicht helfen kann, da es nur ein LLM ist Anfrage.

7. Die Abhängigkeit von KI kann zu schlechter Kommunikation führen

Ein weiteres subtiles, aber erhebliches Problem bei der Integration generativer KI in Messaging-Apps besteht darin, wie sie unsere Kommunikationsfähigkeit beeinflussen kann. Wenn wir uns zunehmend auf KI verlassen, um miteinander zu kommunizieren, kann dies unsere Fähigkeit zur Kommunikation beeinträchtigen Trainieren Sie unsere emotionale Intelligenz und soziale Fähigkeiten.

Der Punkt hier ist, dass wir umso schlechter darin werden, Ideen auf organischem Wege zu kommunizieren, je mehr wir unsere sozialen Bedürfnisse an die KI auslagern. Mit anderen Worten: Je mehr Sie KI verwenden, um mit Ihren Kontakten zu kommunizieren, desto wahrscheinlicher ist es, dass sich die Qualität Ihrer Beziehungen verschlechtert.

Nicht alles muss KI haben

Mit dem Aufkommen neuer Technologien sind wir oft so sehr damit beschäftigt, herauszufinden, wie wir sie nutzen können, dass wir nicht darüber nachdenken, ob wir sie überhaupt nutzen sollten.

Während es absolut sinnvoll ist, generative KI zum Schreiben von E-Mails, zum Brainstorming von Ideen oder zum Erstellen von Bildern für Präsentationen zu verwenden, stößt ihre Integration in Messaging-Apps auf viel Kritik.