Eine bedeutende neue Studie pEine in der Fachzeitschrift ’Science“ veröffentlichte Studie zeigt, dass KI-Chatbots die politischen Überzeugungen von Nutzern bereits nach kurzen Gesprächen maßgeblich beeinflussen können. Dies wirft neue Fragen hinsichtlich der Überzeugungskraft großer Sprachmodelle (LLMs) und der Risiken ihres Missbrauchs auf. Die Studie, an der fast 77.000 Erwachsene in Großbritannien und 19 verschiedene Chatbots, darunter GPT-40, Llama, Qwen und Grok, teilnahmen, untersuchte die Gründe für die Wirksamkeit von dialogbasierter KI bei der Beeinflussung menschlicher Meinungen.
Die Teilnehmer führten kurze politische Gespräche mit Chatbots (zwei bis zehn Gesprächsrunden). Diejenigen, die mit Modellen interagierten, die explizit angewiesen waren, sie zu überzeugen, zeigten im Vergleich zu einer Kontrollgruppe messbare Veränderungen ihrer Überzeugungen. Überraschenderweise war die Überzeugungskraft der Chatbots nicht primär mit der Modellgröße oder dem Grad der Personalisierung verbunden, sondern vielmehr mit zwei Designfaktoren:
- Methoden nach dem Training: Modelle, die mithilfe von auf Überzeugung ausgerichteten Belohnungsmechanismen (PPT) feinabgestimmt wurden, zeigten einen stärkeren Einfluss auf die Nutzer.
- Informationsdichte: Chatbots, die angewiesen wurden, dichte, detaillierte Informationen bereitzustellen, waren am überzeugendsten, sogar noch überzeugender als solche, die klassische psychologische Überzeugungstechniken anwendeten.
Die Studie deckte jedoch einen entscheidenden Zielkonflikt auf: Je überzeugender das Modell dargestellt wurde, desto wahrscheinlicher war es, dass es Halluzinationen auslöste. Der zunehmende Druck, überzeugend zu sein, steigerte die Produktion ungenauer oder erfundener Fakten und erhöhte somit das Risiko, dass sich Fehlinformationen unter dem Deckmantel autoritativer Argumentation verbreiten könnten.
Forscher stellten fest, dass der menschenähnliche Gesprächsstil von LLMs ’Überzeugung in einem beispiellosen Ausmaß“ ermöglicht und sie somit zu potenziell mächtigen Werkzeugen für politischen Einfluss, soziale Manipulation oder gezielte Desinformationskampagnen macht. Frühere Studien haben ähnliche Risiken aufgezeigt, darunter die Fähigkeit von KI, falsche Erinnerungen einzupflanzen oder das Nutzerverhalten zu manipulieren. Wahrnehmungen unbewusst.
Da LLMs immer häufiger vorkommen, argumentieren die Autoren, dass sich politische Entscheidungsträger, KI-Entwickler und die Gesellschaft dringend mit den ethischen Implikationen auseinandersetzen müssen: Systeme, die in der Lage sind, menschliche Überzeugungen umzugestalten, müssen mit weit größerer Verantwortung konzipiert und gesteuert werden.
Quelle:

