Nature-Tochterzeitschrift: Menschen haben wieder gegen KI verloren, besonders wenn sie weiß, wer Sie sind

Bild

Stellen Sie sich vor, Sie befinden sich in einem hitzigen Streit mit einem Nutzer im Kommentarbereich sozialer Medien. Die Wortwahl Ihres Gegenübers ist präzise, seine Logik ist schlüssig, und seine Argumente treffen den Nerv, sodass Sie sogar anfangen, Ihre eigene Position zu hinterfragen. Würden Sie sich fragen: Könnte diese Person in Wirklichkeit ein Algorithmus für künstliche Intelligenz (KI) sein?

Mehr noch, wenn die KI Sie sehr gut kennt, Ihr Geschlecht, Alter, Ausbildung, Arbeit, Hobbys usw., wird diese Überzeugungskraft noch stärker.

Diese Schlussfolgerung stammt von einem Forschungsteam der Eidgenössischen Technischen Hochschule Lausanne (EPFL) und ihren Mitarbeitern. Sie fanden heraus, dass GPT-4 in simulierten Online-Debatten zu 64 % der Zeit als überzeugender als Menschen eingestuft wurde, wenn es seine Argumente auf der Grundlage personalisierter Informationen der Gegner anpasste.

Die entsprechende Forschungsarbeit mit dem Titel On the conversational persuasiveness of GPT-4 wurde in der Nature-Unterzeitschrift Nature Human Behaviour veröffentlicht.

Bild

Link zur Arbeit: https://www.nature.com/articles/s41562-025-02194-6

Da sich die Menschen heute zunehmend auf große Sprachmodelle (LLMs) verlassen, um Aufgaben, Hausaufgaben, Dokumente und sogar Therapien zu erledigen, ist es für menschliche Nutzer von entscheidender Bedeutung, bei den erhaltenen Informationen vorsichtig zu bleiben.

Das Forschungsteam erklärt:

Hauptkategorie:Künstliche Intelligenz

Unterkategorien:ÜberzeugungskraftMicrotargetingOnline-DebatteGroße Sprachmodelle


Vorheriger:GitHub startet neuen Coding Agent

Nächster:Interview mit Duan Nan von Step Ahead: "Wir könnten die Obergrenze der Diffusion-Fähigkeit erreichen"

Kurz-URL teilen