Neues Tool ordnet Feed-Inhalte um, um Feindseligkeit zu mindern. Nutzer könnten in Zukunft Kontrolle über Algorithmen erhalten.
Stanford-Forscher entwickeln Tool zur Verringerung parteipolitischer Feindseligkeit

Forscher der Stanford University haben ein Instrument entwickelt, um die parteipolitische Feindseligkeit in einem Feed der Online-Plattform X spürbar zu verringern. Dabei werden keine Inhalte geblockt, sondern nur neu angeordnet, berichten die Wissenschaftler der US-Elite-Universität in der Fachzeitschrift «Science». Die Studie deutet auch darauf hin, dass es eines Tages möglich sein könnte, den Nutzern die Kontrolle über ihre eigenen Social-Media-Algorithmen zu überlassen – nicht nur bei X (ehemals Twitter), sondern auch auf anderen Plattformen.
Nachdem Twitter im Jahr 2022 von dem Tech-Milliardär Elon Musk übernommen wurde, wurden viele Beschränkungen aufgehoben, die dazu gedacht waren, Nutzer vor Hassrede und Falschinformationen zu schützen. Personen, die Musks konservative politische Ansichten unterstützen, erhielten dadurch mehr Einfluss auf der Plattform.
Feed mit KI in Echtzeit neu sortiert
Das Team von Stanford hat nun eine Browser-Erweiterung entwickelt, die die X-Feeds der Studienteilnehmer neu sortiert hat, ohne mit X zusammenzuarbeiten. Beiträge, die antidemokratische Einstellungen und parteipolitische Feindseligkeit zeigten, wurden im Feed eines Nutzers nach unten verschoben. Dies betraf Inhalte, die Gewalt befürworteten oder die Inhaftierung von Anhängern und der gegnerischen Partei forderten. Ein KI-Sprachmodell analysierte dabei den X-Feed in Echtzeit. Im Gegensatz zu einem Werbeblocker, der Werbeinhalte ausblendet, wurden bei dem Experiment der Stanford-Wissenschaftler keine Inhalte gelöscht oder blockiert.
Der Feldversuch wurde vor den Präsidentschaftswahlen 2024 mit 1.256 Teilnehmerinnen und Teilnehmern auf X durchgeführt. Die Probanden wurden zufällig zwei parallelen Experimenten zugeteilt, in denen ihre Feeds eine Woche lang dynamisch neu sortiert wurden. Die erste Gruppe sah polarisierende Posts weiter vorne im Feed, die zweite weiter hinten. Bei denen, deren antidemokratische Inhalte herabgestuft wurden, zeigte sich eine positivere Einstellung gegenüber der gegnerischen Partei. Der Effekt war parteiübergreifend und galt sowohl für Personen, die sich als liberal als auch solche, die sich als konservativ einstuften.
Nutzer können Feeds selbst gestalten
«Social-Media-Algorithmen haben einen direkten Einfluss auf unser Leben, aber bisher hatten nur die Plattformen die Möglichkeit, sie zu verstehen und zu gestalten», sagte Michael Bernstein, Professor für Informatik an der Stanford School of Engineering und leitender Autor der Studie. «Wir haben einen Ansatz vorgestellt, der Forschern und Endnutzern diese Möglichkeit bietet.»
Bernstein sagte, dass das Tool auch Möglichkeiten bieten könnte, Maßnahmen zu entwickeln, die nicht nur die parteipolitische Feindseligkeit mindern, sondern auch ein größeres soziales Vertrauen und einen gesünderen demokratischen Diskurs über Parteigrenzen hinweg fördern.
Kleine Änderungen im Algorithmus mit großen Wirkungen
Josephine Schmitt, Wissenschaftliche Koordinatorin am Center for Advanced Internet Studies (CAIS) in Bochum, sagte, die Studie zeige robuste, teils recht starke Effekte auf die emotionalen Spannungen zwischen unterschiedlichen politischen Lagern. «Die Studie macht damit deutlich, dass schon kleine algorithmische Eingriffe messbar die Gefühle gegenüber der politischen Gegenseite verschieben. Das stützt die grundsätzliche Aussage: Feed-Sortierung ist nicht neutral, sie wirkt auf Emotionen und damit auf affektive Polarisierung.»
Ähnlich wie auch Schmitt wies Philipp Lorenz-Spreen vom Max-Planck-Institut für Bildungsforschung in Berlin darauf hin, dass das Experiment und die Ergebnisse nur bedingt auf die Verhältnisse in Deutschland zu übertragen seien. «Allein schon, weil wir kein Zweiparteiensystem haben und die Fremdgruppe und die affektive Polarisierung für so ein Experiment nicht so einfach zu definieren wäre.» Am besten wäre, so ein Experiment in anderen Ländern zu wiederholen, sagte Lorenz-Spreen.
Die Bochumer Forscherin Schmitt wies auch darauf hin, dass X im deutschen Medienalltag eine viel geringere Bedeutung hat als in den USA. Weder Schmitt noch Lorenz-Spreen waren an der Studie beteiligt.








