Social Bots entlarven

Quelle: Gerd Altmann, pixabay

In der US-Präsidentschaftswahl 2016 sollen Social Bots die öffentliche beeinflusst haben. Und vor der Wahl zum Europäischen Parlament warnte eine -Kommissarin vor Desinformationskampagnen mit Social Bots: spezialisierte Computerprogramme, die dafür gemacht sind, in sozialen Medien zu kommunizieren. Welche Effekte haben Social Bots auf gesellschaftliche Debatten? Wie können technische gegen solche Bots eingesetzt werden? Das sind zwei der Fragen, mit denen sich Forschende der Universität Bielefeld, der Fachhochschule Bielefeld und der Australian National University beschäftigen. Das Forschungsprojekt wird von der Volkswagen Stiftung gefördert.

„Die öffentliche Meinungsbildung läuft heute zunehmend über das Internet. Damit wächst die Bedeutung von Twitter, Facebook und Co. als Medien der politischen Kommunikation“, sagt Professor Dr. Philipp Cimiano vom Exzellenzcluster Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld. Der Informatiker leitet das Projekt „Unbiased Bots That Build Bridges“ (U3B, deutsch: Unparteiische Roboter als Brückenbauer) gemeinsam mit Dr. Ole Pütz und Privatdozent Dr. Florian Muhle. Sie untersuchen in dem Projekt, wie automatisierte und Social Bots die Meinungsbildung im Internet beeinflussen. Dafür die Forschenden unter anderem an maschinellen Lernverfahren, um virtuelle Roboter zu erkennen, die sich in sozialen Medien als Menschen ausgeben. „Wir gehen davon aus, dass es eine Dunkelziffer von Profilen gibt, die bislang nicht als Bots erkannt werden. Zudem weisen aktuelle zur Boterkennung noch recht hohe Fehlerraten auf“, sagt Cimiano. 

„Soziale Medien können zwar den politischen Dialog zwischen Bürgerinnen und Bürgern unterstützen“, sagt Florian Muhle von der Fakultät für Soziologie. „Aber es besteht auch die Gefahr, dass sich Menschen in sozialen Medien vor allem mit Gleichgesinnten austauschen und sich so vorgefertigte Meinungen verfestigen. Automatisierte in den sozialen Medien können die Bildung solcher ,Echokammern‘ bestärken und Nutzerinnen und Nutzern Impulse geben, die ihre Weltsicht bestätigen.“

„Die Herausforderung ist, Social Bots von anderen Accounts zu unterscheiden. Um dies in verlässlicher Weise leisten zu können, wir in einem interdisziplinären Team aus Sozial- und Technikwissenschaften“, sagt Dr. Ole Pütz. Der Soziologe arbeitet in der Forschungsgruppe von Philipp Cimiano und ist Koordinator des Projekts U3B. „So kombinieren wir qualitative Methoden der Sozialwissenschaft mit technikwissenschaftlichen Ansätzen des maschinellen Lernens. Zudem setzen wir psychologische Experimente ein, um die Wirkung von Social Bots zu untersuchen“, so Pütz. Versuchspersonen sehen dann beispielsweise Beiträge, wie sie bei Twitter veröffentlicht wurden und sollen unterscheiden, ob diese von Menschen oder Bots kommen. Auch sollen sie beurteilen, wie überzeugend oder auch emotional sie einzelne Beiträge finden.

„Menschen reagieren unterschiedlich auf Social Bots, manche nehmen sie ernst, andere durchschauen sie direkt. Die Tests sollen uns helfen, Typen von Nutzerinnen und Nutzern zu unterscheiden“, erklärt Dr. Florian Muhle. „Dies kann dazu beitragen, Informationen und Hilfestellungen zum Umgang mit Social Bots an die Bedarfe der unterschiedlichen Typen von Nutzerinnen und Nutzern anzupassen“. 

Insgesamt geht es dem Team darum, auf Basis eines besseren Verständnisses von Social Bots und ihrer Wirkungsweisen technische zu entwickeln, die die Aktivitäten von Social Bots aufdecken und Brücken zwischen fragmentierten Öffentlichkeiten im Internet bilden. Solche Systeme könnten zum Beispiel in Wahlkampfzeiten Nutzerinnen und Nutzer warnen, bevor sie Nachrichten von Bots weiterverbreiten. 

Das Projekt heißt mit vollem Namen „Unbiased Bots That Build Bridges (U3B): Technical Systems That Support Deliberation and Diversity as a Chance for Political Discourse” (Unparteiische Roboter als Brückenbauer: Technische zur Unterstützung von Deliberation und Vielfalt als Chance für den politischen Diskurs). Die Volkswagen Stiftung fördert es innerhalb ihrer Initiative „Künstliche Intelligenz – Ihre Auswirkungen auf die von morgen“. Die Förderung läuft bis März 2020.

Quelle: Jörg Heeren,Universität Bielefeld: Social Bots entlarven

Verwandte Artikel

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


Ich bestätige, dass die hier von mir eingegebenen persönlichen Daten in der von mobile zeitgeist genutzten Datenbank bis auf Widerruf gespeichert werden dürfen.