Russland versucht offenbar erneut via Facebook die US-Wahlen zu manipulieren. Das Unternehmen hat jetzt verdächtige Profile gelöscht.

Mehr aktuelle News gibt es hier

Im Kampf gegen Fehlinformationen hat Facebook nach eigenen Angaben eine Reihe von Seiten gelöscht, bei denen es sich offenbar um gefälschte Accounts handelte. Wie das Unternehmen am Dienstag mitteilte, entfernte es 32 Seiten auf Facebook und Instagram. Sie sollen verdächtige Aktivitäten an den Tag gelegt haben.

Eine koordinierte Aktion

"Diese Art von Verhalten ist bei Facebook nicht erlaubt, denn wir wollen weder, dass Menschen noch Organisationen Netzwerke von Nutzerkonten erstellen, um andere darüber zu täuschen, wer sie sind und was sie tun", hiess es in der Mitteilung. Nach Darstellung des Unternehmens handelte es sich um eine koordinierte Aktion.

Facebook unterstrich, dass man noch in einem sehr frühen Stadium der Ermittlungen sei und noch nicht alle Fakten kenne. Dazu gehöre auch, wer hinter den Seiten stecke. Das Unternehmen verglich die verdächtigen Aktivitäten aber mit der mutmasslich russischen Propaganda zur Beeinflussung der US-Präsidentschaftswahl 2016. Allerdings sei das Vorgehen diesmal wesentlich ausgeklügelter gewesen, hiess es in der Mitteilung.

Dubiose Verbindungen nach Russland

Man habe Hinweise, dass die gefundenen Seiten einige Verbindungen zu Konten der in Russland ansässigen Internet Research Agency gehabt hätten. Diese gilt seit Jahren als Basis für russische Kampagnen in sozialen Medien. Die Gruppe wird beschuldigt, während des Präsidentschaftswahlkampfes 2016 in grossem Stil versucht zu haben, über gefälschte Facebook-Profile soziale Spannungen in den USA zu verschärfen und Stimmung für den schliesslich siegreichen Kandidaten Donald Trump zu machen. (mss/dpa)

JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.