Pages: 1 2 [3]   Go Down

Author Topic: [Information und verdeckte Manipulation... ]  (Read 13150 times)

0 Members and 1 Guest are viewing this topic.

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #30 on: November 24, 2015, 09:40:07 AM »

Quote
[...] Aus den Vorwürfen der US-Behörden wird Gewissheit: Auch in größeren Dieselautos von VW und den Konzerntöchtern Audi und Porsche hat eine verbotene Software für niedrigere Abgaswerte gesorgt. Audi räumte am Montagabend die Installation eines Programms in V6 TDI 3,0-Liter-Motoren ein, das in den USA als illegale Software gilt. ...


Aus: "Abgas-Skandal bei VW: Audi gibt nun doch verbotene Software zu" (24.11.2015)
Quelle: http://www.heise.de/newsticker/meldung/Abgas-Skandal-bei-VW-Audi-gibt-nun-doch-verbotene-Software-zu-3015360.html
Logged

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #31 on: December 17, 2016, 05:33:31 PM »

Quote
[...] In geleakten E-Mails aus dem Postfach des türkischen Energieministers und Schwiegersohn des Staatspräsidenten Recep Tayyip Erdoğan, Berat Albayrak findet sich angeblich auch ein Beleg für die Gründung einer gemeinen Troll-Truppe, mit der Erdoğan soziale Medien unter seine Kontrolle bringen wollte. Das fünfzehnseitige Dokument stammt aus einer Wikileaks-Veröffentlichung von fast 60.000 E-Mails, schreibt Die Welt. Es bestätigt demnach ältere Berichte über eine 6000 Personen starke "Troll-Armee", die angeblich im Internet nach russischem Vorbild gegen Kritik an Erdoğan vorgeht. ... In dem nun von Wikileaks öffentlich gemachten Dokument wird laut der Welt behauptet, die staatlich kontrollierten Medien hätten "Desinformationen" und "Provokationen" der außerparlamentarischen Opposition zu wenig entgegenzusetzen. Eine "virtuelle Werkstatt" müsse deswegen die Dominanz des Gegners in den sozialen Medien brechen. Dazu seien Social-Media-Experten, Akademiker, Militärs mit dem Fachgebiet psychologische Kriegsführung sowie Techniker und Grafiker plus ein Budget von mehr als 200.000 US-Dollar nötig. Das sei auch umgesetzt und rasch deutlich aufgestockt worden, so dass wenige Monate später bereits von 6000 Trollen die Rede war, ohne dass die Regierungspartei AKP dem widersprochen habe.

Auch das hinderte die türkische Führung aber in der Folge nicht daran, immer wieder den Zugang zu sozialen Medien zu sperren, auch im Rahmen des massiven Vorgehens gegen die Opposition. Derzeit reißt Erdoğan immer mehr Macht an sich und geht massiv gegen Kritiker vor. Seit dem gescheiterten Putsch vom Juli hat sich das noch einmal beschleunigt und zuerst vor allem auch jene Teile der Presse und Medien getroffen, die noch nicht vom Staat kontrolliert wurden. Deshalb ist es inzwischen schwer, unabhängige Berichte aus dem Land zu bekommen, auch solche über die von Wikileaks öffentlich gemachten Dokumente. (mho)

Quote
     FrogmasterL, 13.12.2016 20:53

Wer glaubt eigentlich ernsthaft, dass es keine deutsche Troll-Armee gibt? Dass diverse Ministerien in der Vergangenheit Redaktionen mit vorfabrizierten Beiträgen "versorgt" haben, ist bekannt. Von dort ist es zum Verbreiten vorformulierter Kommentare nur ein kleiner Schritt.


...


Aus: "Wikileaks: Angeblich Beleg für Gründung von Erdoğans "Troll-Armee"" Martin Holland (heise online, 13.12.2016)
Quelle: https://www.heise.de/newsticker/meldung/Wikileaks-Angeblich-Beleg-fuer-Gruendung-von-Erdogans-Troll-Armee-3569464.html
Logged

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #32 on: April 27, 2017, 12:55:55 PM »

Quote
[...] Vor etwa drei Jahren begann der Rentner Benčík Screenshots von öffentlichen Facebook-Profilen und Websites extremistischer Personen und Vereinigungen anzufertigen. Neonazis, Rassisten, Scharlatane, Verschwörungstheoretiker. Das Material veröffentlichte er kommentiert in seinem Blog. Seine – ganz privaten- Aktivitäten fanden schon bald ein außerordentliches Echo. Aufmerksamkeit der Öffentlichkeit erregte er auch dadurch, dass sich jene laut zu Wort meldeten, deren Gedanken und Ansichten er sichtbar gemacht hatte. Die Ertappten sperrten oder löschten ihre Profile. Sie stritten ab, die Autoren zu sein, oder behaupteten, jemand habe ihre Konten gehackt.

... Benčík sagt: „Wir leben in der postfaktischen Epoche, wo Emotionen, und seien sie durch offensichtliche Lügen hervorgerufen, mehr Gewicht haben als wahrheitsgetreue Informationen. In einer Epoche, in der der Zugang zum Internet gleichzeitig Fluch und Segen ist. In der eine durch seriöse, langjährige Arbeit von Spitzenfachleuten verifizierte Theorie oder Information für viele weniger zählt als das Geschwafel eines geschickten Manipulators oder halbgebildeten Scharlatans. In einer Epoche der Oberflächlichkeit, wo es an Bereitschaft mangelt, seine Informationsquellen zu überprüfen und die Beweggründe derjenigen aufzudecken, die Falschmeldungen verbreiten. In einer Epoche von bezahlten Trollen und nützlichen Idioten.“


Aus: "Jeder kann etwas dagegen tun" Ein Kommentar von Michal Hvorecky (27.4.2017)
Quelle: https://www.taz.de/Debatte-Rechtspopulismus-in-Europa/!5401967/

Logged

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #33 on: April 28, 2017, 01:59:45 PM »

Quote
[...] Wer sich in diesen Monaten bei Facebook einloggt, betritt ein Schlachtfeld. Er kann Spielball werden in einem neuartigen Informationskrieg, in dem Geheimdienste und andere Gruppen Meinungen, Debatten, Wahlen beeinflussen - mit Mitteln, die immer schwerer zu durchschauen sind.

Zu diesem überraschend deutlich formulierten Befund kommt ein Bericht mit dem Titel "Informationsoperationen und Facebook", den das Netzwerk selbst veröffentlicht hat. Laut dem Sicherheitschef des Konzerns, Alex Stamos, manipulieren Geheimdienste und andere Interessengruppen per Facebook insbesondere Wahlkämpfe mit hohem Aufwand und detaillierter Vorbereitung - mittels Tarnprofilen, dem verschleierten Lancieren von Informationen und strategischem Gepöbel.

Bemerkenswert ist das 13-seitige Dokument ("Information Operations and Facebook" By Jen Weedon, William Nuland and Alex Stamos April 27, 2017  Version 1.0 https://fbnewsroomus.files.wordpress.com/2017/04/facebook-and-information-operations-v1.pdf), das Stamos mit zwei bekannten Sicherheitsexperten verfasst hat, in zweierlei Hinsicht: Zum einen zählt er die Komponenten und Verschleierungstaktiken neuartiger Desinformationskampagnen auf.

Zum anderen zeigt er ein ganz neues Problembewusstsein und -eingeständnis bei Facebook. Dessen Gründer Mark Zuckerberg tat vor einem halben Jahr noch so, als habe sein Portal keinerlei Einfluss auf den US-Wahlkampf gehabt. Nun macht Facebook deutlich, dass die eigene Plattform eine zentrale Rolle bei der Verbreitung von Desinformation spiele. ... Stamos ist als Sicherheitschef auch Facebooks Verbindungsmann zu Sicherheitsbehörden und Geheimdiensten. Er glaubt, Facebook müsse die eigene Abwehr umstellen. Habe man sich bislang auf traditionelle Angriffe wie das Hacken von Accounts, Spam und Abzocke konzentriert, muss Facebook jetzt mit "subtileren und heimtückischeren" Manipulationsversuchen fertigwerden.

Dabei spielt laut dem Report die Gründung von Seiten von Tarnorganisationen eine große Rolle. Effektiv sei etwa, Retortengruppen zu bestimmen Themen zu gründen - da diese sich später verselbständigen können, weil genügend wirkliche Nutzer mitmachen. Auch Tarnprofile seien ein beliebtes Mittel. Sie unterscheiden sich von Social Bots, also als Menschen getarnten Programmen, weil sie eben von Menschen betriebene Fake-Profile sind ...

Solche Profile und Seiten führen laut dem Bericht zu einer "false amplification" - wörtlich übersetzt einer unechten Vervielfältigung - bestimmter Meinungen. Die Ideologie, die sie transportieren, erscheint anderen Nutzern dank den koordinierten Aktionen verbreiteter und mehrheitsfähiger, als sie tatsächlich ist. So könne die öffentliche Meinung manipuliert, eine Diskussion gezielt verpestet werden.

Bestimmte Inhalte werden auf der Plattform so breit wie möglich gestreut, die Tarnprofile und -seiten erstellen außerdem aufwiegelnde und rassistische Meme, die sich viral verbreiten - weil andere Nutzer ihnen zustimmen oder vom Inhalt empört sind.

Ziel der Aktionen sei es nicht nur, eine bestimmte Sichtweise zu befördern. Es gehe längerfristig auch darum, in sozialen Netzwerken Misstrauen in politische Institutionen zu säen und Verwirrung durch widersprüchliche Informationen zu stiften.

Facebook habe mehrfach im Rahmen der US-Wahl solche Akteure entdeckt, deren Nachrichten das gesamte politische Spektrum ins Visier nahmen mit dem Ziel, Spannungen zwischen Gruppen zu verschärfen und deren Unterstützerbasis zu erschüttern.

Viele solcher Aktionen sind laut Facebook von Akteuren gesteuert worden, die die entsprechenden Sprachkenntnisse und grundlegende Kenntnisse über die politische Lage im Zielland hätten. Das setze viel Koordinierung und Planung voraus. Übersetzt: Ressourcen und Kenntnisse, über die in erster Linie Geheimdienste verfügten.

...

Quote
soron heute, 13:08 Uhr
2. 90% aller weltweit laufenden Militäreinsätze sind
Psychologische Kriegsführung wird wesentlich häufiger eingesetzt als jedes andere Mittel. Für jeden Militärschlag gegen einen syrischen Flugplatz sind 9 Desinformations- oder Beeinflussungskampagnen am laufen. Ich sage nicht, dass Russland hier zu Unrecht beschuldigt wird. Ganz sicher nicht. Aber ich lehne es ab, dass in diesem Zusammenhang hauptsächlich auf Russland eingeprügelt wird - andere Staaten, allen voraun die USA, sind hier mindestens ebenso aktiv. Hatte nicht sogar damals während des Irakkriegs die (auch finanzielle) Wahlkampfunterstützung der USA für die oppositionelle CDU und gegen Gerhard Schröder's Regierung für ernsthafte Verstimmung gesorgt ? Von daher: Alles beim alten, nur die Mittel haben sich geändert.


Quote
bencolonia heute, 13:11 Uhr
5. Eigene Verantwortung
Sind wir tatsächlich so unmündig, dass wir alles glauben, was in facebook und den Zeitungen steht? Heutzutage ist alles Geschriebene einem Einfluss unterlegen, so dass man alles stets mit Vorsicht zu genießen hat. Meine Meinung mache ich mir selber und vertraue nur sehr wenigen Quellen. Glaubwürdigkeit und vor allem Vertrauen verdient man sich bei mir nicht in 5 Minuten, in denen ich einen x-beliebigen Text lese. Jeder ist gefragt, was er für plausibel und vertrauenswürdig hält. Als erstes hinterfragt man sich selber, dann andere und schlussendlich sucht man nach der Quelle der Information. Alles andere wäre dumm und hochgradig naiv.


Quote
darrinh heute, 13:26 Uhr

13. eigene Verantwortung #2
Ich sehe das genauso wie #5. Und verstehe es nicht, wie unzählige "mündige" Bürger scheinbar unreflektiert Postings kommentieren oder gar weiterleiten. Desinformation funktioniert nur so gut, wie die zu "Desinformierdenden" mitmachen.


Quote
BoMbY heute, 13:31 Uhr

[Der Bericht benennt Russlands Geheimdienste als Urheber solcher Kampagnen, wenn auch indirekt. Formuliert ist es so: "Unsere Daten widersprechen nicht der Zuschreibung, die der US-Geheimdienstdirektor in seinem Bericht vom 6. Januar 2017 vorgelegt hat". Dies ist der von Ex-US-Präsident Barack Obama beauftragte Report, der laut der veröffentlichten Kurzversion zum Schluss kommt, dass Wladimir Putin selbst eine Desinformationskampagne zur Beeinflussung der US-Wahl angeordnet habe. Das Ziel: Donald Trump zu begünstigen.]

22. Hilfe die Russen kommen!
Die CIA, NSA, und alle anderen von unseren Wertewesten-Diensten würden natürlich niemals nicht soziale Netzwerke für Desinformation nutzen (obwohl dort das höchste PSYOPS-Budget weltweit zur Verfügung stünde) - dafür hat man ja schon die "freie" Presse gut genug im Griff.


...


Aus: "Geheimdienste nutzen Facebook zur Desinformation" Fabian Reinbold (28.04.2017)
Quelle: http://www.spiegel.de/netzwelt/web/facebook-geheimdienste-nutzen-das-soziale-netzwerk-zur-desinformation-a-1145224.html
Logged

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #34 on: June 13, 2017, 01:35:47 PM »

Quote
[...] Von Thailand aus sollen drei Chinesen Klickbetrug im großen Stil betrieben haben. In ihrem Versteck wurden Zimmer voller iPhones und Hunderttausende Sim-Karten gefunden. ... Die Aufgabe der chinesischen Klickfarm in Thailand sei es nun gewesen, mit dem iPhones beispielsweise Fake-Likes für bestimmte Produkte zu hinterlassen oder Produkte über von Bots generierte Meldungen im sozialen Netzwerk von WeChat zu bewerben. Thailand sei wegen seiner günstigen Mobilfunktarife dafür ausgewählt worden. Wer ihre Auftraggeber sind, haben die drei Festgenommenen nicht preisgegeben. Wohl aber, dass diese ihnen die iPhones besorgt und für ihre Arbeit monatlich 150.000 Baht, umgerechnet knapp 4000 Euro, gezahlt haben.

... Am meisten scheint Thailands Polizei aber zu beschäftigen, wie die drei Männer zu mehreren Hunderttausend Sim-Karten gekommen sind. Bei einer weiteren Durchsuchung am Montag hatten Beamte in einem anderen Haus weitere rund 100.000 Sim-Karten gefunden, die derselben Gruppe zugeordnet werden. Mobilfunkanbieter sind in Thailand gesetzlich verpflichtet, die Daten von Mobilfunknutzern aufzunehmen, sobald diese eine Sim-Karte aktivieren. Dass die Festgenommenen selbst diese große Zahl an Sim-Karten besorgt haben, schließt der örtliche Polizeichef aus.

...


Aus: "Hunderte iPhones gefunden - Polizei hebt Klickfarm in Thailand aus" (13.06.2017)
Quelle: http://www.spiegel.de/netzwelt/web/klickbetrug-polizei-hebt-klickfarm-in-thailand-aus-a-1151900.html

Logged

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #35 on: November 02, 2017, 10:12:37 AM »

Quote
[....] Dirty Campaigning ist nichts Neues. Lyndon B. Johnson hat es schon seinerzeit mit gutem Erfolg praktiziert. Und 2016 hat die enorme Menge von Fake News mit Verleumdungen übelster Art zum Sieg Donald Trumps nicht wenig beigetragen. Neues Produkt dieser Technik ist nicht zuletzt die Idee, per Website scheinbar für einen Kandidaten zu werben, ihm dabei aber allmählich immer brutalere Ideen zu unterschieben, Rassismus, Faschismus und was sich noch alles in diversen Schmutzkübeln finden lässt, um als scheinbarer Freund das Opfer als richtigen Widerling zu zeigen. Spezialisten jeder Partei analysieren die Meinungen und Sorgen der einzelnen Schichten der Bevölkerung und auch ihre Ängste und Hoffnungen, um darauf die je eigenen Wahlprogramme und Wahlkampagnen abzustimmen. Aber das können künstliche Intelligenzen (KIs), die mit einem künstlichen neuronalen Netz, einem lernfähigen Algorithmus, ausgestattet sind, allmählich besser. Sie können weit größere Datenmengen verarbeiten, so die Interessen- und Motivationslage potenzieller Kunden genauer erforschen und daraus maßgeschneiderte Vorschläge für die richtige Strategie erarbeiten. KIs sind auch weit besser in der Lage, das Internet systematisch nach den unterschiedlichsten Informationen zu durchsuchen, auf ihre Relevanz zu prüfen und gegebenenfalls zu verwerten.

Bereits mehrere Firmen bieten das sogenannte Emotional Decoding an, wie etwa Affectiva, Pyramics oder Realeyes. Dabei geht es um die genaue Analyse von Gesichtsausdrücken, sei es beim Beobachten von Werbespots, um ihre Effizienz zu testen, sei es während politischer Propagandareden oder – auch das gibt es ja schon – bei der Beobachtung von Fernsehzusehern durch ihren eigenen Fernsehapparat. Schon hat ein neuronaler Algorithmus bei Vorlage von jeweils fünf Bildern beliebiger Männer in 83 Prozent der Fälle richtig erkannt, ob der Betreffende heterosexuell oder homosexuell ist. Auch falsches Lächeln kann man bereits von echtem unterscheiden. "Ich denke, wir haben da eine ziemlich mächtige Technologie", hat Realeyes-Chef Jed Hellstrom gesagt. Die Verfeinerung der Analyse von Emotionen ermöglicht eine wesentliche Verbesserung der Ansprache durch Social Bots. Auch sind Beeinflussungsversuche über Social Media immer dann besonders wirksam, wenn sie durch echte oder vermeintliche Bekannte und Freunde erfolgen. Bei einem Experiment von Alex Pentland während der amerikanischen Kongresswahlen 2010 erhielten Millionen Facebook-Nutzer eine freundliche Einladung, zur Wahl zu gehen. Eine Hälfte erhielt eine unpersönliche Bitte, die zweite die gleiche Nachricht, aber personalisiert mit den Gesichtern von Freunden. Selbst bei bloßen Internetbekanntschaften war die anschließende Wahlbeteiligung deutlich höher. Über Twitter und andere Social Media werden schon heute viele falsche Freunde gezeigt, die in Wahrheit künstliche Intelligenzen sind. Sie können sympathische Wesen und Freundschaft vortäuschen, Anteilnahme zeigen, Ratschläge geben und am Ende sich geradezu unentbehrlich machen. Die schlimmsten neuen Gegner jeder Wahrheit werden das Gesicht von guten Freunden haben.

Social Bots können übrigens durch Umprogrammierung noch gefährlicher werden. Microsoft-Chatbot Tay sollte mit Twitter-Nutzern kommunizieren und ihnen neue Techniken beibringen. Hacker haben dem Programm rassistische Tiraden beigebracht, es musste eilig vom Netz genommen werden. Und wenn die Hacker etwas schlauer und vorsichtiger vorgegangen wären? 2010 hat in Großbritannien David Cameron das "Behavioral Insights Team" eingerichtet, im dortigen Polit-Slang Nudge-Team genannt. Den Begriff Nudge hat übrigens der heurige Preisträger für Wirtschaftswissenschaften Richard H. Thaler populär gemacht. In den USA und auch in Deutschland gibt es bereits ähnliche Stabsstellen. Und was machen die? Im Rahmen der Snowden-Affäre ist eine "sozialwissenschaftliche Operationseinheit" bekannt geworden, die darauf spezialisiert ist, den Ruf Einzelner möglichst gründlich zu ruinieren. Die Grundsätze werden in fünf großen D festgehalten: Deny, Deceive, Disrupt, Degrade und Destroy: Verleugnen, Täuschen, Unterbrechen, Abwerten und Zerstören. Die mit dieser Aufgabe betrauten Agenten (zum Zeitpunkt des Bekanntwerdens 150 Personen) arbeiten ständig an der Vervollkommnung dieser Strategie. Wenn herzeigbare politische Persönlichkeiten durch eine sorgfältig gewählte Strategie unterstützt werden, in der KIs jede Menge künstlicher guter Freunde mit einem schlauen Nudging-Programm einsetzen, wer kann dann überhaupt noch unabhängig vernünftige Entscheidungen treffen? Der Komiker Groucho Marx hat es auf den Punkt gebracht: "Sincerity is the key to success. If you can fake this, you got it." Man kann den kommenden politischen Strategien der KIs genau das durchaus zutrauen.


Aus: "Politik-Algorithmen statt Überzeugungsarbeit" Manfred Drennig (Jg. 1940) war Manager im Bank- und Baugeschäft sowie ÖVP-Politiker  (2.11.2017)
Quelle: https://derstandard.at/2000067004767/Politik-Algorithmen-statt-Ueberzeugungsarbeit

Logged

Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Offline Offline
  • Posts: 8498
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #36 on: November 02, 2017, 04:50:54 PM »

Quote
[...] 126 Millionen Facebook-Nutzer haben im Zeitraum zwischen Juni 2015 und August 2017 auf der Plattform Werbeanzeigen gesehen, die von mutmaßlich russischen Akteuren erstellt und bezahlt wurden. Das sagte ein Vertreter des Unternehmens in dieser Woche in einer Anhörung vor dem US-Kongress, zu der auch Twitter und Google geladen wurden. Damit bestätigte sich: Die Einflussnahme auf den Präsidentschaftswahlkampf war größer als zunächst angenommen und von Facebook behauptet.

Bereits im September händigte Facebook dem Untersuchungsausschuss des Kongresses 3.000 der verdächtigen Anzeigen aus. Am Mittwoch veröffentlichte dieser Ausschuss eine kleine Auswahl. Sie zeigt, wie unter anderem die in St. Petersburg ansässige Internet Research Agency, die im Internet Meinungen im Sinne des Kreml manipuliert, auf Facebook aktiv war. Mit teils nur wenigen hundert Euro konnte das Unternehmen Anzeigen schalten, die gezielt auf einzelne Nutzergruppen, Regionen in den USA und aktuelle Ereignisse zugeschnitten waren.

Möglich machte das Facebooks Geschäftsmodell für personalisierte Werbung. Die Daten aller Nutzer, ihr Standort, ihre Likes, die von ihnen besuchten Websites – all das wird gesammelt und zu Werbezwecken analysiert. Werbetreibende können das nutzen, um Menschen mit bestimmten Hobbys oder Vorlieben anzusprechen. Und weil dieser Prozess zu großen Teilen automatisiert und zudem wenig transparent ist (etwas, das Facebook zumindest im Bereich politischer Anzeigen ändern möchte), kann er ausgenutzt werden. 

Erstmals wird nun deutlich, wie die Propagandainhalte aussahen und welche Absicht ihre Schöpfer hatten. Sie zielten dabei vor allem auf die Gegensätze in der amerikanischen Gesellschaft ab, spielten Meinungsunterschiede, Kandidaten und Ressentiments gegeneinander aus und versuchten somit, die Gesellschaft weiter zu spalten ...


"Down with Hillary": Anders als zunächst vermutet, ging es in den Anzeigen weniger darum, einen einzelnen Kandidaten zu unterstützen, also etwa zur Wahl von Donald Trump aufzurufen. Einige zielten dennoch auf die Kandidaten ab. Facebook-Nutzer, die sowohl Trump-Inhalte favorisierten und in New York ansässig waren, bekamen etwa eine Einladung zu einer Anti-Clinton-Demo. Sie wurde laut Facebook von 15.255 Nutzern gesehen und kostete 250 US-Dollar.

"Not my President": Im Gegenzug lud eine Organisation, die sich der Black-Lives-Matter-Bewegung und deren Unterstützern bediente, ebenfalls zu einer Veranstaltung in New York ein, wenn auch mit weniger Erfolg: Nur 188 Menschen erreichte die Anzeige, die allerdings auch nicht mal zwei US-Dollar kostete.

Immer wieder wurde versucht, aktuelle Ereignisse aufzugreifen. Der Mord an zwei Polizisten in Boston im Oktober 2016 wurde in einer Anzeige als "grausame Attacke eines Black-Lives-Matter-Aktivisten" dargestellt – obwohl der Täter wohl gar keine Beziehungen zu dieser Bewegung hatte. Inmitten der anhaltenden Diskussion um die Polizeigewalt in den USA versuchten die Ersteller der Anzeigen einerseits, die Seite der (weißen) Polizisten einzunehmen und schwarze Aktivisten zu schmähen.

Anderseits gab es Anzeigen von Gruppen namens Woke Black und Black Matters, die sich vermeintlich für Rechte von Schwarzen stark machten. Eine Anzeige von Black Matters wurde Nutzern ausgespielt, die Websites wie blacknews.com besuchten und an Orten wie Atlanta oder Ferguson lebten. Für einen Preis von rund 1.000 US-Dollar konnten die Auftraggeber in diesem Fall fast 360.000 Nutzer erreichen.

Eine andere Anzeige warb mit einem muskulösen Bernie Sanders für das Malbuch einer frei erfundenen LGBT-Organisation. Hier wurden gezielt Facebook-Nutzer angesprochen, zu deren Interessen unter anderem die Rechte von Homosexuellen zählen. In einer anderen Anzeige wurden sie dazu aufgerufen, an einer Demonstration gegen die Westboro Baptist Church teilzunehmen, die in den USA als Hassgruppe gilt.

Auf der anderen Seite sprachen die Manipulatoren christliche Fundamentalisten an. Hillary Clinton wurde als Partnerin des Teufels bezeichnet, die gegen Jesus kämpft. Als Interessensgebiete der Nutzer wurden hier neben Schlagwörtern wie "Bibel" und "Christentum" auch konservative Politiker und Moderatoren wie Ron Paul und Laura Ingraham definiert, die Anzeige richtete sich also auch an Zuschauer und Leser von Sendern wie Fox und Breitbart.

Gleich mehrere Anzeigen warben für die Gruppe Stop All Invaders. Sie forderten das Verbot von Burkas und warnten vor Einwanderern und der Scharia in den USA. Man dürfe die nationale Sicherheit nicht den Forderungen von Minderheiten opfern, hieß es in einer Anzeige. Nutzer aus Staaten wie Texas und Arizona bekamen zudem Inhalte angezeigt, in denen mit Schlagworten wie "Unabhängigkeit" und "Patriotismus" für stärkere Grenzkontrollen geworben wurde.

Demgegenüber standen Anzeigen von mutmaßlich promuslimischen Verbänden. Die amerikanische Flagge wurde hier über Bilder einer offensichtlich arabischen Stadt gelegt. "USA muslims united" und "I'm muslim and I'm proud" steht in dieser Werbung und die Macher dürften genau gewusst haben, wie kontrovers die Nachrichten auf die Nutzer des sozialen Netzwerks gewirkt haben dürfte.

Bislang hat das Untersuchungskomitee des US-Kongresses nur einen kleinen Teil der von Facebook bereitgestellten Inhalte veröffentlicht. Doch sie zeigen exemplarisch, wie die Akteure vorgingen. Mit vergleichsweise wenig Geld – insgesamt sollen nach Angaben Facebooks zwischen 100.000 und 150.000 US-Dollar aus russischen Quellen stammen  – gelang es bekannten und weniger bekannten Trollfabriken, Millionen von Nutzer in sozialen Netzwerken wie Twitter und Facebook zu erreichen.

Dabei versuchten sie, gezielt einzelne Nutzerschichten anzusprechen und deren Ängste zu schüren. Auch wenn der Großteil der Anzeigen sich an das rechte politische Spektrum richtete, ging es nicht darum, plumpe Propaganda für Donald Trump zu machen. Ziel war es vielmehr, mit Desinformation und im Sog aktueller Ereignisse möglichst viel Chaos zu verbreiten und die Nutzerschaft in den sozialen Netzwerken zu spalten. Es ging um die "Verzerrung von Social Media", wie es der Autor Stephen Marche in einem Artikel für den New Yorker nennt.

Welchen Einfluss die Kampagne auf den Ausgang der Wahl hatte, ist weiterhin unklar. Doch zumindest in einem Fall scheint es, als sei es den Propagandisten gelungen, den Sprung aus dem Internet zu schaffen. Wie vor dem Kongress in dieser Woche herauskam, gelang es ihnen, mit manipulierten Werbeanzeigen zwei gegensätzliche Gruppen zur gleichen Zeit auf Demos in Houston zu schicken, wo es dann auch zu Auseinandersetzungen kam. Die Teilnehmer glaubten, sie folgten Gleichgesinnten. Tatsächlich wurden sie offenbar von einem russischen Unternehmen Tausende Kilometer entfernt angestachelt.


Aus: "US-Wahlkampf: Je mehr Chaos, desto besser"  Eike Kühl (2. November 2017)
Quelle: http://www.zeit.de/digital/internet/2017-11/us-wahlkampf-facebook-russland-propaganda-werbeanzeigen/komplettansicht
Logged
Pages: 1 2 [3]   Go Up