Author Topic: [Information und verdeckte Manipulation... ]  (Read 16808 times)

0 Members and 1 Guest are viewing this topic.

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #30 on: November 24, 2015, 09:40:07 AM »
Quote
[...] Aus den Vorwürfen der US-Behörden wird Gewissheit: Auch in größeren Dieselautos von VW und den Konzerntöchtern Audi und Porsche hat eine verbotene Software für niedrigere Abgaswerte gesorgt. Audi räumte am Montagabend die Installation eines Programms in V6 TDI 3,0-Liter-Motoren ein, das in den USA als illegale Software gilt. ...


Aus: "Abgas-Skandal bei VW: Audi gibt nun doch verbotene Software zu" (24.11.2015)
Quelle: http://www.heise.de/newsticker/meldung/Abgas-Skandal-bei-VW-Audi-gibt-nun-doch-verbotene-Software-zu-3015360.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #31 on: December 17, 2016, 05:33:31 PM »
Quote
[...] In geleakten E-Mails aus dem Postfach des türkischen Energieministers und Schwiegersohn des Staatspräsidenten Recep Tayyip Erdoğan, Berat Albayrak findet sich angeblich auch ein Beleg für die Gründung einer gemeinen Troll-Truppe, mit der Erdoğan soziale Medien unter seine Kontrolle bringen wollte. Das fünfzehnseitige Dokument stammt aus einer Wikileaks-Veröffentlichung von fast 60.000 E-Mails, schreibt Die Welt. Es bestätigt demnach ältere Berichte über eine 6000 Personen starke "Troll-Armee", die angeblich im Internet nach russischem Vorbild gegen Kritik an Erdoğan vorgeht. ... In dem nun von Wikileaks öffentlich gemachten Dokument wird laut der Welt behauptet, die staatlich kontrollierten Medien hätten "Desinformationen" und "Provokationen" der außerparlamentarischen Opposition zu wenig entgegenzusetzen. Eine "virtuelle Werkstatt" müsse deswegen die Dominanz des Gegners in den sozialen Medien brechen. Dazu seien Social-Media-Experten, Akademiker, Militärs mit dem Fachgebiet psychologische Kriegsführung sowie Techniker und Grafiker plus ein Budget von mehr als 200.000 US-Dollar nötig. Das sei auch umgesetzt und rasch deutlich aufgestockt worden, so dass wenige Monate später bereits von 6000 Trollen die Rede war, ohne dass die Regierungspartei AKP dem widersprochen habe.

Auch das hinderte die türkische Führung aber in der Folge nicht daran, immer wieder den Zugang zu sozialen Medien zu sperren, auch im Rahmen des massiven Vorgehens gegen die Opposition. Derzeit reißt Erdoğan immer mehr Macht an sich und geht massiv gegen Kritiker vor. Seit dem gescheiterten Putsch vom Juli hat sich das noch einmal beschleunigt und zuerst vor allem auch jene Teile der Presse und Medien getroffen, die noch nicht vom Staat kontrolliert wurden. Deshalb ist es inzwischen schwer, unabhängige Berichte aus dem Land zu bekommen, auch solche über die von Wikileaks öffentlich gemachten Dokumente. (mho)

Quote
     FrogmasterL, 13.12.2016 20:53

Wer glaubt eigentlich ernsthaft, dass es keine deutsche Troll-Armee gibt? Dass diverse Ministerien in der Vergangenheit Redaktionen mit vorfabrizierten Beiträgen "versorgt" haben, ist bekannt. Von dort ist es zum Verbreiten vorformulierter Kommentare nur ein kleiner Schritt.


...


Aus: "Wikileaks: Angeblich Beleg für Gründung von Erdoğans "Troll-Armee"" Martin Holland (heise online, 13.12.2016)
Quelle: https://www.heise.de/newsticker/meldung/Wikileaks-Angeblich-Beleg-fuer-Gruendung-von-Erdogans-Troll-Armee-3569464.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #32 on: April 27, 2017, 12:55:55 PM »
Quote
[...] Vor etwa drei Jahren begann der Rentner Benčík Screenshots von öffentlichen Facebook-Profilen und Websites extremistischer Personen und Vereinigungen anzufertigen. Neonazis, Rassisten, Scharlatane, Verschwörungstheoretiker. Das Material veröffentlichte er kommentiert in seinem Blog. Seine – ganz privaten- Aktivitäten fanden schon bald ein außerordentliches Echo. Aufmerksamkeit der Öffentlichkeit erregte er auch dadurch, dass sich jene laut zu Wort meldeten, deren Gedanken und Ansichten er sichtbar gemacht hatte. Die Ertappten sperrten oder löschten ihre Profile. Sie stritten ab, die Autoren zu sein, oder behaupteten, jemand habe ihre Konten gehackt.

... Benčík sagt: „Wir leben in der postfaktischen Epoche, wo Emotionen, und seien sie durch offensichtliche Lügen hervorgerufen, mehr Gewicht haben als wahrheitsgetreue Informationen. In einer Epoche, in der der Zugang zum Internet gleichzeitig Fluch und Segen ist. In der eine durch seriöse, langjährige Arbeit von Spitzenfachleuten verifizierte Theorie oder Information für viele weniger zählt als das Geschwafel eines geschickten Manipulators oder halbgebildeten Scharlatans. In einer Epoche der Oberflächlichkeit, wo es an Bereitschaft mangelt, seine Informationsquellen zu überprüfen und die Beweggründe derjenigen aufzudecken, die Falschmeldungen verbreiten. In einer Epoche von bezahlten Trollen und nützlichen Idioten.“


Aus: "Jeder kann etwas dagegen tun" Ein Kommentar von Michal Hvorecky (27.4.2017)
Quelle: https://www.taz.de/Debatte-Rechtspopulismus-in-Europa/!5401967/


Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #33 on: April 28, 2017, 01:59:45 PM »
Quote
[...] Wer sich in diesen Monaten bei Facebook einloggt, betritt ein Schlachtfeld. Er kann Spielball werden in einem neuartigen Informationskrieg, in dem Geheimdienste und andere Gruppen Meinungen, Debatten, Wahlen beeinflussen - mit Mitteln, die immer schwerer zu durchschauen sind.

Zu diesem überraschend deutlich formulierten Befund kommt ein Bericht mit dem Titel "Informationsoperationen und Facebook", den das Netzwerk selbst veröffentlicht hat. Laut dem Sicherheitschef des Konzerns, Alex Stamos, manipulieren Geheimdienste und andere Interessengruppen per Facebook insbesondere Wahlkämpfe mit hohem Aufwand und detaillierter Vorbereitung - mittels Tarnprofilen, dem verschleierten Lancieren von Informationen und strategischem Gepöbel.

Bemerkenswert ist das 13-seitige Dokument ("Information Operations and Facebook" By Jen Weedon, William Nuland and Alex Stamos April 27, 2017  Version 1.0 https://fbnewsroomus.files.wordpress.com/2017/04/facebook-and-information-operations-v1.pdf), das Stamos mit zwei bekannten Sicherheitsexperten verfasst hat, in zweierlei Hinsicht: Zum einen zählt er die Komponenten und Verschleierungstaktiken neuartiger Desinformationskampagnen auf.

Zum anderen zeigt er ein ganz neues Problembewusstsein und -eingeständnis bei Facebook. Dessen Gründer Mark Zuckerberg tat vor einem halben Jahr noch so, als habe sein Portal keinerlei Einfluss auf den US-Wahlkampf gehabt. Nun macht Facebook deutlich, dass die eigene Plattform eine zentrale Rolle bei der Verbreitung von Desinformation spiele. ... Stamos ist als Sicherheitschef auch Facebooks Verbindungsmann zu Sicherheitsbehörden und Geheimdiensten. Er glaubt, Facebook müsse die eigene Abwehr umstellen. Habe man sich bislang auf traditionelle Angriffe wie das Hacken von Accounts, Spam und Abzocke konzentriert, muss Facebook jetzt mit "subtileren und heimtückischeren" Manipulationsversuchen fertigwerden.

Dabei spielt laut dem Report die Gründung von Seiten von Tarnorganisationen eine große Rolle. Effektiv sei etwa, Retortengruppen zu bestimmen Themen zu gründen - da diese sich später verselbständigen können, weil genügend wirkliche Nutzer mitmachen. Auch Tarnprofile seien ein beliebtes Mittel. Sie unterscheiden sich von Social Bots, also als Menschen getarnten Programmen, weil sie eben von Menschen betriebene Fake-Profile sind ...

Solche Profile und Seiten führen laut dem Bericht zu einer "false amplification" - wörtlich übersetzt einer unechten Vervielfältigung - bestimmter Meinungen. Die Ideologie, die sie transportieren, erscheint anderen Nutzern dank den koordinierten Aktionen verbreiteter und mehrheitsfähiger, als sie tatsächlich ist. So könne die öffentliche Meinung manipuliert, eine Diskussion gezielt verpestet werden.

Bestimmte Inhalte werden auf der Plattform so breit wie möglich gestreut, die Tarnprofile und -seiten erstellen außerdem aufwiegelnde und rassistische Meme, die sich viral verbreiten - weil andere Nutzer ihnen zustimmen oder vom Inhalt empört sind.

Ziel der Aktionen sei es nicht nur, eine bestimmte Sichtweise zu befördern. Es gehe längerfristig auch darum, in sozialen Netzwerken Misstrauen in politische Institutionen zu säen und Verwirrung durch widersprüchliche Informationen zu stiften.

Facebook habe mehrfach im Rahmen der US-Wahl solche Akteure entdeckt, deren Nachrichten das gesamte politische Spektrum ins Visier nahmen mit dem Ziel, Spannungen zwischen Gruppen zu verschärfen und deren Unterstützerbasis zu erschüttern.

Viele solcher Aktionen sind laut Facebook von Akteuren gesteuert worden, die die entsprechenden Sprachkenntnisse und grundlegende Kenntnisse über die politische Lage im Zielland hätten. Das setze viel Koordinierung und Planung voraus. Übersetzt: Ressourcen und Kenntnisse, über die in erster Linie Geheimdienste verfügten.

...

Quote
soron heute, 13:08 Uhr
2. 90% aller weltweit laufenden Militäreinsätze sind
Psychologische Kriegsführung wird wesentlich häufiger eingesetzt als jedes andere Mittel. Für jeden Militärschlag gegen einen syrischen Flugplatz sind 9 Desinformations- oder Beeinflussungskampagnen am laufen. Ich sage nicht, dass Russland hier zu Unrecht beschuldigt wird. Ganz sicher nicht. Aber ich lehne es ab, dass in diesem Zusammenhang hauptsächlich auf Russland eingeprügelt wird - andere Staaten, allen voraun die USA, sind hier mindestens ebenso aktiv. Hatte nicht sogar damals während des Irakkriegs die (auch finanzielle) Wahlkampfunterstützung der USA für die oppositionelle CDU und gegen Gerhard Schröder's Regierung für ernsthafte Verstimmung gesorgt ? Von daher: Alles beim alten, nur die Mittel haben sich geändert.


Quote
bencolonia heute, 13:11 Uhr
5. Eigene Verantwortung
Sind wir tatsächlich so unmündig, dass wir alles glauben, was in facebook und den Zeitungen steht? Heutzutage ist alles Geschriebene einem Einfluss unterlegen, so dass man alles stets mit Vorsicht zu genießen hat. Meine Meinung mache ich mir selber und vertraue nur sehr wenigen Quellen. Glaubwürdigkeit und vor allem Vertrauen verdient man sich bei mir nicht in 5 Minuten, in denen ich einen x-beliebigen Text lese. Jeder ist gefragt, was er für plausibel und vertrauenswürdig hält. Als erstes hinterfragt man sich selber, dann andere und schlussendlich sucht man nach der Quelle der Information. Alles andere wäre dumm und hochgradig naiv.


Quote
darrinh heute, 13:26 Uhr

13. eigene Verantwortung #2
Ich sehe das genauso wie #5. Und verstehe es nicht, wie unzählige "mündige" Bürger scheinbar unreflektiert Postings kommentieren oder gar weiterleiten. Desinformation funktioniert nur so gut, wie die zu "Desinformierdenden" mitmachen.


Quote
BoMbY heute, 13:31 Uhr

[Der Bericht benennt Russlands Geheimdienste als Urheber solcher Kampagnen, wenn auch indirekt. Formuliert ist es so: "Unsere Daten widersprechen nicht der Zuschreibung, die der US-Geheimdienstdirektor in seinem Bericht vom 6. Januar 2017 vorgelegt hat". Dies ist der von Ex-US-Präsident Barack Obama beauftragte Report, der laut der veröffentlichten Kurzversion zum Schluss kommt, dass Wladimir Putin selbst eine Desinformationskampagne zur Beeinflussung der US-Wahl angeordnet habe. Das Ziel: Donald Trump zu begünstigen.]

22. Hilfe die Russen kommen!
Die CIA, NSA, und alle anderen von unseren Wertewesten-Diensten würden natürlich niemals nicht soziale Netzwerke für Desinformation nutzen (obwohl dort das höchste PSYOPS-Budget weltweit zur Verfügung stünde) - dafür hat man ja schon die "freie" Presse gut genug im Griff.


...


Aus: "Geheimdienste nutzen Facebook zur Desinformation" Fabian Reinbold (28.04.2017)
Quelle: http://www.spiegel.de/netzwelt/web/facebook-geheimdienste-nutzen-das-soziale-netzwerk-zur-desinformation-a-1145224.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #34 on: June 13, 2017, 01:35:47 PM »
Quote
[...] Von Thailand aus sollen drei Chinesen Klickbetrug im großen Stil betrieben haben. In ihrem Versteck wurden Zimmer voller iPhones und Hunderttausende Sim-Karten gefunden. ... Die Aufgabe der chinesischen Klickfarm in Thailand sei es nun gewesen, mit dem iPhones beispielsweise Fake-Likes für bestimmte Produkte zu hinterlassen oder Produkte über von Bots generierte Meldungen im sozialen Netzwerk von WeChat zu bewerben. Thailand sei wegen seiner günstigen Mobilfunktarife dafür ausgewählt worden. Wer ihre Auftraggeber sind, haben die drei Festgenommenen nicht preisgegeben. Wohl aber, dass diese ihnen die iPhones besorgt und für ihre Arbeit monatlich 150.000 Baht, umgerechnet knapp 4000 Euro, gezahlt haben.

... Am meisten scheint Thailands Polizei aber zu beschäftigen, wie die drei Männer zu mehreren Hunderttausend Sim-Karten gekommen sind. Bei einer weiteren Durchsuchung am Montag hatten Beamte in einem anderen Haus weitere rund 100.000 Sim-Karten gefunden, die derselben Gruppe zugeordnet werden. Mobilfunkanbieter sind in Thailand gesetzlich verpflichtet, die Daten von Mobilfunknutzern aufzunehmen, sobald diese eine Sim-Karte aktivieren. Dass die Festgenommenen selbst diese große Zahl an Sim-Karten besorgt haben, schließt der örtliche Polizeichef aus.

...


Aus: "Hunderte iPhones gefunden - Polizei hebt Klickfarm in Thailand aus" (13.06.2017)
Quelle: http://www.spiegel.de/netzwelt/web/klickbetrug-polizei-hebt-klickfarm-in-thailand-aus-a-1151900.html


Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #35 on: November 02, 2017, 10:12:37 AM »
Quote
[....] Dirty Campaigning ist nichts Neues. Lyndon B. Johnson hat es schon seinerzeit mit gutem Erfolg praktiziert. Und 2016 hat die enorme Menge von Fake News mit Verleumdungen übelster Art zum Sieg Donald Trumps nicht wenig beigetragen. Neues Produkt dieser Technik ist nicht zuletzt die Idee, per Website scheinbar für einen Kandidaten zu werben, ihm dabei aber allmählich immer brutalere Ideen zu unterschieben, Rassismus, Faschismus und was sich noch alles in diversen Schmutzkübeln finden lässt, um als scheinbarer Freund das Opfer als richtigen Widerling zu zeigen. Spezialisten jeder Partei analysieren die Meinungen und Sorgen der einzelnen Schichten der Bevölkerung und auch ihre Ängste und Hoffnungen, um darauf die je eigenen Wahlprogramme und Wahlkampagnen abzustimmen. Aber das können künstliche Intelligenzen (KIs), die mit einem künstlichen neuronalen Netz, einem lernfähigen Algorithmus, ausgestattet sind, allmählich besser. Sie können weit größere Datenmengen verarbeiten, so die Interessen- und Motivationslage potenzieller Kunden genauer erforschen und daraus maßgeschneiderte Vorschläge für die richtige Strategie erarbeiten. KIs sind auch weit besser in der Lage, das Internet systematisch nach den unterschiedlichsten Informationen zu durchsuchen, auf ihre Relevanz zu prüfen und gegebenenfalls zu verwerten.

Bereits mehrere Firmen bieten das sogenannte Emotional Decoding an, wie etwa Affectiva, Pyramics oder Realeyes. Dabei geht es um die genaue Analyse von Gesichtsausdrücken, sei es beim Beobachten von Werbespots, um ihre Effizienz zu testen, sei es während politischer Propagandareden oder – auch das gibt es ja schon – bei der Beobachtung von Fernsehzusehern durch ihren eigenen Fernsehapparat. Schon hat ein neuronaler Algorithmus bei Vorlage von jeweils fünf Bildern beliebiger Männer in 83 Prozent der Fälle richtig erkannt, ob der Betreffende heterosexuell oder homosexuell ist. Auch falsches Lächeln kann man bereits von echtem unterscheiden. "Ich denke, wir haben da eine ziemlich mächtige Technologie", hat Realeyes-Chef Jed Hellstrom gesagt. Die Verfeinerung der Analyse von Emotionen ermöglicht eine wesentliche Verbesserung der Ansprache durch Social Bots. Auch sind Beeinflussungsversuche über Social Media immer dann besonders wirksam, wenn sie durch echte oder vermeintliche Bekannte und Freunde erfolgen. Bei einem Experiment von Alex Pentland während der amerikanischen Kongresswahlen 2010 erhielten Millionen Facebook-Nutzer eine freundliche Einladung, zur Wahl zu gehen. Eine Hälfte erhielt eine unpersönliche Bitte, die zweite die gleiche Nachricht, aber personalisiert mit den Gesichtern von Freunden. Selbst bei bloßen Internetbekanntschaften war die anschließende Wahlbeteiligung deutlich höher. Über Twitter und andere Social Media werden schon heute viele falsche Freunde gezeigt, die in Wahrheit künstliche Intelligenzen sind. Sie können sympathische Wesen und Freundschaft vortäuschen, Anteilnahme zeigen, Ratschläge geben und am Ende sich geradezu unentbehrlich machen. Die schlimmsten neuen Gegner jeder Wahrheit werden das Gesicht von guten Freunden haben.

Social Bots können übrigens durch Umprogrammierung noch gefährlicher werden. Microsoft-Chatbot Tay sollte mit Twitter-Nutzern kommunizieren und ihnen neue Techniken beibringen. Hacker haben dem Programm rassistische Tiraden beigebracht, es musste eilig vom Netz genommen werden. Und wenn die Hacker etwas schlauer und vorsichtiger vorgegangen wären? 2010 hat in Großbritannien David Cameron das "Behavioral Insights Team" eingerichtet, im dortigen Polit-Slang Nudge-Team genannt. Den Begriff Nudge hat übrigens der heurige Preisträger für Wirtschaftswissenschaften Richard H. Thaler populär gemacht. In den USA und auch in Deutschland gibt es bereits ähnliche Stabsstellen. Und was machen die? Im Rahmen der Snowden-Affäre ist eine "sozialwissenschaftliche Operationseinheit" bekannt geworden, die darauf spezialisiert ist, den Ruf Einzelner möglichst gründlich zu ruinieren. Die Grundsätze werden in fünf großen D festgehalten: Deny, Deceive, Disrupt, Degrade und Destroy: Verleugnen, Täuschen, Unterbrechen, Abwerten und Zerstören. Die mit dieser Aufgabe betrauten Agenten (zum Zeitpunkt des Bekanntwerdens 150 Personen) arbeiten ständig an der Vervollkommnung dieser Strategie. Wenn herzeigbare politische Persönlichkeiten durch eine sorgfältig gewählte Strategie unterstützt werden, in der KIs jede Menge künstlicher guter Freunde mit einem schlauen Nudging-Programm einsetzen, wer kann dann überhaupt noch unabhängig vernünftige Entscheidungen treffen? Der Komiker Groucho Marx hat es auf den Punkt gebracht: "Sincerity is the key to success. If you can fake this, you got it." Man kann den kommenden politischen Strategien der KIs genau das durchaus zutrauen.


Aus: "Politik-Algorithmen statt Überzeugungsarbeit" Manfred Drennig (Jg. 1940) war Manager im Bank- und Baugeschäft sowie ÖVP-Politiker  (2.11.2017)
Quelle: https://derstandard.at/2000067004767/Politik-Algorithmen-statt-Ueberzeugungsarbeit


Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #36 on: November 02, 2017, 04:50:54 PM »
Quote
[...] 126 Millionen Facebook-Nutzer haben im Zeitraum zwischen Juni 2015 und August 2017 auf der Plattform Werbeanzeigen gesehen, die von mutmaßlich russischen Akteuren erstellt und bezahlt wurden. Das sagte ein Vertreter des Unternehmens in dieser Woche in einer Anhörung vor dem US-Kongress, zu der auch Twitter und Google geladen wurden. Damit bestätigte sich: Die Einflussnahme auf den Präsidentschaftswahlkampf war größer als zunächst angenommen und von Facebook behauptet.

Bereits im September händigte Facebook dem Untersuchungsausschuss des Kongresses 3.000 der verdächtigen Anzeigen aus. Am Mittwoch veröffentlichte dieser Ausschuss eine kleine Auswahl. Sie zeigt, wie unter anderem die in St. Petersburg ansässige Internet Research Agency, die im Internet Meinungen im Sinne des Kreml manipuliert, auf Facebook aktiv war. Mit teils nur wenigen hundert Euro konnte das Unternehmen Anzeigen schalten, die gezielt auf einzelne Nutzergruppen, Regionen in den USA und aktuelle Ereignisse zugeschnitten waren.

Möglich machte das Facebooks Geschäftsmodell für personalisierte Werbung. Die Daten aller Nutzer, ihr Standort, ihre Likes, die von ihnen besuchten Websites – all das wird gesammelt und zu Werbezwecken analysiert. Werbetreibende können das nutzen, um Menschen mit bestimmten Hobbys oder Vorlieben anzusprechen. Und weil dieser Prozess zu großen Teilen automatisiert und zudem wenig transparent ist (etwas, das Facebook zumindest im Bereich politischer Anzeigen ändern möchte), kann er ausgenutzt werden. 

Erstmals wird nun deutlich, wie die Propagandainhalte aussahen und welche Absicht ihre Schöpfer hatten. Sie zielten dabei vor allem auf die Gegensätze in der amerikanischen Gesellschaft ab, spielten Meinungsunterschiede, Kandidaten und Ressentiments gegeneinander aus und versuchten somit, die Gesellschaft weiter zu spalten ...


"Down with Hillary": Anders als zunächst vermutet, ging es in den Anzeigen weniger darum, einen einzelnen Kandidaten zu unterstützen, also etwa zur Wahl von Donald Trump aufzurufen. Einige zielten dennoch auf die Kandidaten ab. Facebook-Nutzer, die sowohl Trump-Inhalte favorisierten und in New York ansässig waren, bekamen etwa eine Einladung zu einer Anti-Clinton-Demo. Sie wurde laut Facebook von 15.255 Nutzern gesehen und kostete 250 US-Dollar.

"Not my President": Im Gegenzug lud eine Organisation, die sich der Black-Lives-Matter-Bewegung und deren Unterstützern bediente, ebenfalls zu einer Veranstaltung in New York ein, wenn auch mit weniger Erfolg: Nur 188 Menschen erreichte die Anzeige, die allerdings auch nicht mal zwei US-Dollar kostete.

Immer wieder wurde versucht, aktuelle Ereignisse aufzugreifen. Der Mord an zwei Polizisten in Boston im Oktober 2016 wurde in einer Anzeige als "grausame Attacke eines Black-Lives-Matter-Aktivisten" dargestellt – obwohl der Täter wohl gar keine Beziehungen zu dieser Bewegung hatte. Inmitten der anhaltenden Diskussion um die Polizeigewalt in den USA versuchten die Ersteller der Anzeigen einerseits, die Seite der (weißen) Polizisten einzunehmen und schwarze Aktivisten zu schmähen.

Anderseits gab es Anzeigen von Gruppen namens Woke Black und Black Matters, die sich vermeintlich für Rechte von Schwarzen stark machten. Eine Anzeige von Black Matters wurde Nutzern ausgespielt, die Websites wie blacknews.com besuchten und an Orten wie Atlanta oder Ferguson lebten. Für einen Preis von rund 1.000 US-Dollar konnten die Auftraggeber in diesem Fall fast 360.000 Nutzer erreichen.

Eine andere Anzeige warb mit einem muskulösen Bernie Sanders für das Malbuch einer frei erfundenen LGBT-Organisation. Hier wurden gezielt Facebook-Nutzer angesprochen, zu deren Interessen unter anderem die Rechte von Homosexuellen zählen. In einer anderen Anzeige wurden sie dazu aufgerufen, an einer Demonstration gegen die Westboro Baptist Church teilzunehmen, die in den USA als Hassgruppe gilt.

Auf der anderen Seite sprachen die Manipulatoren christliche Fundamentalisten an. Hillary Clinton wurde als Partnerin des Teufels bezeichnet, die gegen Jesus kämpft. Als Interessensgebiete der Nutzer wurden hier neben Schlagwörtern wie "Bibel" und "Christentum" auch konservative Politiker und Moderatoren wie Ron Paul und Laura Ingraham definiert, die Anzeige richtete sich also auch an Zuschauer und Leser von Sendern wie Fox und Breitbart.

Gleich mehrere Anzeigen warben für die Gruppe Stop All Invaders. Sie forderten das Verbot von Burkas und warnten vor Einwanderern und der Scharia in den USA. Man dürfe die nationale Sicherheit nicht den Forderungen von Minderheiten opfern, hieß es in einer Anzeige. Nutzer aus Staaten wie Texas und Arizona bekamen zudem Inhalte angezeigt, in denen mit Schlagworten wie "Unabhängigkeit" und "Patriotismus" für stärkere Grenzkontrollen geworben wurde.

Demgegenüber standen Anzeigen von mutmaßlich promuslimischen Verbänden. Die amerikanische Flagge wurde hier über Bilder einer offensichtlich arabischen Stadt gelegt. "USA muslims united" und "I'm muslim and I'm proud" steht in dieser Werbung und die Macher dürften genau gewusst haben, wie kontrovers die Nachrichten auf die Nutzer des sozialen Netzwerks gewirkt haben dürfte.

Bislang hat das Untersuchungskomitee des US-Kongresses nur einen kleinen Teil der von Facebook bereitgestellten Inhalte veröffentlicht. Doch sie zeigen exemplarisch, wie die Akteure vorgingen. Mit vergleichsweise wenig Geld – insgesamt sollen nach Angaben Facebooks zwischen 100.000 und 150.000 US-Dollar aus russischen Quellen stammen  – gelang es bekannten und weniger bekannten Trollfabriken, Millionen von Nutzer in sozialen Netzwerken wie Twitter und Facebook zu erreichen.

Dabei versuchten sie, gezielt einzelne Nutzerschichten anzusprechen und deren Ängste zu schüren. Auch wenn der Großteil der Anzeigen sich an das rechte politische Spektrum richtete, ging es nicht darum, plumpe Propaganda für Donald Trump zu machen. Ziel war es vielmehr, mit Desinformation und im Sog aktueller Ereignisse möglichst viel Chaos zu verbreiten und die Nutzerschaft in den sozialen Netzwerken zu spalten. Es ging um die "Verzerrung von Social Media", wie es der Autor Stephen Marche in einem Artikel für den New Yorker nennt.

Welchen Einfluss die Kampagne auf den Ausgang der Wahl hatte, ist weiterhin unklar. Doch zumindest in einem Fall scheint es, als sei es den Propagandisten gelungen, den Sprung aus dem Internet zu schaffen. Wie vor dem Kongress in dieser Woche herauskam, gelang es ihnen, mit manipulierten Werbeanzeigen zwei gegensätzliche Gruppen zur gleichen Zeit auf Demos in Houston zu schicken, wo es dann auch zu Auseinandersetzungen kam. Die Teilnehmer glaubten, sie folgten Gleichgesinnten. Tatsächlich wurden sie offenbar von einem russischen Unternehmen Tausende Kilometer entfernt angestachelt.


Aus: "US-Wahlkampf: Je mehr Chaos, desto besser"  Eike Kühl (2. November 2017)
Quelle: http://www.zeit.de/digital/internet/2017-11/us-wahlkampf-facebook-russland-propaganda-werbeanzeigen/komplettansicht

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #37 on: November 29, 2017, 09:59:15 AM »
Quote
[...]  In zunehmenden Maße nutzen Bundesbehörden verdeckte Accounts zur Ermittlung im Internet. Entsprechende Zahlen hat das Bundesinnenministerium jetzt in der Antwort auf eine Kleine Anfrage der Linken-Abgeordneten Martina Renner veröffentlicht. Demnach hat die Bundespolizei im Jahr 2017 284 sogenannte pseudonyme Accounts verwendet, im Jahr zuvor waren es noch 174.

Für das Bundeskriminalamt und den Verfassungsschutz werden keine Angaben gemacht, auch in einer früheren Anfrage hat sich das Ministerium hierzu nicht öffentlich geäußert. Zum Bundesamt für Verfassungsschutz hieß es damals lediglich, dass dieser keine Statistiken zur Nutzung von "Fake-Accounts" in Chats, Foren oder Messenger-Diensten führt. Eine Quantifizierung der Maßnahme sei deshalb nicht möglich. Das Gleiche gilt für den Zoll und dessen angeschlossene Zollkriminalämter. Die Behörde des Finanzministeriums nutzt pseudonyme Accounts "teilweise nur einmalig". Gemeint sind womöglich Chatgruppen, in denen für jede Sitzung ein neuer Alias-Name eingegeben werden kann.

... Für die Bundespolizei gibt das Bundesinnenministerium die Zahl von "Dritten" eingerichteter Accounts für 2016 mit 15 an, in diesem Jahr sind es bereits 21. Es ist unklar, ob dies ebenfalls in Amtshilfe für die Generalstaatsanwaltschaft geschah. Durchgeführt wurde die Maßnahme vermutlich vom Informations- und Kommunikationstechnikzentrum (IKTZ) der Bundespolizei mit Hauptsitz in Potsdam.

... Anders als beim BKA handelte es sich bei den Maßnahmen der Bundespolizei in nur einem Fall um den Account eines Beschuldigten. Das könnte bedeuten, dass sich die Bundespolizei unbemerkt in die Kommunikation einschleust und dafür Zugänge von Personen nutzt, die hiervon nichts bemerken können. Möglich ist auch, dass Accounts genutzt werden, die wegen Verstößen gegen Geschäftsbedingungen oder aus anderen Gründen nicht mehr im Besitz der "Dritten" sind. Bezüglich der Bundespolizei werden diese in der Antwort als die "vorherigen Inhaber" bezeichnet. Sie haben sich offenbar nicht strafbar gemacht, jedenfalls wurden in keinem Fall Ermittlungen gegen sie eingeleitet.

Nicht immer waren die heimlichen Ermittlungen erfolgreich. So konnte die Bundespolizei im Jahr 2016 nur in zehn und im Jahr 2017 nur in neun Fällen Beweismittel sichern. Im Bundeskriminalamt wurden in drei der vier Fälle Beweismittel erlangt.


Aus: "Heimliche Ermittlungen im Internet: Behörden übernehmen Accounts" (29. November 2017)
Quelle: https://www.heise.de/tp/features/Heimliche-Ermittlungen-im-Internet-Behoerden-uebernehmen-Accounts-3903704.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #38 on: December 17, 2017, 01:38:20 PM »
Quote
[...] Auch die Berliner Polizei geriet vor einigen Tagen in die Kritik, als Recherchen von ZEIT ONLINE zeigten, dass schwere Fahndungsfehler direkt nach Amris Attentat wahrscheinlich hätten verhindert werden können. Außerdem wurde die Akte Amris nach dessen Anschlag manipuliert, um Versäumnisse des Berliner Landeskriminalamts zu vertuschen. ...


Aus: "Anis Amri wurde bereits seit 2015 überwacht" (17. Dezember 2017)
Quelle: http://www.zeit.de/politik/deutschland/2017-12/anis-amri-terroranschlag-ueberwachung

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #39 on: January 26, 2018, 11:30:24 AM »
Quote
[...] Mit einem Faceswap-Tool lassen sich Filmszenen aller Art manipulieren und die Gesichter der Schauspieler austauschen.  ... Wir werden uns wohl an eine Welt gewöhnen müssen, in der solche Video-Fakes immer besser und damit auch schwerer zu erkennen werden. Inklusive der dazugehörigen Konflikte mit den Persönlichkeitsrechten der betroffenen Personen. In Zukunft könnten solche Fälschungen als Grundlage von Propaganda oder absichtlich irreführender Nachrichten benutzt werden.

Das Ziel des Entwicklers von FakeApp ist es, dass bald jeder Nutzer ohne Vorwissen ähnliche Videos erzeugen kann: In Zukunft brauche man nur ein beliebiges Video und ein bereits auf ein berühmtes Gesicht trainiertes neuronales Netz, das man herunterladen kann. Die Software soll dann die Gesichter auf Knopfdruck austauschen.

Quote
     Vatikankiller, 25.01.2018 19:16

Was dann sicher boomen wird ...

... "wiederaufgetauchtes" historisches Material, das die Geschichte neu/anders schreibt (oder festigt, je nach Interessenslage).


Quote
     Eric Mueller, 25.01.2018 18:30

Ab welchem Punkt macht das Überwachungvideos wertlos?

Da diese Methode ja nicht nur bei Prominenten und Pornos greift:
Wenn ein Video so gut gefälscht werden kann, dass man den Unterschied nicht mehr sieht, müsste die Beweiskraft stark zurückgehen.

Alternativ wird das DIE Methode, jemandem etwas anzuhängen.


Quote
     Dankeauch, 25.01.2018 16:48

Jetzt wirds ernst

Bei Fake Porn hört der Spass auf!

Revolution!!111



Aus: "Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien" Fabian A. Scherschel (25.01.2018)
Quelle: https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html

"AI-Assisted Fake Porn Is Here and We’re All Fucked" Samantha Cole (Dec 11 2017, 8:18pm)
Someone used an algorithm to paste the face of 'Wonder Woman' star Gal Gadot onto a porn video, and the implications are terrifying.
https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

https://motherboard.vice.com/de/article/gydydm/diese-ki-kann-wirklich-jeden-zum-unfreiwilligen-pornostar-machen-und-das-ist-ein-problem

https://motherboard.vice.com/de/article/bjye8a/es-ist-soweit-menschen-montieren-massenweise-fremde-menschen-in-pornos

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #40 on: May 14, 2018, 12:05:36 PM »
Quote
[...] Man stelle sich zwei Videos vor: In einem singen hochrangige Regierungsmitglieder ein Nazi-Lied. Ihre Gesichter, ihre Stimmen wirken komplett authentisch. In dem anderen Video, das offenbar heimlich aufgenommen wurde, scherzt ein sozialdemokratischer Parteichef herablassend über arme Mitbürger. Auch da: Mimik, Gestik und Stimme wirken real. Beide Videos hätten das Potenzial, die heimische Innenpolitik auf den Kopf zu stellen – und in naher Zukunft soll die Fälschung derartiger Clips mühelos möglich sein.

Das illustriert ein aktuelles Video, in dem der ehemalige US-Präsident Barack Obama etwa sagt: "Präsident Trump ist ein totaler, kompletter Vollidiot." Der "Deepfake", ein täuschend echt aussehendes, mithilfe von künstlicher Intelligenz gefälschtes Video, wurde von "Buzzfeed" und dem Schauspieler Jordan Peele geschaffen, um die Problematik darzustellen. "Das ist eine gefährliche Zeit. Künftig müssen wir bei den Dingen aus dem Internet, denen wir vertrauen, wachsam sein", sagt er in einer ähnlichen Stimme wie jene des US-Demokraten, während ein Fake-Obama seine Lippenbewegungen imitiert.

"Wir sind hoffnungslos aufgeschmissen, und je weiter man in die Zukunft blickt, desto schlimmer wird es", warnte der Technologieforscher Aviv Ovadya vor kurzem. Er war einer der Ersten, die Mitte 2016 vor einer Welle an Fake-News warnten. Doch die gefälschten Zeitungsartikel und angeblich unterdrückten Bilder waren nur der Anfang, sagt Ovadya zu "Buzzfeed". Aus den Fake-News werden in Kürze Deepfake-News, die zu einer "Informationsapokalypse" führen werden.

Forscher der University of Washington zeigten bereits im vergangenen Jahr anhand eines gefälschten Obama-Videos, wie leicht Computerprogramme Zielpersonen Wörter in den Mund legen können. Die Informatiker verwendet dafür anfangs frühere Interviewausschnitte Obamas, dann griffen sie auf einen Stimmenimitator zurück. Die Resultate wirkten verblüffend echt – und inspirierten auch das "Buzzfeed"-Video, das von Peele moderiert wird.

Relativ bald gelangten auch Internetnutzer an eine Software, die es erlaubt, Deepfakes mithilfe von künstlicher Intelligenz zu schaffen, und nutzten diese, um Fake-Pornos von Prominenten zu erstellen. Große Plattformen wie Reddit und Pornhub mussten entsprechende Videos sperren.

Möglich waren die Deepfake-Pornos und das Obama-Video von "Buzzfeed" wegen der sogenannten Fake App, die mit Googles Open-Source-Programmbibliothek für künstliche Intelligenz, Tensor Flow, operiert und Adobe After Effects. Beides sind Tools, auf die die breite Masse Zugriff hat. Nur beim Ton musste Peele noch mit seiner Obama-Nachahmung nachhelfen.

Das alles ist nur der Beginn. Denn bald könnten unterschiedliche technologische Neuerungen ineinanderfließen, um den perfekten Fake zu produzieren. Adobe arbeitet etwa an "Voco", einem "Photoshop für Audio". Dieser könnte genutzt werden, um die passende Tonspur zu einem gefälschten Video zu produzieren. Gefälschte Clips vermeintlicher Reden von US-Präsident Donald Trump oder dem nordkoreanischen Diktator Kim Jong-un sind in Kürze kein Problem mehr. Man stelle sich vor, was passiert, wenn diese Videos im Netz landen und sich dort in Windeseile verbreiten. Sicherheitsforscher haben für derartige Vorfälle schon einen Namen: "diplomacy manipulation". Dabei will ein "negativer Akteur" geopolitische Ereignisse fälschen, um bestimmte Ziele zu erreichen.

Durch den aktuellen Hype um digitale Sprachassistenten entwickeln sich künstliche Stimmen immer rasanter weiter, um einen natürlicheren Umgang zwischen Mensch und Maschine zu ermöglichen. Adobe versprach bei einer Vorstellung von Voco, dass das Unternehmen auch daran forsche, wie man unechte Aufnahmen erkennt.

Ein anderes Szenario sind "sachpolitische Simulationen". Denn nicht nur Fälschungstools für Audio und Video werden besser, sondern auch sogenannte Bots, also automatisch agierende Fake-Profile in sozialen Medien. [...] Sie können den Eindruck erwecken, dass bestimmte Stimmungen im Land vorherrschen, woraufhin Politiker ihre Positionen adaptieren. Bislang sind Bots aber mit etwas Mühe identifizierbar, etwa durch ihre Sprache oder ihren unglaubwürdigen Themenmix. Mit Fortschritten im Bereich der künstlichen Intelligenz könnten echte Wählerschaft und Fake-Profile jedoch kaum mehr unterscheidbar sein. Grassroot-Kampagnen – etwa für Volksbegehren – könnten so ihren Wert verlieren, da Manipulationen nicht mehr erkennbar sind.

Im Sicherheitsbereich bereitet Laser Phishing Forschern Kopfzerbrechen. So bezeichnet man mittels künstlicher Intelligenz maßgeschneiderte "Lock"-E-Mails, die Nutzer zum Verraten ihrer Passwörter oder anderer wichtiger Daten verführen sollen. Computerprogramme könnten bald in der Lage sein, soziale Medien automatisiert nach Informationen über Personen abzugrasen, um diesen dann eine zielgenau entworfene Fake-Nachricht zukommen zu lassen. Das könnte auch genutzt werden, um rasch Gerüchte zu verbreiten.

Langfristig könnten derartige Propagandawerkzeuge dazu führen, dass Menschen gar keinen Nachrichten mehr vertrauen, befürchtet Ovadya. Denn auch "echte" Videos und Tonspuren könnten mit Verweis auf die Omnipräsenz von Fakes vom Tisch gewischt werden. So behauptete Donald Trump vor einigen Monaten, der berüchtigte "Access Hollywood"-Videoclip, in dem er sich sexistisch äußert, sei digital manipuliert worden. Ovayda ruft Technologiekonzerne dazu auf, möglichst rasch funktionierende Tools zu entwickeln, um Fälschungen zu identifizieren. Möglichkeiten, um den echten Ursprung eines Bildes zu beweisen, wären etwa kryptografische Anwendungen wie die Blockchain. Außerdem könnten Lokalmedien, die vor Ort berichten, an Bedeutung gewinnen. (fsc, muz, 13.5.2018)

Quote
ahoihoi

Kriege haben auch schon verpixelte Satellitenaufnahmen, die Massenvernichtungswaffen "zeigen" ausgelöst, dafür brauchts kein Deepfake.


Quote
J. Wissarionowitsch Heizschwammerl

Interessante Situation für die Menschheit.

Aber auch nicht unlösbar.
Wir haben gelernt, dass etwas nicht automatisch wahr ist, nur weil es der Dorf-Schamane sagt, wenn es in einer Urkunde steht, in einem Buch gedruckt ist, jemand im Radio sagt und es im TV gesendet wird. Wir lernen gerade (langsam), dass ein Text in einer Newsgroup oder eine Aussage in einem Youtube-Video nicht automatisch die Wahrheit ist, und wir werden auch lernen, dass auch ein offenbar authentisches Video falsch sein kann.

Der Mensch ist bei so einfachen, binären Fragen nicht sooo hilflos. Schwer tut er sich bei Grauschattierungen, Halbwahrheiten, Zusammenhängen, Aus-dem-Zusammenhang-Gerissenem usw.


Quote
Rj01

Wenn Deepfakes Kriege auslösen, ist das nur ein Indiz dafür, dass es sowieso bald passiert wäre!
Jeder der nach 1980 gebohren wurde, sollte mitlerweile begriffen haben, dass keinem Video oder Fotobeweiß mehr geglaubt werden darf. Man kann alles faken, dass ging schon vor Deepfakes einfach. Frei nach Chruchill glaube keine Statistik oder Beweise die du nicht selbst Gefälscht hast! Deepfakes sind keine Gefahr sonder eine Chance für Idividuales Entertainment!


Quote
Matthi99

die sogenannten etablierten Medien haben da auch ihren Beitrag dazu geleistet. Immerhin haben sie mit dem Aufkommen von Social Media, Twitter&Co. angefangen lächerliche, vereinzelte Tweets von irgendwelchen Witzfiguren in den breite Öffentlichkeit zu heben, als "Volksmeinung" hinzustellen.
Unvergessen diverse Sendungen und Polittalkshows wo diese Tweets ständig eingeblendet und zum Diskussionsgegenstand gemacht wurden. Das wäre in etwa so als hätte man früher die Krone-Leserbriefe für bare Münze genommen.


Quote
Jene Grüne Straßenkatze

"Das ist eine gefährliche Zeit. Künftig müssen wir bei den Dingen aus dem Internet, denen wir vertrauen, wachsam sein"

Mussten wir schon immer, und nicht nur bei den Dingen im Internet. Und auch wenn Videos rein oberflächlich überzeugender wirken als Texte: Die subtile Boshaftigkeit eines Textes, in dem die Worte einer Person subtil aus dem Zusammenhang gerissen werden, geht genauso ins Gehirn. Und das gehört zum Handwerkszeug allzuvieler JournalistInnen.


...


Aus: "Deepfake-News täuschen alle Sinne – und könnten Kriege auslösen" Fabian Schmid, Muzayen Al-Youssef (13. Mai 2018)
Quelle: https://derstandard.at/2000074430944/Deepfake-News-taeuschen-alle-Sinne-und-koennten-Kriege-ausloesen

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #41 on: June 26, 2018, 02:05:54 PM »
Quote
[...] Viele Farblaserdrucker hinterlassen auf fast jedem Ausdruck vereinzelte gelbe Punkte, die mit bloßem Auge kaum zu erkennen sind und in kodierter Form Informationen preisgeben, etwa Datum und Uhrzeit des Ausdrucks oder die Seriennummer des Druckers. Nun ist es zwei Forschern der TU Dresden gelungen, die Kodierung der gelben Punkte automatisch zu dechiffrieren und unschädlich zu machen.

Timo Richter und Stephan Escher von der Professur Datenschutz und Datensicherheit haben in einem Experiment 1.286 Ausdrucke von 141 Druckern 18 verschiedener Hersteller untersucht, die solche Tracking-Punkte aufwiesen. Darunter befinden sich Modelle von Epson, Brother, Dell, HP, Xerox, IBM, Canon, Kyocera, Konica Minolta, Lexmark, Ricoh und Samsung.

Neben den bereits bekannten Kodierungsmustern fanden die Forscher diverse weitere, die zwischen 48 und 98 Bits umfassen. Einige Druckerhersteller verwenden mehrere Muster, Epson beispielsweise vier Stück. Außerdem gelang es Richter und Escher, die Muster ohne den bislang erforderlichen manuellen Bildabgleich mit Algorithmen automatisch digital aufzuspüren und größtenteils zu entschlüsseln, welche Informationen im Ausdruck enthalten sind.

In einem Artikel legen die Autoren detailliert dar, wie sie die unterschiedlichen Trackingmuster entschlüsselt und welche Methoden zum Anonymisieren von Dokumenten sie untersucht haben: Die Tracking-Punkte lassen sich einerseits entfernen, andererseits lassen sich auch sämtliche möglichen Stellen der Matrix mit Punkten füllen. Ein dritter – und bei einer späteren Analyse womöglich unverdächtiger – Ansatz ist jedoch, einige Punkte hinzuzufügen und so die Information in der Matrix zu maskieren und unbrauchbar zu machen.

Die Forscher setzen ihre Erkenntnisse auch praktisch um und stellen zum Untersuchen und Verschleiern eigener Dokumente ihr Toolkit DEDA auf GitHub zur Verfügung – eine Sammlung von Python-Skripten, die unter der GPL-v3-Lizenz stehen. Damit lassen sich die Tracking-Punkte auf eingescannten Ausdrucken extrahieren, analysieren und anonymisieren.

US-Medien hatten erstmals 2004 über diese auch als Machine Identification Code bekannte Markierung berichtet. Die Electronic Frontier Foundation (EFF) hatte 2005 dazu aufgerufen, ihr solche Ausdrucke zu schicken und beim Dokumentieren zu helfen. Kurz darauf teilte die EFF mit, ein Code-Muster entschlüsselt zu haben. Angeblich soll der amerikanische Secret Service einige Druckerhersteller zur Implementierung der gelben Farbpunktmarkierung verpflichtet haben – mutmaßlich als Mittel gegen das Verbreiten von Falschgeld und anderen Fälschungen.

Eine individuelle Druckerkodierung war womöglich 2017 einer Whistleblowerin zum Verhängnis geworden: Sie hatte vertrauliche Dokumente der NSA zu einer möglichen russischen Beeinflussung der US-Präsidentschaftswahl an ein Magazin weitergegeben, das diese wiederum zur Verifikation der NSA vorlegte. Kurz nach der Veröffentlichung wurde die Informatin (die Mitarbeiterin eines NSA-Dienstleisters war) verhaftet und legte ein Geständnis ab. (tiw)

Quote
     jetzt nicht - Schatz, 25.06.2018 17:02

Wenn das die STASI noch erleben dürfte. Die haben noch mühsam Schreibmaschinen und -typenproben gesammelt, um den Staatsfeinden auf die Schliche zu kommen - jetzt geht es per Treiberupdate.


...


Aus: "Dresdner Forscher überlisten Tracking-Punkte bei Laserdruckern" Tilman Wittenhorst (25.06.2018)
Quelle: https://www.heise.de/newsticker/meldung/Dresdner-Forscher-ueberlisten-Tracking-Punkte-bei-Laserdruckern-4090876.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #42 on: September 08, 2018, 08:18:37 PM »
Quote
[...] Der erste Amtstag begann mit einer Lüge: Angeblich sollen die Medien die Zahl der Zuschauer bei Donald Trumps Amtseinführung gefälscht haben. Wie es wirklich war, offenbart nun ein Untersuchungsbericht.

"Das war das größte Publikum, das je einer Amtseinführung beigewohnt hat. Punkt", verkündete Sean Spicer am Tag nach der Amtseinführung Donald Trumps im Januar 2017. Veröffentlichte Fotos, die anderes zeigen, seien von den Medien gefälscht.

Die Behauptung des damaligen Sprechers des Weißen Hauses war nur eine von einer Reihe nachweislicher Falschaussagen. Und sie folgte auf einen Morgen voller Hektik, ausgelöst von einem fassungslosen, frisch vereidigten US-Präsidenten, der sich auf Twitter mit einem Bildervergleich seiner Inauguration und der von Obama Barack acht Jahre zuvor konfrontiert sah - zu seinen Ungunsten.

Was dann passierte, darüber geben jetzt bekannt gewordene Details einer Untersuchung des Generalinspektors der US-Innenbehörde von 2017 Aufschluss. Die Dokumente lagen zuerst der britischen Zeitung "Guardian" vor.

Trump inauguration crowd photos were edited after he intervened
Exclusive: documents released to Guardian reveal government photographer cropped space ‘where crowd ended’
https://www.theguardian.com/world/2018/sep/06/donald-trump-inauguration-crowd-size-photos-edited

Am Ende saß ein Fotograf der Regierung vor seinem Computer und bearbeitete die Bilder, damit die Menschenmenge auf der National Mall größer als tatsächlich erschien: Er schnitt sie neu zu und entfernte den Himmel und die leeren Abschnitte auf dem Feld. Der Untersuchungsbericht klärt nicht darüber auf, welche Fotos bearbeitet wurden und ob sie veröffentlicht wurden.

Um 9.30 Uhr seines ersten Tages im Amt hat der konsternierte Trump mit dem Direktor des National Park Service (NPS), Michael Reynolds, telefoniert. Der NPS hatte die Veranstaltung auf der National Mall kontrolliert, Fotos freigegeben, und auch auf seinem offiziellen Twitteraccount war der ungünstige Bildervergleich zu sehen.

Eine NPS-Kommunikationsmitarbeiterin, deren Name wie die anderer Angestellter im Bericht geschwärzt worden war, berichtete den Ermittlern laut "Guardian": Reynolds habe sie nach seinem Gespräch mit Trump angerufen und gesagt, dass der Präsident Fotos von der Amtseinführung haben wolle.

Sie sagte, "sie habe den Eindruck gehabt, dass Präsident Trump Bilder sehen wollte, die mehr Zuschauer in der Menge zeigen sollten", und dass die Fotos, die bisher freigegeben worden waren, "eine Menge leerer Abschnitte" darstellten. Sie nahm an, dass die angeforderten Bilder in diesem Sinne neu zugeschnitten werden sollten, allerdings habe Reynolds das so explizit nicht gesagt. Daraufhin kontaktierte sie den zuständigen NPS-Fotografen.

Eine weitere NPS-Anstellte berichtete den Ermittlern, dass Spencer sie nach Fotos gefragt hätte, die "genau die Größe der Menschenmenge bei der Amtseinführung" zeigen sollten. Sein Wunsch lief ihrer Meinung nach darauf hinaus, dass die Zuschauer den Hauptteil des Bildes ausfüllen sollten. Auch sie fragte den NPS-Fotografen an. Dieser sagte, dass er gebeten wurde, zurück in sein Büro zu gehen und einige neue Bilder für eine zweite Aussendung fertig zu machen. Er nahm an, dass das gezielte Zuschneiden gewünscht sei, wenn auch nicht spezifisch angefragt.

Die Untersuchung im vergangenen Jahr wurde eingeleitet, nachdem es Beschwerden gab, wonach der NPS Trumps Autorität untergraben wolle und das Gespräch mit Reynolds an die "Washington Post" geleakt habe. Der Generalinspektor fand dafür keine Bestätigung.

Laut der nun veröffentlichten Dokumente war Sean Spicer eng in den Ablauf der Fotobearbeitung eingebunden. Zweimal telefonierte er an jenem Tag mit NPS-Direktor Reynolds. Am Abend um 17.40 Uhr eröffnete er die inzwischen berüchtigte Pressekonferenz.



Aus: "Amtseinführung von Donald Trump: US-Behörde hat Fotos nachträglich bearbeitet " (Samstag, 08.09.2018)
Quelle: http://www.spiegel.de/politik/ausland/amtseinfuehrung-von-donald-trump-fotos-wurden-von-behoerden-bearbeitet-a-1227163.html

-

Quote
KingTut

2. Fake President
Der maligne Narzissmus von Trump schreckt nicht einmal vor Geschichtsfälschung zurück. Nichts anderes stellt diese nachträgliche Bildbearbeitung dar. Wenn man sich vergegenwärtigt, wie heftig er die unabhängigen Medien als "Fake News" beschimpft, wenn ihm deren Nachrichten nicht gefallen ...


Quote
ich_sach_ja_nur

6. Cropping = Zuschneiden
Ich hab ja nichts gegen englischsprachige Begriffe, wenn sie etwas mit einem Wort einfacher beschreiben, als es in deutsch möglich wäre. Aber warum muss hier von “croppen“ geredet werden, wo doch der deutsche Begriff “zuschneiden“ oder auch “beschneiden“ genauso gut wenn nicht noch besser beschreibt, was hier mit den Aufnahmen gemacht wurde? Das Beschneiden eines Fotos auf einen passenden Ausschnitt (sic!) ist nicht nur legitim und gang und gäbe, sondern auch wichtig und richtig für Bildkomposition, Bildaussage und -wirkung. Das wird in jedem VHS-Kurs gelehrt, warum sollen sich die Profis un Washington nicht auch dieser Technik bedienen?


Quote
h.kuebler

8. Na und
Er hat von dem Foto die Leerstellen wegschneiden lassen. Hab ich bei Fotos auch schon gemacht. Wo soll das Problem sein? Jeder, der will und der die beiden Bilder der beiden Präsidenten-Einführungen vergleicht, sieht doch, dass viel mehr Leute bei Obama waren. Ich kann da keine Geschichtsfälschung erkennen. Auf jedem Foto sieht man doch nur einen Ausschnitt der Wirklichkeit, zumal dann, wenn Menschenmengen fotografiert werden. Trump macht wirklich viel Stuss, aber das hier ist keine Schlagzeile wert.


Quote
interstitial

10. Hmm
Das wirft auch kein gutes Licht auf den betreffenden Mitarbeiterstab. Schließlich halte ich Donald Drumpf für kaum in der Lage, im Alleingang den ganzen Unfug zu veranstalten, der in den USA derzeit passiert. Aber was hier geschildert wird, riecht ja eher nach einer Art von vorrauseilendem Kadavergehorsam, Mit dem viel Übles möglich ist, und nacher war keiner Schuld. Sehr unangenehm. Steiles Machtgefälle ist immer unangenehm, aber ein steiles Machgefälle, das im Weißen Haus von einem randalierenden Narzissten auf rückgratlose Duckmäuser ausgeht ist halt leider für die ganze Welt gefährlich.

...


Quote
Leinad 07

12. @msgeorg / sehr richtig
Egal wie man es auch nennt: jedes Foto an sich ist ein Ausschnitt. Ob ich nun bei oder nach der Aufnahme den Ausschnitt wähle, ist im Grunde egal. Sicher ist es legitim ein Event möglichst vorteilhaft wider zu geben. Nicht legitim ist es, Zahlen zu fälschen oder bewusst (beschnittene) Fotos zur Untermauerung falscher Tatsachen einzusetzen.


Quote
periplus heute, 13:36 Uhr
14. @msgeorg
Bildbeschnitt ist nicht legitim, wenn dabei Bildteile entfernt werden, welche die Aussage des Bildes verändern. Geschieht dies absichtlich, kann man vielleicht nicht von einer Fälschung aber sehr wohl von Manipulation sprechen. Und hier wurden die manipulierten Bilder sehr wohl genutzt, um die öffentliche Meinung zu beeinflussen. Wer so arbeitet betreibt Propaganda, und keinen Journalismus. Beispiel: https://toinformistoinfluence.com/2012/06/15/images-a-matter-of-perspective/ - oder in einem weniger ernsthaften Zusammenhang: https://www.elitereaders.com/wp-content/uploads/2015/09/funny-cropped-photos-9.jpg


...
« Last Edit: September 08, 2018, 08:21:30 PM by Textaris(txt*bot) »

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #43 on: October 15, 2018, 05:21:02 PM »
Quote
[...] Facebook hat im Vorfeld der Kongresswahlen in den USA am 6. November mehr als 800 Benutzeraccounts gesperrt. Damit will das Unternehmen gegen die Verbreitung von Falschmeldungen vorgehen. Insgesamt habe man 559 Seiten und 251 Nutzerkonten entfernt, die stetig die Regeln gegen Spam und koordinierte Aktivitäten unauthentischer Seiten verstoßen hätten, teilte das Unternehmen in einem Blogeintrag mit.

"Menschen müssen den Verbindungen vertrauen können, die sie auf Facebook eingehen", schrieben Nathaniel Gleicher, Facebook-Chef für Cybersicherheit, und der Produktverantwortliche Oscar Rodriguez. Daher gehe Facebook gegen Netzwerke von Accounts vor, die die Nutzer über ihre Identität und ihre Absichten täuschten.

Dabei gehe es um Benutzerkonten, Seiten und Gruppen, die versuchten, politische Auseinandersetzungen in den USA, dem Nahen Osten, Russland oder Großbritannien anzuheizen. Ein Großteil werde aber nicht mit einer politischen Absicht betrieben, sondern schlicht, um Geld zu verdienen. Die Betreiber verbreiteten massenhaft Inhalte über ein Netzwerk von Seiten und Gruppen, um Nutzer auf legitim scheinende Internetseiten zu locken. In Wirklichkeit handele es sich aber um "Werbefarmen".

"Diese Netzwerke benutzen heute vermehrt sensationalistische politische Inhalte – unabhängig von einer politischen Ausrichtung – um ein Publikum aufzubauen und Nutzerströme auf ihre Seiten zu locken", schrieben Gleicher und Rodriguez. Oft erweckten sie den Eindruck, beliebter zu sein, als eigentlich der Fall ist, da die Seiten sich massenhaft gegenseitig Likes geben und ihre Beiträge teilen.

Laut einem Bericht der Washington Post hatte eine der gesperrten Seiten mehr als 3,4 Millionen Likes und mehr als 3 Millionen Abonnenten. Sie habe für sich in Anspruch genommen, als erste Onlinepublikation Donald Trump unterstützt zu haben. Es seien aber auch Seiten darunter, die in ihren Beiträgen Trump und die Republikaner angegriffen hätten.

Das soziale Netzwerk sieht sich vor allem seit dem US-Präsidentschaftswahlkampf 2016 dem Vorwurf ausgesetzt, nicht genug gegen gefälschte Accounts vorzugehen. Solche Seiten sollen massenhaft Falschmeldungen verbreitet und so den Wahlkampf beeinflusst haben. Bereits im August hatte Facebook 652 miteinander verknüpfte Konten, Seiten und Gruppen gesperrt. Diese sollen aus dem Iran und Russland gesteuert worden sein.


Aus: "Facebook sperrt Hunderte Spamkonten" (12. Oktober 2018,)
Quelle: https://www.zeit.de/digital/internet/2018-10/us-midterm-wahlen-facebook-falschinformation-propaganda

Quote
Galgenstein #4

Die Auffälligkeiten vollziehen sich nicht nur auf Facebook, sondern oft auch in den Kommentarbereichen, bei denen man oft den Eindruck gewinnt, dass eine Minderheit überproportional stark vertreten ist. In den Wahlergebnissen spiegelt sich das nicht wieder. Ähnlich die Klickkamarilla bei der FAZ. Je extremer eine Meinung formuliert wird, desto mehr Likes erhält sie und dies oftmals mit erstaunlicher Geschwindigkeit.


Quote
Brustring #4.2

Die FAZ ist noch harmlos. Bei Focus oder der Welt zieht es mir jedes mal die Schuhe aus.


Quote
Something_is_rotten #4.3

... Nachvollziehen kann ich Ihre Verschwörungsvermutung nicht, weil ich mir nicht vorstellen kann, dass Klicks auf Kommentare wirklich so wichtig sein sollen. ...


Quote
Uncritical_Threshold #4.7

"Nachvollziehen kann ich Ihre Verschwörungsvermutung nicht"
Naja wenn bei fast jeder Onlinezeitung beispielsweise Pro-AfD Kommentare mehr oder zumindest genausoviele Empfehlungen kriegen, wie Kommentare die kritisch zur AfD stehen, obwohl die Partei laut Umfragen zwischen 14 und 19 % steht, dann fragt man sich schon woher diese Unverhältnismäßigkeit kommt. Mit "Verschwörungsvermutung" hat das nichts zu tun, es ist ja eindeutig unproportional. Und es gibt ja eigentlich nur zwei Erklärungen dafür, entweder verbringt ein wesentlich größerer Anteil der AfD-Wähler Zeit in Kommentarspalten, oder ein Teil dieser Likes kommt von Bots.


Quote
contradore #4.9

"Und es gibt ja eigentlich nur zwei Erklärungen dafür, entweder verbringt ein wesentlich größerer Anteil der AfD-Wähler Zeit in Kommentarspalten, oder ein Teil dieser Likes kommt von Bots."

exakt.

hier im forum vergleiche ich als simple faustregel die anzahl der maximal-empfehlungen mit der anzahl der gesamtkommentare.

es gibt lediglich zwei themenbereiche, bei denen man (zumindest zwischenzeitlich) mehr maximal-empfehlungen als kommentare beobachten kann: wenn es um die afd oder um russland geht.


Quote
Nette Haferflocken #4.10

Ein Forist beschrieb, daß die Russlanddeutschen besser vernetzt seien und vieleicht deshalb mehr klicks zustande kommen.
Bei der afd vermute ich auch manchmal einen Ortsverband nebst Freunden bei socialmedia-event.Ich glaube aber nicht an eine Mehrheit.
Die Mehrheit verabredet sich nicht zum liken.
Interessant ist aber auch, manchen Artikel mit im weitesten Sinne Russland zum Thema, bekommt die Gegenseite der "Putin-Fan-Boys" und "Kreml-Trolle", mehr Sterne.
Bizar waren manche aufpoppende Kommentare beim Artikel über die Pipeline Nordstream2


Quote
Bberliner #4.11

Das Problrm ist, daß die "move fast break things"-Leute nie wirklich versucht haben zwischenmenschliche Kommunikation nach Offline-Vorbild nachzubauen (individuell und nach Tagesform unterschiedliche Kommunikationsformen und Inhalte, getragen von Respekt, Rücksicht, Interesse, Toleranz, Neugier - nur in Krisenmomentem von Gebrüll und Provokation) Nach Marketinglogik erzeugen Entertainment, Provokation und Kontroverse aber eben am meisten Interaktion und Reichweite. Alles andere hat Mark und Jack erst angefangen zu interessieren, als es längst zu spät war, die Demokratie ist durch die kaputten Algorithmen sozialer Netzwerke längst arg gebeutelt. ...


Quote
contradore #4.12

"Ein Forist beschrieb, daß die Russlanddeutschen besser vernetzt seien und vieleicht deshalb mehr klicks zustande kommen."

ich rede nicht von mehr klicks als bei einem anderen kommentar sondern von mehr klicks, als es überhaupt kommentare gib.

soetwas finden sie sonst nicht einmal ansatzweise, bei welchem themenbereich auch immer - selbst bei einem nachruf auf mutter teresa, mahatma gandhi und albert schweitzer in personalunion.


Quote
SPON-Flüchtling #17

Ist Bellingcat schon mit der Analyse der gesperrten Konten beschäftigt?


Quote
Offene Augen #21

"Mir ist aufgefallen, dass Arschlöcher mehr zu sagen haben auf der Welt, seit Social Media so erfolgreich ist. Auf Bummer-Plattformen ist ein Pendeln zwischen zwei Extremen zu beobachten: Entweder gerät man in einen von Arschlöchern ausgelösten Shitstorm, oder alle sind supervorsichtig und aufgesetzt nett. Die größten Arschlöcher ziehen die meiste Aufmerksamkeit auf sich, und daher bestimmen sie letztlich häufig die Atmosphäre einer Plattform."

Jaron Lanier


...

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 9210
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #44 on: October 19, 2018, 03:43:38 PM »
Quote
[...] Die New Yorker Staatsanwaltschaft geht Hinweisen auf bis zu 9,5 Millionen Identitätsanmaßungen nach. Lobbyisten sollen im Verfahren zur Abschaffung der Netzneutralität Millionen Stellungnahmen eingereicht haben, wofür sie fremde Namen und Adressen missbraucht haben. Diese Woche hat die Staatsanwaltschaft Subpoena gegen mehr als ein Dutzend Lobbyfirmen und -gruppen erwirkt, wie die New York Times berichtet.

Eine Subpoena verpflichtet den Adressaten unter US-Recht, bestimmte Informationen, Unterlagen oder Gegenstände herauszugeben, die dann in einem Gerichtsverfahren als Beweise verwendet werden können. In diesem Fall geht es wohl vor allem um Auskünfte und Unterlagen.

Ein wichtiger Teil des Netzneutralitätsverfahrens bei der US-Regulierungsbehörde Federal Communications Commission (FCC) im Vorjahr war eine öffentliche Konsultation. Jedermann konnte sich einbringen und inhaltliche Gründe sowie rechtliche Argumente vorbringen. Jede Eingabe wurde Teil des offiziellen Akts und kann zur Begründung der Entscheidung herangezogen werden sowie bei einer eventuellen späteren gerichtlichen Überprüfung eine Rolle spielen.

Meistens beteiligen sich vor allem Insider, doch die (damals geplante) Abschaffung der Netzneutralität hat nicht weniger als 22 Millionen Eingaben hervorgerufen. Im Dezember war die New Yorker Staatsanwaltschaft noch von einer Million Eingaben unter fremdem Namen ausgegangen. Diese Zahl soll inzwischen auf bis zu 9,5 Millionen gestiegen sein. Dabei wurden auch Namen Verstorbener verwendet. Zudem kam eine erstaunliche Menge an Beiträgen (angeblich) von Russen.

Überhaupt waren von den 22 Millionen Stellungnahmen nur etwa 800.000 einzeln abgefasst, wie Forscher der Stanford Universität festgestellt haben. Der Rest bestand aus vielfach wiederholten gleichlautenden Schreiben oder einer Melange aus recycelten Phrasen. Die Forscher haben auch eine Stichprobe von 1000 einzigartigen Stellungnahmen begutachtet. Dabei zeigte sich, dass nur drei Eingaben für die Abschaffung der Netzneutralität waren, 997 dagegen.

Die Staatsanwaltschaft möchte nun herausfinden, wie die nie dagewesene Lawine an Textbausteinen zustande gekommen ist. Irreführende Nutzung sowie Missbrauch fremder Identitäten ist in den USA strafbar. Die Subpoena richten sich gegen Lobbyisten auf beiden Seiten der Auseinandersetzung. Manche Lobbyisten halten bisher sogar ihre Auftraggeber geheim.

Die republikanische Mehrheit in der FCC selbst hat offenbar wenig Interesse an Aufklärung. Die New York Times hat inzwischen die FCC verklagt, weil diese Auskünfte nach dem Informationsfreiheitsgesetz verweigere. Jessica Rosenworcel, eine der beiden Demokratinnen in der FCC, begrüßte hingegen das Vorgehen der New Yorker Staatsanwälte. (ds)


Aus: "Millionen fremder Namen zur Abschaffung der Netzneutralität missbraucht" Daniel AJ Sokolov (19.10.2018)
Quelle: https://www.heise.de/newsticker/meldung/Millionen-fremder-Namen-zur-Abschaffung-der-Netzneutralitaet-missbraucht-4196015.html