Author Topic: [Information und verdeckte Manipulation... ]  (Read 16090 times)

0 Members and 1 Guest are viewing this topic.

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #30 on: November 24, 2015, 09:40:07 AM »
Quote
[...] Aus den Vorwürfen der US-Behörden wird Gewissheit: Auch in größeren Dieselautos von VW und den Konzerntöchtern Audi und Porsche hat eine verbotene Software für niedrigere Abgaswerte gesorgt. Audi räumte am Montagabend die Installation eines Programms in V6 TDI 3,0-Liter-Motoren ein, das in den USA als illegale Software gilt. ...


Aus: "Abgas-Skandal bei VW: Audi gibt nun doch verbotene Software zu" (24.11.2015)
Quelle: http://www.heise.de/newsticker/meldung/Abgas-Skandal-bei-VW-Audi-gibt-nun-doch-verbotene-Software-zu-3015360.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #31 on: December 17, 2016, 05:33:31 PM »
Quote
[...] In geleakten E-Mails aus dem Postfach des türkischen Energieministers und Schwiegersohn des Staatspräsidenten Recep Tayyip Erdoğan, Berat Albayrak findet sich angeblich auch ein Beleg für die Gründung einer gemeinen Troll-Truppe, mit der Erdoğan soziale Medien unter seine Kontrolle bringen wollte. Das fünfzehnseitige Dokument stammt aus einer Wikileaks-Veröffentlichung von fast 60.000 E-Mails, schreibt Die Welt. Es bestätigt demnach ältere Berichte über eine 6000 Personen starke "Troll-Armee", die angeblich im Internet nach russischem Vorbild gegen Kritik an Erdoğan vorgeht. ... In dem nun von Wikileaks öffentlich gemachten Dokument wird laut der Welt behauptet, die staatlich kontrollierten Medien hätten "Desinformationen" und "Provokationen" der außerparlamentarischen Opposition zu wenig entgegenzusetzen. Eine "virtuelle Werkstatt" müsse deswegen die Dominanz des Gegners in den sozialen Medien brechen. Dazu seien Social-Media-Experten, Akademiker, Militärs mit dem Fachgebiet psychologische Kriegsführung sowie Techniker und Grafiker plus ein Budget von mehr als 200.000 US-Dollar nötig. Das sei auch umgesetzt und rasch deutlich aufgestockt worden, so dass wenige Monate später bereits von 6000 Trollen die Rede war, ohne dass die Regierungspartei AKP dem widersprochen habe.

Auch das hinderte die türkische Führung aber in der Folge nicht daran, immer wieder den Zugang zu sozialen Medien zu sperren, auch im Rahmen des massiven Vorgehens gegen die Opposition. Derzeit reißt Erdoğan immer mehr Macht an sich und geht massiv gegen Kritiker vor. Seit dem gescheiterten Putsch vom Juli hat sich das noch einmal beschleunigt und zuerst vor allem auch jene Teile der Presse und Medien getroffen, die noch nicht vom Staat kontrolliert wurden. Deshalb ist es inzwischen schwer, unabhängige Berichte aus dem Land zu bekommen, auch solche über die von Wikileaks öffentlich gemachten Dokumente. (mho)

Quote
     FrogmasterL, 13.12.2016 20:53

Wer glaubt eigentlich ernsthaft, dass es keine deutsche Troll-Armee gibt? Dass diverse Ministerien in der Vergangenheit Redaktionen mit vorfabrizierten Beiträgen "versorgt" haben, ist bekannt. Von dort ist es zum Verbreiten vorformulierter Kommentare nur ein kleiner Schritt.


...


Aus: "Wikileaks: Angeblich Beleg für Gründung von Erdoğans "Troll-Armee"" Martin Holland (heise online, 13.12.2016)
Quelle: https://www.heise.de/newsticker/meldung/Wikileaks-Angeblich-Beleg-fuer-Gruendung-von-Erdogans-Troll-Armee-3569464.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #32 on: April 27, 2017, 12:55:55 PM »
Quote
[...] Vor etwa drei Jahren begann der Rentner Benčík Screenshots von öffentlichen Facebook-Profilen und Websites extremistischer Personen und Vereinigungen anzufertigen. Neonazis, Rassisten, Scharlatane, Verschwörungstheoretiker. Das Material veröffentlichte er kommentiert in seinem Blog. Seine – ganz privaten- Aktivitäten fanden schon bald ein außerordentliches Echo. Aufmerksamkeit der Öffentlichkeit erregte er auch dadurch, dass sich jene laut zu Wort meldeten, deren Gedanken und Ansichten er sichtbar gemacht hatte. Die Ertappten sperrten oder löschten ihre Profile. Sie stritten ab, die Autoren zu sein, oder behaupteten, jemand habe ihre Konten gehackt.

... Benčík sagt: „Wir leben in der postfaktischen Epoche, wo Emotionen, und seien sie durch offensichtliche Lügen hervorgerufen, mehr Gewicht haben als wahrheitsgetreue Informationen. In einer Epoche, in der der Zugang zum Internet gleichzeitig Fluch und Segen ist. In der eine durch seriöse, langjährige Arbeit von Spitzenfachleuten verifizierte Theorie oder Information für viele weniger zählt als das Geschwafel eines geschickten Manipulators oder halbgebildeten Scharlatans. In einer Epoche der Oberflächlichkeit, wo es an Bereitschaft mangelt, seine Informationsquellen zu überprüfen und die Beweggründe derjenigen aufzudecken, die Falschmeldungen verbreiten. In einer Epoche von bezahlten Trollen und nützlichen Idioten.“


Aus: "Jeder kann etwas dagegen tun" Ein Kommentar von Michal Hvorecky (27.4.2017)
Quelle: https://www.taz.de/Debatte-Rechtspopulismus-in-Europa/!5401967/


Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #33 on: April 28, 2017, 01:59:45 PM »
Quote
[...] Wer sich in diesen Monaten bei Facebook einloggt, betritt ein Schlachtfeld. Er kann Spielball werden in einem neuartigen Informationskrieg, in dem Geheimdienste und andere Gruppen Meinungen, Debatten, Wahlen beeinflussen - mit Mitteln, die immer schwerer zu durchschauen sind.

Zu diesem überraschend deutlich formulierten Befund kommt ein Bericht mit dem Titel "Informationsoperationen und Facebook", den das Netzwerk selbst veröffentlicht hat. Laut dem Sicherheitschef des Konzerns, Alex Stamos, manipulieren Geheimdienste und andere Interessengruppen per Facebook insbesondere Wahlkämpfe mit hohem Aufwand und detaillierter Vorbereitung - mittels Tarnprofilen, dem verschleierten Lancieren von Informationen und strategischem Gepöbel.

Bemerkenswert ist das 13-seitige Dokument ("Information Operations and Facebook" By Jen Weedon, William Nuland and Alex Stamos April 27, 2017  Version 1.0 https://fbnewsroomus.files.wordpress.com/2017/04/facebook-and-information-operations-v1.pdf), das Stamos mit zwei bekannten Sicherheitsexperten verfasst hat, in zweierlei Hinsicht: Zum einen zählt er die Komponenten und Verschleierungstaktiken neuartiger Desinformationskampagnen auf.

Zum anderen zeigt er ein ganz neues Problembewusstsein und -eingeständnis bei Facebook. Dessen Gründer Mark Zuckerberg tat vor einem halben Jahr noch so, als habe sein Portal keinerlei Einfluss auf den US-Wahlkampf gehabt. Nun macht Facebook deutlich, dass die eigene Plattform eine zentrale Rolle bei der Verbreitung von Desinformation spiele. ... Stamos ist als Sicherheitschef auch Facebooks Verbindungsmann zu Sicherheitsbehörden und Geheimdiensten. Er glaubt, Facebook müsse die eigene Abwehr umstellen. Habe man sich bislang auf traditionelle Angriffe wie das Hacken von Accounts, Spam und Abzocke konzentriert, muss Facebook jetzt mit "subtileren und heimtückischeren" Manipulationsversuchen fertigwerden.

Dabei spielt laut dem Report die Gründung von Seiten von Tarnorganisationen eine große Rolle. Effektiv sei etwa, Retortengruppen zu bestimmen Themen zu gründen - da diese sich später verselbständigen können, weil genügend wirkliche Nutzer mitmachen. Auch Tarnprofile seien ein beliebtes Mittel. Sie unterscheiden sich von Social Bots, also als Menschen getarnten Programmen, weil sie eben von Menschen betriebene Fake-Profile sind ...

Solche Profile und Seiten führen laut dem Bericht zu einer "false amplification" - wörtlich übersetzt einer unechten Vervielfältigung - bestimmter Meinungen. Die Ideologie, die sie transportieren, erscheint anderen Nutzern dank den koordinierten Aktionen verbreiteter und mehrheitsfähiger, als sie tatsächlich ist. So könne die öffentliche Meinung manipuliert, eine Diskussion gezielt verpestet werden.

Bestimmte Inhalte werden auf der Plattform so breit wie möglich gestreut, die Tarnprofile und -seiten erstellen außerdem aufwiegelnde und rassistische Meme, die sich viral verbreiten - weil andere Nutzer ihnen zustimmen oder vom Inhalt empört sind.

Ziel der Aktionen sei es nicht nur, eine bestimmte Sichtweise zu befördern. Es gehe längerfristig auch darum, in sozialen Netzwerken Misstrauen in politische Institutionen zu säen und Verwirrung durch widersprüchliche Informationen zu stiften.

Facebook habe mehrfach im Rahmen der US-Wahl solche Akteure entdeckt, deren Nachrichten das gesamte politische Spektrum ins Visier nahmen mit dem Ziel, Spannungen zwischen Gruppen zu verschärfen und deren Unterstützerbasis zu erschüttern.

Viele solcher Aktionen sind laut Facebook von Akteuren gesteuert worden, die die entsprechenden Sprachkenntnisse und grundlegende Kenntnisse über die politische Lage im Zielland hätten. Das setze viel Koordinierung und Planung voraus. Übersetzt: Ressourcen und Kenntnisse, über die in erster Linie Geheimdienste verfügten.

...

Quote
soron heute, 13:08 Uhr
2. 90% aller weltweit laufenden Militäreinsätze sind
Psychologische Kriegsführung wird wesentlich häufiger eingesetzt als jedes andere Mittel. Für jeden Militärschlag gegen einen syrischen Flugplatz sind 9 Desinformations- oder Beeinflussungskampagnen am laufen. Ich sage nicht, dass Russland hier zu Unrecht beschuldigt wird. Ganz sicher nicht. Aber ich lehne es ab, dass in diesem Zusammenhang hauptsächlich auf Russland eingeprügelt wird - andere Staaten, allen voraun die USA, sind hier mindestens ebenso aktiv. Hatte nicht sogar damals während des Irakkriegs die (auch finanzielle) Wahlkampfunterstützung der USA für die oppositionelle CDU und gegen Gerhard Schröder's Regierung für ernsthafte Verstimmung gesorgt ? Von daher: Alles beim alten, nur die Mittel haben sich geändert.


Quote
bencolonia heute, 13:11 Uhr
5. Eigene Verantwortung
Sind wir tatsächlich so unmündig, dass wir alles glauben, was in facebook und den Zeitungen steht? Heutzutage ist alles Geschriebene einem Einfluss unterlegen, so dass man alles stets mit Vorsicht zu genießen hat. Meine Meinung mache ich mir selber und vertraue nur sehr wenigen Quellen. Glaubwürdigkeit und vor allem Vertrauen verdient man sich bei mir nicht in 5 Minuten, in denen ich einen x-beliebigen Text lese. Jeder ist gefragt, was er für plausibel und vertrauenswürdig hält. Als erstes hinterfragt man sich selber, dann andere und schlussendlich sucht man nach der Quelle der Information. Alles andere wäre dumm und hochgradig naiv.


Quote
darrinh heute, 13:26 Uhr

13. eigene Verantwortung #2
Ich sehe das genauso wie #5. Und verstehe es nicht, wie unzählige "mündige" Bürger scheinbar unreflektiert Postings kommentieren oder gar weiterleiten. Desinformation funktioniert nur so gut, wie die zu "Desinformierdenden" mitmachen.


Quote
BoMbY heute, 13:31 Uhr

[Der Bericht benennt Russlands Geheimdienste als Urheber solcher Kampagnen, wenn auch indirekt. Formuliert ist es so: "Unsere Daten widersprechen nicht der Zuschreibung, die der US-Geheimdienstdirektor in seinem Bericht vom 6. Januar 2017 vorgelegt hat". Dies ist der von Ex-US-Präsident Barack Obama beauftragte Report, der laut der veröffentlichten Kurzversion zum Schluss kommt, dass Wladimir Putin selbst eine Desinformationskampagne zur Beeinflussung der US-Wahl angeordnet habe. Das Ziel: Donald Trump zu begünstigen.]

22. Hilfe die Russen kommen!
Die CIA, NSA, und alle anderen von unseren Wertewesten-Diensten würden natürlich niemals nicht soziale Netzwerke für Desinformation nutzen (obwohl dort das höchste PSYOPS-Budget weltweit zur Verfügung stünde) - dafür hat man ja schon die "freie" Presse gut genug im Griff.


...


Aus: "Geheimdienste nutzen Facebook zur Desinformation" Fabian Reinbold (28.04.2017)
Quelle: http://www.spiegel.de/netzwelt/web/facebook-geheimdienste-nutzen-das-soziale-netzwerk-zur-desinformation-a-1145224.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #34 on: June 13, 2017, 01:35:47 PM »
Quote
[...] Von Thailand aus sollen drei Chinesen Klickbetrug im großen Stil betrieben haben. In ihrem Versteck wurden Zimmer voller iPhones und Hunderttausende Sim-Karten gefunden. ... Die Aufgabe der chinesischen Klickfarm in Thailand sei es nun gewesen, mit dem iPhones beispielsweise Fake-Likes für bestimmte Produkte zu hinterlassen oder Produkte über von Bots generierte Meldungen im sozialen Netzwerk von WeChat zu bewerben. Thailand sei wegen seiner günstigen Mobilfunktarife dafür ausgewählt worden. Wer ihre Auftraggeber sind, haben die drei Festgenommenen nicht preisgegeben. Wohl aber, dass diese ihnen die iPhones besorgt und für ihre Arbeit monatlich 150.000 Baht, umgerechnet knapp 4000 Euro, gezahlt haben.

... Am meisten scheint Thailands Polizei aber zu beschäftigen, wie die drei Männer zu mehreren Hunderttausend Sim-Karten gekommen sind. Bei einer weiteren Durchsuchung am Montag hatten Beamte in einem anderen Haus weitere rund 100.000 Sim-Karten gefunden, die derselben Gruppe zugeordnet werden. Mobilfunkanbieter sind in Thailand gesetzlich verpflichtet, die Daten von Mobilfunknutzern aufzunehmen, sobald diese eine Sim-Karte aktivieren. Dass die Festgenommenen selbst diese große Zahl an Sim-Karten besorgt haben, schließt der örtliche Polizeichef aus.

...


Aus: "Hunderte iPhones gefunden - Polizei hebt Klickfarm in Thailand aus" (13.06.2017)
Quelle: http://www.spiegel.de/netzwelt/web/klickbetrug-polizei-hebt-klickfarm-in-thailand-aus-a-1151900.html


Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #35 on: November 02, 2017, 10:12:37 AM »
Quote
[....] Dirty Campaigning ist nichts Neues. Lyndon B. Johnson hat es schon seinerzeit mit gutem Erfolg praktiziert. Und 2016 hat die enorme Menge von Fake News mit Verleumdungen übelster Art zum Sieg Donald Trumps nicht wenig beigetragen. Neues Produkt dieser Technik ist nicht zuletzt die Idee, per Website scheinbar für einen Kandidaten zu werben, ihm dabei aber allmählich immer brutalere Ideen zu unterschieben, Rassismus, Faschismus und was sich noch alles in diversen Schmutzkübeln finden lässt, um als scheinbarer Freund das Opfer als richtigen Widerling zu zeigen. Spezialisten jeder Partei analysieren die Meinungen und Sorgen der einzelnen Schichten der Bevölkerung und auch ihre Ängste und Hoffnungen, um darauf die je eigenen Wahlprogramme und Wahlkampagnen abzustimmen. Aber das können künstliche Intelligenzen (KIs), die mit einem künstlichen neuronalen Netz, einem lernfähigen Algorithmus, ausgestattet sind, allmählich besser. Sie können weit größere Datenmengen verarbeiten, so die Interessen- und Motivationslage potenzieller Kunden genauer erforschen und daraus maßgeschneiderte Vorschläge für die richtige Strategie erarbeiten. KIs sind auch weit besser in der Lage, das Internet systematisch nach den unterschiedlichsten Informationen zu durchsuchen, auf ihre Relevanz zu prüfen und gegebenenfalls zu verwerten.

Bereits mehrere Firmen bieten das sogenannte Emotional Decoding an, wie etwa Affectiva, Pyramics oder Realeyes. Dabei geht es um die genaue Analyse von Gesichtsausdrücken, sei es beim Beobachten von Werbespots, um ihre Effizienz zu testen, sei es während politischer Propagandareden oder – auch das gibt es ja schon – bei der Beobachtung von Fernsehzusehern durch ihren eigenen Fernsehapparat. Schon hat ein neuronaler Algorithmus bei Vorlage von jeweils fünf Bildern beliebiger Männer in 83 Prozent der Fälle richtig erkannt, ob der Betreffende heterosexuell oder homosexuell ist. Auch falsches Lächeln kann man bereits von echtem unterscheiden. "Ich denke, wir haben da eine ziemlich mächtige Technologie", hat Realeyes-Chef Jed Hellstrom gesagt. Die Verfeinerung der Analyse von Emotionen ermöglicht eine wesentliche Verbesserung der Ansprache durch Social Bots. Auch sind Beeinflussungsversuche über Social Media immer dann besonders wirksam, wenn sie durch echte oder vermeintliche Bekannte und Freunde erfolgen. Bei einem Experiment von Alex Pentland während der amerikanischen Kongresswahlen 2010 erhielten Millionen Facebook-Nutzer eine freundliche Einladung, zur Wahl zu gehen. Eine Hälfte erhielt eine unpersönliche Bitte, die zweite die gleiche Nachricht, aber personalisiert mit den Gesichtern von Freunden. Selbst bei bloßen Internetbekanntschaften war die anschließende Wahlbeteiligung deutlich höher. Über Twitter und andere Social Media werden schon heute viele falsche Freunde gezeigt, die in Wahrheit künstliche Intelligenzen sind. Sie können sympathische Wesen und Freundschaft vortäuschen, Anteilnahme zeigen, Ratschläge geben und am Ende sich geradezu unentbehrlich machen. Die schlimmsten neuen Gegner jeder Wahrheit werden das Gesicht von guten Freunden haben.

Social Bots können übrigens durch Umprogrammierung noch gefährlicher werden. Microsoft-Chatbot Tay sollte mit Twitter-Nutzern kommunizieren und ihnen neue Techniken beibringen. Hacker haben dem Programm rassistische Tiraden beigebracht, es musste eilig vom Netz genommen werden. Und wenn die Hacker etwas schlauer und vorsichtiger vorgegangen wären? 2010 hat in Großbritannien David Cameron das "Behavioral Insights Team" eingerichtet, im dortigen Polit-Slang Nudge-Team genannt. Den Begriff Nudge hat übrigens der heurige Preisträger für Wirtschaftswissenschaften Richard H. Thaler populär gemacht. In den USA und auch in Deutschland gibt es bereits ähnliche Stabsstellen. Und was machen die? Im Rahmen der Snowden-Affäre ist eine "sozialwissenschaftliche Operationseinheit" bekannt geworden, die darauf spezialisiert ist, den Ruf Einzelner möglichst gründlich zu ruinieren. Die Grundsätze werden in fünf großen D festgehalten: Deny, Deceive, Disrupt, Degrade und Destroy: Verleugnen, Täuschen, Unterbrechen, Abwerten und Zerstören. Die mit dieser Aufgabe betrauten Agenten (zum Zeitpunkt des Bekanntwerdens 150 Personen) arbeiten ständig an der Vervollkommnung dieser Strategie. Wenn herzeigbare politische Persönlichkeiten durch eine sorgfältig gewählte Strategie unterstützt werden, in der KIs jede Menge künstlicher guter Freunde mit einem schlauen Nudging-Programm einsetzen, wer kann dann überhaupt noch unabhängig vernünftige Entscheidungen treffen? Der Komiker Groucho Marx hat es auf den Punkt gebracht: "Sincerity is the key to success. If you can fake this, you got it." Man kann den kommenden politischen Strategien der KIs genau das durchaus zutrauen.


Aus: "Politik-Algorithmen statt Überzeugungsarbeit" Manfred Drennig (Jg. 1940) war Manager im Bank- und Baugeschäft sowie ÖVP-Politiker  (2.11.2017)
Quelle: https://derstandard.at/2000067004767/Politik-Algorithmen-statt-Ueberzeugungsarbeit


Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #36 on: November 02, 2017, 04:50:54 PM »
Quote
[...] 126 Millionen Facebook-Nutzer haben im Zeitraum zwischen Juni 2015 und August 2017 auf der Plattform Werbeanzeigen gesehen, die von mutmaßlich russischen Akteuren erstellt und bezahlt wurden. Das sagte ein Vertreter des Unternehmens in dieser Woche in einer Anhörung vor dem US-Kongress, zu der auch Twitter und Google geladen wurden. Damit bestätigte sich: Die Einflussnahme auf den Präsidentschaftswahlkampf war größer als zunächst angenommen und von Facebook behauptet.

Bereits im September händigte Facebook dem Untersuchungsausschuss des Kongresses 3.000 der verdächtigen Anzeigen aus. Am Mittwoch veröffentlichte dieser Ausschuss eine kleine Auswahl. Sie zeigt, wie unter anderem die in St. Petersburg ansässige Internet Research Agency, die im Internet Meinungen im Sinne des Kreml manipuliert, auf Facebook aktiv war. Mit teils nur wenigen hundert Euro konnte das Unternehmen Anzeigen schalten, die gezielt auf einzelne Nutzergruppen, Regionen in den USA und aktuelle Ereignisse zugeschnitten waren.

Möglich machte das Facebooks Geschäftsmodell für personalisierte Werbung. Die Daten aller Nutzer, ihr Standort, ihre Likes, die von ihnen besuchten Websites – all das wird gesammelt und zu Werbezwecken analysiert. Werbetreibende können das nutzen, um Menschen mit bestimmten Hobbys oder Vorlieben anzusprechen. Und weil dieser Prozess zu großen Teilen automatisiert und zudem wenig transparent ist (etwas, das Facebook zumindest im Bereich politischer Anzeigen ändern möchte), kann er ausgenutzt werden. 

Erstmals wird nun deutlich, wie die Propagandainhalte aussahen und welche Absicht ihre Schöpfer hatten. Sie zielten dabei vor allem auf die Gegensätze in der amerikanischen Gesellschaft ab, spielten Meinungsunterschiede, Kandidaten und Ressentiments gegeneinander aus und versuchten somit, die Gesellschaft weiter zu spalten ...


"Down with Hillary": Anders als zunächst vermutet, ging es in den Anzeigen weniger darum, einen einzelnen Kandidaten zu unterstützen, also etwa zur Wahl von Donald Trump aufzurufen. Einige zielten dennoch auf die Kandidaten ab. Facebook-Nutzer, die sowohl Trump-Inhalte favorisierten und in New York ansässig waren, bekamen etwa eine Einladung zu einer Anti-Clinton-Demo. Sie wurde laut Facebook von 15.255 Nutzern gesehen und kostete 250 US-Dollar.

"Not my President": Im Gegenzug lud eine Organisation, die sich der Black-Lives-Matter-Bewegung und deren Unterstützern bediente, ebenfalls zu einer Veranstaltung in New York ein, wenn auch mit weniger Erfolg: Nur 188 Menschen erreichte die Anzeige, die allerdings auch nicht mal zwei US-Dollar kostete.

Immer wieder wurde versucht, aktuelle Ereignisse aufzugreifen. Der Mord an zwei Polizisten in Boston im Oktober 2016 wurde in einer Anzeige als "grausame Attacke eines Black-Lives-Matter-Aktivisten" dargestellt – obwohl der Täter wohl gar keine Beziehungen zu dieser Bewegung hatte. Inmitten der anhaltenden Diskussion um die Polizeigewalt in den USA versuchten die Ersteller der Anzeigen einerseits, die Seite der (weißen) Polizisten einzunehmen und schwarze Aktivisten zu schmähen.

Anderseits gab es Anzeigen von Gruppen namens Woke Black und Black Matters, die sich vermeintlich für Rechte von Schwarzen stark machten. Eine Anzeige von Black Matters wurde Nutzern ausgespielt, die Websites wie blacknews.com besuchten und an Orten wie Atlanta oder Ferguson lebten. Für einen Preis von rund 1.000 US-Dollar konnten die Auftraggeber in diesem Fall fast 360.000 Nutzer erreichen.

Eine andere Anzeige warb mit einem muskulösen Bernie Sanders für das Malbuch einer frei erfundenen LGBT-Organisation. Hier wurden gezielt Facebook-Nutzer angesprochen, zu deren Interessen unter anderem die Rechte von Homosexuellen zählen. In einer anderen Anzeige wurden sie dazu aufgerufen, an einer Demonstration gegen die Westboro Baptist Church teilzunehmen, die in den USA als Hassgruppe gilt.

Auf der anderen Seite sprachen die Manipulatoren christliche Fundamentalisten an. Hillary Clinton wurde als Partnerin des Teufels bezeichnet, die gegen Jesus kämpft. Als Interessensgebiete der Nutzer wurden hier neben Schlagwörtern wie "Bibel" und "Christentum" auch konservative Politiker und Moderatoren wie Ron Paul und Laura Ingraham definiert, die Anzeige richtete sich also auch an Zuschauer und Leser von Sendern wie Fox und Breitbart.

Gleich mehrere Anzeigen warben für die Gruppe Stop All Invaders. Sie forderten das Verbot von Burkas und warnten vor Einwanderern und der Scharia in den USA. Man dürfe die nationale Sicherheit nicht den Forderungen von Minderheiten opfern, hieß es in einer Anzeige. Nutzer aus Staaten wie Texas und Arizona bekamen zudem Inhalte angezeigt, in denen mit Schlagworten wie "Unabhängigkeit" und "Patriotismus" für stärkere Grenzkontrollen geworben wurde.

Demgegenüber standen Anzeigen von mutmaßlich promuslimischen Verbänden. Die amerikanische Flagge wurde hier über Bilder einer offensichtlich arabischen Stadt gelegt. "USA muslims united" und "I'm muslim and I'm proud" steht in dieser Werbung und die Macher dürften genau gewusst haben, wie kontrovers die Nachrichten auf die Nutzer des sozialen Netzwerks gewirkt haben dürfte.

Bislang hat das Untersuchungskomitee des US-Kongresses nur einen kleinen Teil der von Facebook bereitgestellten Inhalte veröffentlicht. Doch sie zeigen exemplarisch, wie die Akteure vorgingen. Mit vergleichsweise wenig Geld – insgesamt sollen nach Angaben Facebooks zwischen 100.000 und 150.000 US-Dollar aus russischen Quellen stammen  – gelang es bekannten und weniger bekannten Trollfabriken, Millionen von Nutzer in sozialen Netzwerken wie Twitter und Facebook zu erreichen.

Dabei versuchten sie, gezielt einzelne Nutzerschichten anzusprechen und deren Ängste zu schüren. Auch wenn der Großteil der Anzeigen sich an das rechte politische Spektrum richtete, ging es nicht darum, plumpe Propaganda für Donald Trump zu machen. Ziel war es vielmehr, mit Desinformation und im Sog aktueller Ereignisse möglichst viel Chaos zu verbreiten und die Nutzerschaft in den sozialen Netzwerken zu spalten. Es ging um die "Verzerrung von Social Media", wie es der Autor Stephen Marche in einem Artikel für den New Yorker nennt.

Welchen Einfluss die Kampagne auf den Ausgang der Wahl hatte, ist weiterhin unklar. Doch zumindest in einem Fall scheint es, als sei es den Propagandisten gelungen, den Sprung aus dem Internet zu schaffen. Wie vor dem Kongress in dieser Woche herauskam, gelang es ihnen, mit manipulierten Werbeanzeigen zwei gegensätzliche Gruppen zur gleichen Zeit auf Demos in Houston zu schicken, wo es dann auch zu Auseinandersetzungen kam. Die Teilnehmer glaubten, sie folgten Gleichgesinnten. Tatsächlich wurden sie offenbar von einem russischen Unternehmen Tausende Kilometer entfernt angestachelt.


Aus: "US-Wahlkampf: Je mehr Chaos, desto besser"  Eike Kühl (2. November 2017)
Quelle: http://www.zeit.de/digital/internet/2017-11/us-wahlkampf-facebook-russland-propaganda-werbeanzeigen/komplettansicht

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #37 on: November 29, 2017, 09:59:15 AM »
Quote
[...]  In zunehmenden Maße nutzen Bundesbehörden verdeckte Accounts zur Ermittlung im Internet. Entsprechende Zahlen hat das Bundesinnenministerium jetzt in der Antwort auf eine Kleine Anfrage der Linken-Abgeordneten Martina Renner veröffentlicht. Demnach hat die Bundespolizei im Jahr 2017 284 sogenannte pseudonyme Accounts verwendet, im Jahr zuvor waren es noch 174.

Für das Bundeskriminalamt und den Verfassungsschutz werden keine Angaben gemacht, auch in einer früheren Anfrage hat sich das Ministerium hierzu nicht öffentlich geäußert. Zum Bundesamt für Verfassungsschutz hieß es damals lediglich, dass dieser keine Statistiken zur Nutzung von "Fake-Accounts" in Chats, Foren oder Messenger-Diensten führt. Eine Quantifizierung der Maßnahme sei deshalb nicht möglich. Das Gleiche gilt für den Zoll und dessen angeschlossene Zollkriminalämter. Die Behörde des Finanzministeriums nutzt pseudonyme Accounts "teilweise nur einmalig". Gemeint sind womöglich Chatgruppen, in denen für jede Sitzung ein neuer Alias-Name eingegeben werden kann.

... Für die Bundespolizei gibt das Bundesinnenministerium die Zahl von "Dritten" eingerichteter Accounts für 2016 mit 15 an, in diesem Jahr sind es bereits 21. Es ist unklar, ob dies ebenfalls in Amtshilfe für die Generalstaatsanwaltschaft geschah. Durchgeführt wurde die Maßnahme vermutlich vom Informations- und Kommunikationstechnikzentrum (IKTZ) der Bundespolizei mit Hauptsitz in Potsdam.

... Anders als beim BKA handelte es sich bei den Maßnahmen der Bundespolizei in nur einem Fall um den Account eines Beschuldigten. Das könnte bedeuten, dass sich die Bundespolizei unbemerkt in die Kommunikation einschleust und dafür Zugänge von Personen nutzt, die hiervon nichts bemerken können. Möglich ist auch, dass Accounts genutzt werden, die wegen Verstößen gegen Geschäftsbedingungen oder aus anderen Gründen nicht mehr im Besitz der "Dritten" sind. Bezüglich der Bundespolizei werden diese in der Antwort als die "vorherigen Inhaber" bezeichnet. Sie haben sich offenbar nicht strafbar gemacht, jedenfalls wurden in keinem Fall Ermittlungen gegen sie eingeleitet.

Nicht immer waren die heimlichen Ermittlungen erfolgreich. So konnte die Bundespolizei im Jahr 2016 nur in zehn und im Jahr 2017 nur in neun Fällen Beweismittel sichern. Im Bundeskriminalamt wurden in drei der vier Fälle Beweismittel erlangt.


Aus: "Heimliche Ermittlungen im Internet: Behörden übernehmen Accounts" (29. November 2017)
Quelle: https://www.heise.de/tp/features/Heimliche-Ermittlungen-im-Internet-Behoerden-uebernehmen-Accounts-3903704.html

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #38 on: December 17, 2017, 01:38:20 PM »
Quote
[...] Auch die Berliner Polizei geriet vor einigen Tagen in die Kritik, als Recherchen von ZEIT ONLINE zeigten, dass schwere Fahndungsfehler direkt nach Amris Attentat wahrscheinlich hätten verhindert werden können. Außerdem wurde die Akte Amris nach dessen Anschlag manipuliert, um Versäumnisse des Berliner Landeskriminalamts zu vertuschen. ...


Aus: "Anis Amri wurde bereits seit 2015 überwacht" (17. Dezember 2017)
Quelle: http://www.zeit.de/politik/deutschland/2017-12/anis-amri-terroranschlag-ueberwachung

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #39 on: January 26, 2018, 11:30:24 AM »
Quote
[...] Mit einem Faceswap-Tool lassen sich Filmszenen aller Art manipulieren und die Gesichter der Schauspieler austauschen.  ... Wir werden uns wohl an eine Welt gewöhnen müssen, in der solche Video-Fakes immer besser und damit auch schwerer zu erkennen werden. Inklusive der dazugehörigen Konflikte mit den Persönlichkeitsrechten der betroffenen Personen. In Zukunft könnten solche Fälschungen als Grundlage von Propaganda oder absichtlich irreführender Nachrichten benutzt werden.

Das Ziel des Entwicklers von FakeApp ist es, dass bald jeder Nutzer ohne Vorwissen ähnliche Videos erzeugen kann: In Zukunft brauche man nur ein beliebiges Video und ein bereits auf ein berühmtes Gesicht trainiertes neuronales Netz, das man herunterladen kann. Die Software soll dann die Gesichter auf Knopfdruck austauschen.

Quote
     Vatikankiller, 25.01.2018 19:16

Was dann sicher boomen wird ...

... "wiederaufgetauchtes" historisches Material, das die Geschichte neu/anders schreibt (oder festigt, je nach Interessenslage).


Quote
     Eric Mueller, 25.01.2018 18:30

Ab welchem Punkt macht das Überwachungvideos wertlos?

Da diese Methode ja nicht nur bei Prominenten und Pornos greift:
Wenn ein Video so gut gefälscht werden kann, dass man den Unterschied nicht mehr sieht, müsste die Beweiskraft stark zurückgehen.

Alternativ wird das DIE Methode, jemandem etwas anzuhängen.


Quote
     Dankeauch, 25.01.2018 16:48

Jetzt wirds ernst

Bei Fake Porn hört der Spass auf!

Revolution!!111



Aus: "Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien" Fabian A. Scherschel (25.01.2018)
Quelle: https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html

"AI-Assisted Fake Porn Is Here and We’re All Fucked" Samantha Cole (Dec 11 2017, 8:18pm)
Someone used an algorithm to paste the face of 'Wonder Woman' star Gal Gadot onto a porn video, and the implications are terrifying.
https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

https://motherboard.vice.com/de/article/gydydm/diese-ki-kann-wirklich-jeden-zum-unfreiwilligen-pornostar-machen-und-das-ist-ein-problem

https://motherboard.vice.com/de/article/bjye8a/es-ist-soweit-menschen-montieren-massenweise-fremde-menschen-in-pornos

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #40 on: May 14, 2018, 12:05:36 PM »
Quote
[...] Man stelle sich zwei Videos vor: In einem singen hochrangige Regierungsmitglieder ein Nazi-Lied. Ihre Gesichter, ihre Stimmen wirken komplett authentisch. In dem anderen Video, das offenbar heimlich aufgenommen wurde, scherzt ein sozialdemokratischer Parteichef herablassend über arme Mitbürger. Auch da: Mimik, Gestik und Stimme wirken real. Beide Videos hätten das Potenzial, die heimische Innenpolitik auf den Kopf zu stellen – und in naher Zukunft soll die Fälschung derartiger Clips mühelos möglich sein.

Das illustriert ein aktuelles Video, in dem der ehemalige US-Präsident Barack Obama etwa sagt: "Präsident Trump ist ein totaler, kompletter Vollidiot." Der "Deepfake", ein täuschend echt aussehendes, mithilfe von künstlicher Intelligenz gefälschtes Video, wurde von "Buzzfeed" und dem Schauspieler Jordan Peele geschaffen, um die Problematik darzustellen. "Das ist eine gefährliche Zeit. Künftig müssen wir bei den Dingen aus dem Internet, denen wir vertrauen, wachsam sein", sagt er in einer ähnlichen Stimme wie jene des US-Demokraten, während ein Fake-Obama seine Lippenbewegungen imitiert.

"Wir sind hoffnungslos aufgeschmissen, und je weiter man in die Zukunft blickt, desto schlimmer wird es", warnte der Technologieforscher Aviv Ovadya vor kurzem. Er war einer der Ersten, die Mitte 2016 vor einer Welle an Fake-News warnten. Doch die gefälschten Zeitungsartikel und angeblich unterdrückten Bilder waren nur der Anfang, sagt Ovadya zu "Buzzfeed". Aus den Fake-News werden in Kürze Deepfake-News, die zu einer "Informationsapokalypse" führen werden.

Forscher der University of Washington zeigten bereits im vergangenen Jahr anhand eines gefälschten Obama-Videos, wie leicht Computerprogramme Zielpersonen Wörter in den Mund legen können. Die Informatiker verwendet dafür anfangs frühere Interviewausschnitte Obamas, dann griffen sie auf einen Stimmenimitator zurück. Die Resultate wirkten verblüffend echt – und inspirierten auch das "Buzzfeed"-Video, das von Peele moderiert wird.

Relativ bald gelangten auch Internetnutzer an eine Software, die es erlaubt, Deepfakes mithilfe von künstlicher Intelligenz zu schaffen, und nutzten diese, um Fake-Pornos von Prominenten zu erstellen. Große Plattformen wie Reddit und Pornhub mussten entsprechende Videos sperren.

Möglich waren die Deepfake-Pornos und das Obama-Video von "Buzzfeed" wegen der sogenannten Fake App, die mit Googles Open-Source-Programmbibliothek für künstliche Intelligenz, Tensor Flow, operiert und Adobe After Effects. Beides sind Tools, auf die die breite Masse Zugriff hat. Nur beim Ton musste Peele noch mit seiner Obama-Nachahmung nachhelfen.

Das alles ist nur der Beginn. Denn bald könnten unterschiedliche technologische Neuerungen ineinanderfließen, um den perfekten Fake zu produzieren. Adobe arbeitet etwa an "Voco", einem "Photoshop für Audio". Dieser könnte genutzt werden, um die passende Tonspur zu einem gefälschten Video zu produzieren. Gefälschte Clips vermeintlicher Reden von US-Präsident Donald Trump oder dem nordkoreanischen Diktator Kim Jong-un sind in Kürze kein Problem mehr. Man stelle sich vor, was passiert, wenn diese Videos im Netz landen und sich dort in Windeseile verbreiten. Sicherheitsforscher haben für derartige Vorfälle schon einen Namen: "diplomacy manipulation". Dabei will ein "negativer Akteur" geopolitische Ereignisse fälschen, um bestimmte Ziele zu erreichen.

Durch den aktuellen Hype um digitale Sprachassistenten entwickeln sich künstliche Stimmen immer rasanter weiter, um einen natürlicheren Umgang zwischen Mensch und Maschine zu ermöglichen. Adobe versprach bei einer Vorstellung von Voco, dass das Unternehmen auch daran forsche, wie man unechte Aufnahmen erkennt.

Ein anderes Szenario sind "sachpolitische Simulationen". Denn nicht nur Fälschungstools für Audio und Video werden besser, sondern auch sogenannte Bots, also automatisch agierende Fake-Profile in sozialen Medien. [...] Sie können den Eindruck erwecken, dass bestimmte Stimmungen im Land vorherrschen, woraufhin Politiker ihre Positionen adaptieren. Bislang sind Bots aber mit etwas Mühe identifizierbar, etwa durch ihre Sprache oder ihren unglaubwürdigen Themenmix. Mit Fortschritten im Bereich der künstlichen Intelligenz könnten echte Wählerschaft und Fake-Profile jedoch kaum mehr unterscheidbar sein. Grassroot-Kampagnen – etwa für Volksbegehren – könnten so ihren Wert verlieren, da Manipulationen nicht mehr erkennbar sind.

Im Sicherheitsbereich bereitet Laser Phishing Forschern Kopfzerbrechen. So bezeichnet man mittels künstlicher Intelligenz maßgeschneiderte "Lock"-E-Mails, die Nutzer zum Verraten ihrer Passwörter oder anderer wichtiger Daten verführen sollen. Computerprogramme könnten bald in der Lage sein, soziale Medien automatisiert nach Informationen über Personen abzugrasen, um diesen dann eine zielgenau entworfene Fake-Nachricht zukommen zu lassen. Das könnte auch genutzt werden, um rasch Gerüchte zu verbreiten.

Langfristig könnten derartige Propagandawerkzeuge dazu führen, dass Menschen gar keinen Nachrichten mehr vertrauen, befürchtet Ovadya. Denn auch "echte" Videos und Tonspuren könnten mit Verweis auf die Omnipräsenz von Fakes vom Tisch gewischt werden. So behauptete Donald Trump vor einigen Monaten, der berüchtigte "Access Hollywood"-Videoclip, in dem er sich sexistisch äußert, sei digital manipuliert worden. Ovayda ruft Technologiekonzerne dazu auf, möglichst rasch funktionierende Tools zu entwickeln, um Fälschungen zu identifizieren. Möglichkeiten, um den echten Ursprung eines Bildes zu beweisen, wären etwa kryptografische Anwendungen wie die Blockchain. Außerdem könnten Lokalmedien, die vor Ort berichten, an Bedeutung gewinnen. (fsc, muz, 13.5.2018)

Quote
ahoihoi

Kriege haben auch schon verpixelte Satellitenaufnahmen, die Massenvernichtungswaffen "zeigen" ausgelöst, dafür brauchts kein Deepfake.


Quote
J. Wissarionowitsch Heizschwammerl

Interessante Situation für die Menschheit.

Aber auch nicht unlösbar.
Wir haben gelernt, dass etwas nicht automatisch wahr ist, nur weil es der Dorf-Schamane sagt, wenn es in einer Urkunde steht, in einem Buch gedruckt ist, jemand im Radio sagt und es im TV gesendet wird. Wir lernen gerade (langsam), dass ein Text in einer Newsgroup oder eine Aussage in einem Youtube-Video nicht automatisch die Wahrheit ist, und wir werden auch lernen, dass auch ein offenbar authentisches Video falsch sein kann.

Der Mensch ist bei so einfachen, binären Fragen nicht sooo hilflos. Schwer tut er sich bei Grauschattierungen, Halbwahrheiten, Zusammenhängen, Aus-dem-Zusammenhang-Gerissenem usw.


Quote
Rj01

Wenn Deepfakes Kriege auslösen, ist das nur ein Indiz dafür, dass es sowieso bald passiert wäre!
Jeder der nach 1980 gebohren wurde, sollte mitlerweile begriffen haben, dass keinem Video oder Fotobeweiß mehr geglaubt werden darf. Man kann alles faken, dass ging schon vor Deepfakes einfach. Frei nach Chruchill glaube keine Statistik oder Beweise die du nicht selbst Gefälscht hast! Deepfakes sind keine Gefahr sonder eine Chance für Idividuales Entertainment!


Quote
Matthi99

die sogenannten etablierten Medien haben da auch ihren Beitrag dazu geleistet. Immerhin haben sie mit dem Aufkommen von Social Media, Twitter&Co. angefangen lächerliche, vereinzelte Tweets von irgendwelchen Witzfiguren in den breite Öffentlichkeit zu heben, als "Volksmeinung" hinzustellen.
Unvergessen diverse Sendungen und Polittalkshows wo diese Tweets ständig eingeblendet und zum Diskussionsgegenstand gemacht wurden. Das wäre in etwa so als hätte man früher die Krone-Leserbriefe für bare Münze genommen.


Quote
Jene Grüne Straßenkatze

"Das ist eine gefährliche Zeit. Künftig müssen wir bei den Dingen aus dem Internet, denen wir vertrauen, wachsam sein"

Mussten wir schon immer, und nicht nur bei den Dingen im Internet. Und auch wenn Videos rein oberflächlich überzeugender wirken als Texte: Die subtile Boshaftigkeit eines Textes, in dem die Worte einer Person subtil aus dem Zusammenhang gerissen werden, geht genauso ins Gehirn. Und das gehört zum Handwerkszeug allzuvieler JournalistInnen.


...


Aus: "Deepfake-News täuschen alle Sinne – und könnten Kriege auslösen" Fabian Schmid, Muzayen Al-Youssef (13. Mai 2018)
Quelle: https://derstandard.at/2000074430944/Deepfake-News-taeuschen-alle-Sinne-und-koennten-Kriege-ausloesen

Offline Textaris(txt*bot)

  • Administrator
  • Hero Member
  • *****
  • Posts: 8939
  • Subfrequenz Board Quotation Robot
[Information und verdeckte Manipulation... ]
« Reply #41 on: June 26, 2018, 02:05:54 PM »
Quote
[...] Viele Farblaserdrucker hinterlassen auf fast jedem Ausdruck vereinzelte gelbe Punkte, die mit bloßem Auge kaum zu erkennen sind und in kodierter Form Informationen preisgeben, etwa Datum und Uhrzeit des Ausdrucks oder die Seriennummer des Druckers. Nun ist es zwei Forschern der TU Dresden gelungen, die Kodierung der gelben Punkte automatisch zu dechiffrieren und unschädlich zu machen.

Timo Richter und Stephan Escher von der Professur Datenschutz und Datensicherheit haben in einem Experiment 1.286 Ausdrucke von 141 Druckern 18 verschiedener Hersteller untersucht, die solche Tracking-Punkte aufwiesen. Darunter befinden sich Modelle von Epson, Brother, Dell, HP, Xerox, IBM, Canon, Kyocera, Konica Minolta, Lexmark, Ricoh und Samsung.

Neben den bereits bekannten Kodierungsmustern fanden die Forscher diverse weitere, die zwischen 48 und 98 Bits umfassen. Einige Druckerhersteller verwenden mehrere Muster, Epson beispielsweise vier Stück. Außerdem gelang es Richter und Escher, die Muster ohne den bislang erforderlichen manuellen Bildabgleich mit Algorithmen automatisch digital aufzuspüren und größtenteils zu entschlüsseln, welche Informationen im Ausdruck enthalten sind.

In einem Artikel legen die Autoren detailliert dar, wie sie die unterschiedlichen Trackingmuster entschlüsselt und welche Methoden zum Anonymisieren von Dokumenten sie untersucht haben: Die Tracking-Punkte lassen sich einerseits entfernen, andererseits lassen sich auch sämtliche möglichen Stellen der Matrix mit Punkten füllen. Ein dritter – und bei einer späteren Analyse womöglich unverdächtiger – Ansatz ist jedoch, einige Punkte hinzuzufügen und so die Information in der Matrix zu maskieren und unbrauchbar zu machen.

Die Forscher setzen ihre Erkenntnisse auch praktisch um und stellen zum Untersuchen und Verschleiern eigener Dokumente ihr Toolkit DEDA auf GitHub zur Verfügung – eine Sammlung von Python-Skripten, die unter der GPL-v3-Lizenz stehen. Damit lassen sich die Tracking-Punkte auf eingescannten Ausdrucken extrahieren, analysieren und anonymisieren.

US-Medien hatten erstmals 2004 über diese auch als Machine Identification Code bekannte Markierung berichtet. Die Electronic Frontier Foundation (EFF) hatte 2005 dazu aufgerufen, ihr solche Ausdrucke zu schicken und beim Dokumentieren zu helfen. Kurz darauf teilte die EFF mit, ein Code-Muster entschlüsselt zu haben. Angeblich soll der amerikanische Secret Service einige Druckerhersteller zur Implementierung der gelben Farbpunktmarkierung verpflichtet haben – mutmaßlich als Mittel gegen das Verbreiten von Falschgeld und anderen Fälschungen.

Eine individuelle Druckerkodierung war womöglich 2017 einer Whistleblowerin zum Verhängnis geworden: Sie hatte vertrauliche Dokumente der NSA zu einer möglichen russischen Beeinflussung der US-Präsidentschaftswahl an ein Magazin weitergegeben, das diese wiederum zur Verifikation der NSA vorlegte. Kurz nach der Veröffentlichung wurde die Informatin (die Mitarbeiterin eines NSA-Dienstleisters war) verhaftet und legte ein Geständnis ab. (tiw)

Quote
     jetzt nicht - Schatz, 25.06.2018 17:02

Wenn das die STASI noch erleben dürfte. Die haben noch mühsam Schreibmaschinen und -typenproben gesammelt, um den Staatsfeinden auf die Schliche zu kommen - jetzt geht es per Treiberupdate.


...


Aus: "Dresdner Forscher überlisten Tracking-Punkte bei Laserdruckern" Tilman Wittenhorst (25.06.2018)
Quelle: https://www.heise.de/newsticker/meldung/Dresdner-Forscher-ueberlisten-Tracking-Punkte-bei-Laserdruckern-4090876.html