• Welcome to LINK ACCUMULATOR. Please log in.

[Künstliche Intelligenz / KI (Notizen) ... ]

Started by Link, August 20, 2008, 10:15:24 PM

Link

Quote[...] Mark Zuckerberg is said to have started work on Koolau Ranch, his sprawling 1,400-acre compound on the Hawaiian island of Kauai, as far back as 2014.

It is set to include a shelter, complete with its own energy and food supplies, though the carpenters and electricians working on the site were banned from talking about it by non-disclosure agreements, according to a report by Wired magazine.

A six-foot wall blocked the project from view of a nearby road.

Asked last year if he was creating a doomsday bunker, the Facebook founder gave a flat "no". The underground space spanning some 5,000 square feet is, he explained, "just like a little shelter, it's like a basement".

That hasn't stopped the speculation - likewise about his decision to buy 11 properties in the Crescent Park neighbourhood of Palo Alto in California, apparently adding a 7,000 square feet underground space beneath.

Though his building permits refer to basements, according to the New York Times, some of his neighbours call it a bunker. Or a billionaire's bat cave.

Then there is the speculation around other tech leaders, some of whom appear to have been busy buying up chunks of land with underground spaces, ripe for conversion into multi-million pound luxury bunkers.

Reid Hoffman, the co-founder of LinkedIn, has talked about "apocalypse insurance". This is something about half of the super-wealthy have, he has previously claimed, with New Zealand a popular destination for homes.

So, could they really be preparing for war, the effects of climate change, or some other catastrophic event the rest of us have yet to know about?

In the last few years, the advancement of artificial intelligence (AI) has only added to that list of potential existential woes. Many are deeply worried at the sheer speed of the progression.

Ilya Sutskever, chief scientist and a co-founder of Open AI, is reported to be one of them.

By mid-2023, the San Francisco-based firm had released ChatGPT - the chatbot now used by hundreds of millions of people across the world - and they were working fast on updates.

But by that summer, Mr Sutskever was becoming increasingly convinced that computer scientists were on the brink of developing artificial general intelligence (AGI) - the point at which machines match human intelligence - according to a book by journalist Karen Hao.

In a meeting, Mr Sutskever suggested to colleagues that they should dig an underground shelter for the company's top scientists before such a powerful technology was released on the world, Ms Hao reports.

"We're definitely going to build a bunker before we release AGI," he's widely reported to have said, though it's unclear who he meant by "we".

It sheds light on a strange fact: many leading computer scientists and tech leaders, some of whom are working hard to develop a hugely intelligent form of AI, also seem deeply afraid of what it could one day do.

So when exactly - if ever - will AGI arrive? And could it really prove transformational enough to make ordinary people afraid?

Tech leaders have claimed that AGI is imminent. OpenAI boss Sam Altman said in December 2024 that it will come "sooner than most people in the world think".

Sir Demis Hassabis, the co-founder of DeepMind, has predicted in the next five to ten years, while Anthropic founder Dario Amodei wrote last year that his preferred term - "powerful AI" - could be with us as early as 2026.

Others are dubious. "They move the goalposts all the time," says Dame Wendy Hall, professor of computer science at Southampton University. "It depends who you talk to." We are on the phone but I can almost hear the eye-roll.

"The scientific community says AI technology is amazing," she adds, "but it's nowhere near human intelligence."

There would need to be a number of "fundamental breakthroughs" first, agrees Babak Hodjat, chief technology officer of the tech firm Cognizant.

What's more, it's unlikely to arrive as a single moment. Rather, AI is a rapidly advancing technology, it's on a journey and there are many companies around the world racing to develop their own versions of it.

But one reason the idea excites some in Silicon Valley is that it's thought to be a pre-cursor to something even more advanced: ASI, or artificial super intelligence - tech that surpasses human intelligence.

It was back in 1958 that the concept of "the singularity" was attributed posthumously to Hungarian-born mathematician John von Neumann. It refers to the moment when computer intelligence advances beyond human understanding.

More recently, the 2024 book Genesis, written by Eric Schmidt, Craig Mundy and the late Henry Kissinger, explores the idea of a super-powerful technology that becomes so efficient at decision-making and leadership we end up handing control to it completely.

It's a matter of when, not if, they argue.

Those in favour of AGI and ASI are almost evangelical about its benefits. It will find new cures for deadly diseases, solve climate change and invent an inexhaustible supply of clean energy, they argue.

Elon Musk has even claimed that super-intelligent AI could usher in an era of "universal high income".

He recently endorsed the idea that AI will become so cheap and widespread that virtually anyone will want their "own personal R2-D2 and C-3PO" (referencing the droids from Star Wars).

"Everyone will have the best medical care, food, home transport and everything else. Sustainable abundance," he enthused.

There is a scary side, of course. Could the tech be hijacked by terrorists and used as an enormous weapon, or what if it decides for itself that humanity is the cause of the world's problems and destroys us?

"If it's smarter than you, then we have to keep it contained," warned Tim Berners Lee, creator of the World Wide Web, talking to the BBC earlier this month.

"We have to be able to switch it off."

Governments are taking some protective steps. In the US, where many leading AI companies are based, President Biden passed an executive order in 2023 that required some firms to share safety test results with the federal government - though President Trump has since revoked some of the order, calling it a "barrier" to innovation.

Meanwhile in the UK, the AI Safety Institute - a government-funded research body - was set up two years ago to better understand the risks posed by advanced AI.

And then there are those super-rich with their own apocalypse insurance plans.

"Saying you're 'buying a house in New Zealand' is kind of a wink, wink, say no more," Reid Hoffman previously said. The same presumably goes for bunkers.

But there's a distinctly human flaw.

I once met a former bodyguard of one billionaire with his own "bunker", who told me his security team's first priority, if this really did happen, would be to eliminate said boss and get in the bunker themselves. And he didn't seem to be joking.

Neil Lawrence is a professor of machine learning at Cambridge University. To him, this whole debate in itself is nonsense.

"The notion of Artificial General Intelligence is as absurd as the notion of an 'Artificial General Vehicle'," he argues.

"The right vehicle is dependent on the context. I used an Airbus A350 to fly to Kenya, I use a car to get to the university each day, I walk to the cafeteria... There's no vehicle that could ever do all of this."

For him, talk about AGI is a distraction.

"The technology we have [already] built allows, for the first time, normal people to directly talk to a machine and potentially have it do what they intend. That is absolutely extraordinary... and utterly transformational.

"The big worry is that we're so drawn in to big tech's narratives about AGI that we're missing the ways in which we need to make things better for people."

Current AI tools are trained on mountains of data and are good at spotting patterns: whether tumour signs in scans or the word most likely to come after another in a particular sequence. But they do not "feel", however convincing their responses may appear.

"There are some 'cheaty' ways to make a Large Language Model (the foundation of AI chatbots) act as if it has memory and learns, but these are unsatisfying and quite inferior to humans," says Mr Hodjat.

Vince Lynch, CEO of the California-based IV.AI, is also wary of overblown declarations about AGI.

"It's great marketing," he says "If you are the company that's building the smartest thing that's ever existed, people are going to want to give you money."

He adds, "It's not a two-years-away thing. It requires so much compute, so much human creativity, so much trial and error."

Asked whether he believes AGI will ever materialise, there's a long pause.

"I really don't know."

In some ways, AI has already taken the edge over human brains. A generative AI tool can be an expert in medieval history one minute and solve complex mathematical equations the next.

Some tech companies say they don't always know why their products respond the way they do. Meta says there are some signs of its AI systems improving themselves.

Ultimately, though, no matter how intelligent machines become, biologically the human brain still wins. It has about 86 billion neurons and 600 trillion synapses, many more than the artificial equivalents.

The brain doesn't need to pause between interactions either, and it is constantly adapting to new information.

"If you tell a human that life has been found on an exoplanet, they will immediately learn that, and it will affect their world view going forward. For an LLM [Large Language Model], they will only know that as long as you keep repeating this to them as a fact," says Mr Hodjat.

"LLMs also do not have meta-cognition, which means they don't quite know what they know. Humans seem to have an introspective capacity, sometimes referred to as consciousness, that allows them to know what they know."

It is a fundamental part of human intelligence - and one that is yet to be replicated in a lab.

...


From: "Tech billionaires seem to be doom prepping. Should we all be worried?" Zoe Kleinman (09.10.2025)
Source: https://www.bbc.com/news/articles/cly17834524o


Link

"Third of UK citizens have used AI for emotional support, research reveals" Dan Milmo Global technology editor (Thu 18 Dec 2025 10.00 CET)
AI Security Institute report finds most common type of AI tech used was general purpose assistants such as ChatGPT and Amazon Alexa. ... The AI Security Institute (AISI) said nearly one in 10 people used systems like chatbots for emotional purposes on a weekly basis, and 4% daily. ...
https://www.theguardian.com/technology/2025/dec/18/artificial-intelligence-uk-emotional-support-research


Link

#42
"AI Slop: Die Schattenseite der KI-Revolution" Marvin Fuhrmann (25.06.2025)
Mit dem Fortschritt rund um KI haben sich auch neue Begriffe in der Tech-Branche etabliert. Dabei werden die neuen Begriffe auch von der großen Community der KI-Nutzer geprägt – oder von jenen, die die Technik kritisieren. Zu letzterer Kategorie zählt definitiv der Begriff "AI Slop", was soviel bedeutet wie "KI-Abwasser" oder "KI-Abfall". Darunter fallen Bilder, Videos und auch Texte, die mit KI in Massenproduktion erstellt wurden und eine eher mindere Qualität aufweisen. Für das geübte Auge sind sie in vielen Fällen als KI-generierte Inhalte direkt erkennbar. Allerdings zielen sie meist eher auf KI-Laien ab.
Diese Bilder, Videos und Texte werden gemacht, um damit möglichst schnell und viel Aufmerksamkeit auf Social-Media-Plattformen zu schaffen. Die Urheber hoffen, mit der hohen Aufmerksamkeit auf den Plattformen Werbeeinnahmen zu erzielen. Ein "Slopper" – also jemand, der diesen KI-Abfall produziert ...
https://www.heise.de/news/AI-Slop-Die-Schattenseite-der-KI-Revolution-10459480.html

Als Slop (auch KI-Slop, von englisch AI slop, zu slop ,Fraß, Mansch, Schlicker, Schlempe') werden Medieninhalte – einschließlich Text und Bilder – von niedriger inhaltlicher Qualität bezeichnet, die mit Hilfe von generativer künstlicher Intelligenz erzeugt werden. Der um 2022 geprägte Ausdruck ist, ähnlich wie Spam, abwertend konnotiert. ...
https://de.wikipedia.org/wiki/Slop

-

"KI: Der Tod des Internets" Doku | ARTE
Regie: Mario Sixtus
Land: Deutschland
Jahr: 2025
Das Internet wird überschwemmt von KI-generiertem Müll. Automatisierte Bots produzieren eine Flut aus KI-generierten Inhalten, der das Internet zu ersticken droht. Der Wissensraum wird mit Desinformation, Propaganda und synthetischen Bildern und Tönen geflutet. Werden wir bald nur noch Informationen bekommen, mit der die KI uns füttert?
Während wir noch über die möglichen gesellschaftlichen Auswirkungen von Künstlicher Intelligenz sinnieren, ertrinkt der digitale Wissensraum bereits in synthetischem Schund. Wie konnte es so weit kommen? Wie konnte das Netz, das noch vor gar nicht langer Zeit als Ort des freien Wissens und des offenen Austausches von Informationen und Entertainment galt, in Rekordgeschwindigkeit zur Abwurfzone maschinell gefertigten Nonsens werden?
Filmemacher Mario Sixtus stößt während seiner Entdeckungsreise im sterbenden Netz auf Suchmaschinen, die ihre Orientierung verlieren und aus Ratlosigkeit an ihrer eigenen Abschaffung arbeiten. Er führt vor, wie ein oder zwei in KI-Software eingetippte Befehlssätze ausreichen, um sinnfreie Ratgeberbücher und aus purem Unsinn bestehende News-Videos zu produzieren.
Werden wir bald nur noch mit KI-halluzinierten Schein-Informationen gefüttert, statt selbst zu recherchieren? ,,KI: Der Tod des Internet" unternimmt einen filmischen Streifzug durch die Müllflut, trifft in New York einen Podcaster, der sich selbst KI-geklont hat, begegnet in Kenia einer unterbezahlten Klick-Arbeiterin, die KIs trainiert — und sucht zusammen mit Netz-Expertinnen und -Experten wie Cory Doctorow, Melanie Mitchell, Mats Schönauer zwischen digitalen Medienleichen nach der Ahnung eines neuen, zukunftsfähigen Netzes.
https://www.arte.tv/de/videos/122187-000-A/ki-der-tod-des-internets/ | https://www.youtube.com/watch?v=cGmVehWBdHI

-

"Künstliche Intelligenz: Für euch reicht's" (Ultralativ, 2025)
Generative KI ist unausweichlich. Auch deshalb, weil Influencer, Fernsehsender, Marken und Co. eine Geisteshaltung entwickelt haben, dass generierte Imitate genau das gleiche seien wie Originale. Ist die Kritik an generierten Inhalten aus der Zeit gefallen? Beschweren wir uns nur über ein neues Werkzeug, oder geht diese Angelegenheit tiefer?
https://youtu.be/kUuwvJfQfIk

...

"KI-Desinformation auf TikTok: EU-Kommission prüft "Polexit"-Kampagne" Stefan Krempl (02.01.2026)
In Polen kursieren KI-generierte Videos, die für einen EU-Austritt werben und just junge Wähler beeinflussen sollen. ... Die fraglichen Clips, die vor allem auf TikTok schnell hohe Reichweiten erzielen konnten, folgen einem auffälligen Muster: Sie zeigen junge Frauen in traditionell patriotischer Kleidung, die rechtsextreme Botschaften verbreiten und die polnische Bevölkerung zum Bruch mit Brüssel auffordern. Offizielle Stellen in Warschau sprechen von einer koordinierten Desinformationskampagne. Untersuchungen legen nahe, dass die Inhalte Merkmale russischer Einflussnahme aufweisen, da die Texte teils eine spezifisch russische Syntax enthalten. TikTok hat auf konkrete Anfragen zu dem Fall bisher nicht inhaltlich reagiert. ...
https://www.heise.de/news/KI-Desinformation-auf-TikTok-EU-Kommission-prueft-Polexit-Kampagne-11127781.html


Link

Quote[...] Jedes dritte Youtube-Video ist billiger KI-Müll. Der Instagram-Chef zeichnet ein düsteres Bild. Menschen lehnen KI zunehmend ab.

KI-Bilder und KI-Videos sind auf allen gängigen Plattformen zu finden. Sie werden das Internet verändern. Wenn es sich um billig gemachte Inhalte handelt, die vor allem Aufmerksamkeit generieren sollen, spricht man von AI Slop. KI verwässert aber mindestens auch die Informationslage. Sie ist überall. Doch: Reaktanz ist eine zutiefst menschlich verwurzelte Reaktion – ein psychologisches Phänomen, bei dem Menschen Widerstand leisten, wenn sie sich in ihrer Freiheit oder Autonomie bedroht fühlen.

Dass viele Menschen KI-Inhalte bereits leid sind, zeigt sich nicht zuletzt an Protesten, Motzen und Ablehnen von KI-Themen, Inhalten und beispielsweise KI-Werbespots wie zuletzt denen von McDonalds und Coca-Cola. KI wird als neuer Praktikant gehandelt, wenn irgendwo etwas minderwertig erscheint. Und Witze über Gedankenstriche, KI-generierte LinkedIn-Beiträge und KI-Grafiken, die komplexe Themen vermeintlich einfach darstellen sollen, hat inzwischen wohl jeder gehört.

Dennoch geht der Instagram-Chef Adam Mosseri davon aus, dass KI-bearbeitete Bilder mehr als die Ästhetik von Social Media ändern werden. Seine düstere Prognose, die er in einem Endjahresbeitrag postet: ,,Wir werden unseren Augen nicht mehr trauen können." Während wir unser Leben lang bisher davon ausgehen konnten, dass Bilder echte Momentaufnahmen sind, wird sich das nun laut Mosseri ändern. ,,Das wird unangenehm – wir sind genetisch dazu veranlagt, unseren Augen zu trauen." Mosseris Lösung: Die besten KI-Tools entwickeln, aber auch sichere Labels für KI-generierte Inhalte sowie für authentische Inhalte. Wobei er mahnt: ,,Authentizität wird unendlich reproduzierbar."

Gleichzeitig erklärt Mosseri das öffentliche Teilen von persönlichen Momenten für tot. Das sei es schon seit Jahren. Er meint, private Personen posten keine Fotos mehr aus ihrem Privatleben. Das habe sich in die Direktnachrichten verschoben. Auch die Statusmeldungen bei WhatsApp oder Signal dürften dazu beigetragen haben. Diese Ausdifferenzierung von Plattformen für verschiedene Zwecke ist schon eine Weile im Gange. Auf Social Media gibt es demnach nur noch professionellen Content.

Die Creator würden nun allerdings auf genau diesen ,,rohen Stil" setzen und keine KI-beschönigten Bilder zeigen. Wenn perfekte Bilder billig zu erstellen sind, werden unperfekte Bilder zum Trend. Zur Reaktanz gehört, dass Menschen den Auslöser ablehnen, das Gegenteil tun von dem, was der Sender beabsichtigt. Aufdringliche Werbung führt zur Ablehnung. Paris Hilton war in den 90er-Jahren erst spannend, aber als die Menschen ihr überdrüssig wurden, wurde sie zum Hassobjekt.

Mosseri geht außerdem davon aus, dass wir künftig mehr auf Hintergrundinformationen zu einem Account, einem Absender oder einem Inhalteersteller setzen werden, um vertrauen zu können. Das betrifft Social-Media-Konten ebenso wie Verlage und Medienunternehmen. Da KI-Antworten und Zusammenfassungen, ob in Suchmaschinen oder in Chatbots, immer auch mit falschen Informationen und Halluzinationen gespickt sein können, ist es möglich, dass Menschen zunehmend auf bekannte Quellen setzen werden.

Es ist zudem nicht nur leicht, einen Social-Media-Account mit KI-generierten Beiträgen zu füllen. Auch ganze Webseiten lassen sich im Nu dank KI erstellen – samt Fake News, Deep Fakes und einfach billiger Kopien. Im Zweifel stecken Menschen mit bösen Absichten dahinter, die Propaganda und falsche Informationen streuen wollen.

Bei Youtube soll jedes dritte Video, das einem neuen Nutzer angezeigt wird, inzwischen AI Slop sein – also billig KI-generierte Videos, die in der Regel monetarisiert werden sollen oder eben oft fragwürdige Informationen beinhalten. Das zeigt eine Recherche von Kapwing, einer Plattform für Video- und Bildbearbeitung, die freilich auch KI-Tools anbietet. In der Untersuchung ging es um die Frage, wie lukrativ billig hergestellte KI-Videos sind. Kapwing schätzt, dass zuletzt 117 Millionen US-Dollar an die Ersteller solcher Videos ausgeschüttet wurden.

(emw)


Aus: "AI Slop: Den Augen kann man nicht mehr trauen" Eva-Maria Weiß (02.01.2026)
Quelle: https://www.heise.de/hintergrund/AI-Slop-KI-Bilder-als-Problem-fuer-Youtube-Instagram-und-das-Internet-11127098.html

"AI Slop Report: The Global Rise of Low-Quality AI Videos" Liam Curtis (Nov 28, 2025)
https://www.kapwing.com/blog/ai-slop-report-the-global-rise-of-low-quality-ai-videos/

Quotedumblederp
02.01.2026 18:31

Wundervoll, ganz wundervoll! ... so, erstickt das Monster an seinem eigenen Erbrochenem.


Quotenixuser

02.01.2026 12:10

"KI verwässert aber mindestens auch die Informationslage"

Gefährlich wird es, wenn man sich auf Informationen, nur weil sie dem eigene Leitbild entsprechen, verlässt, ohne sie auf Plausibilität zu prüfen.

https://www.heise.de/forum/p-45680929/


-

Quotenixuser

30.10.2025 08:11

Telepolis fällt auf Fake-Video rein

In dem Artikel Die vertane Friedenschance im Ukraine-Krieg

https://telepolis.de/-10962832

fällt der Autor Luca Schäfer auf ein AI-generiertes Video herein und schreibt einen Artikel dazu.

...


Quelle: https://www.heise.de/forum/heise-online/Meinungen-zu-heise-online/Telepolis-faellt-auf-Fake-Video-rein/posting-45680929/show/

-

Quote...

Prolog in eigenen Sache

Werte Leserschaft,

mit Erschrecken und Erstaunen holte mich als Autor des Artikels "Die vertane Friedenschance im Ukraine-Krieg" der Verdacht auf ein dem geschriebenen teilweise zugrunde liegendes Deep-Fake Video ein. Dem stelle ich mich, denn es gilt, zu Verantwortung und Sorgfalt in der journalistischen Arbeit zu stehen: Diese hohen Güter wurden – bei gleichzeitiger Betonung der Schwierigkeit, die Urheberschaft des Videos im vorliegenden Fall abschließend zu klären, nicht in vollem Maße erfüllt. Gleichwohl versucht diese überarbeitete Version zu beweisen, dass a) die im Video getätigten Aussagen durchaus plausibel für den Realismus in den Internationalen Beziehungen nach Mearsheimer stehen könnten, dass b) die Kernessenz der Aussagen durch valide Quellen Mearsheimers belegt werden können und abschließend c) die aufgestellten Thesen einen sinnvollen, fruchtbar-vorwärtsweisenden und kontrovers-diskutablen Beitrag zur deutschen Ukraine-Debatte liefern können.

In diesem Sinne wünsche ich eine anregende Lektüre und eine spannende inhaltliche Debatte.

Luca Schäfer

...


Quelle: https://www.telepolis.de/article/Die-vertane-Friedenschance-im-Ukraine-Krieg-10962832.html (Luca Schäfer: "Die vertane Friedenschance im Ukraine-Krieg", 31. Oktober 2025)

...


Link

#44
... ICE setzt etwa KI-Werkzeuge ein ....

Quote[...] Seit den tödlichen Schüssen auf die US-Bürger Renée Good und Alex Pretti ist in den USA eine heftige Debatte über die Einwanderungsbehörde ICE entbrannt. Deren Beamte suchen in US-Städten nach Menschen ohne Aufenthaltsgenehmigung und gehen dabei oft rücksichtslos vor.

Dieser Teil der Arbeit von ICE ist in der Öffentlichkeit sichtbar. Nahezu unsichtbar ist das Arsenal an digitalen Werkzeugen, auf die ICE-Mitarbeiterinnen zugreifen können, wenn sie Menschen identifizieren wollen, die sie womöglich verhaften und abschieben können. Zu den Technologien im Einsatz gehört auch: künstliche Intelligenz.

ICE setzt etwa KI-Werkzeuge ein, die Gesichter identifizieren sollen. Begegnen sie in einer Stadt jemandem, den die Beamten für verdächtig halten, gleichen sie das Gesicht Berichten zufolge in Echtzeit mit Daten zu biografischen Informationen ab. Im aktuellen Inventurbericht des Heimatschutzministeriums, dem ICE unterstellt ist, heißt es außerdem, dass eine KI-Software des umstrittenen US-Unternehmens Palantir genutzt wird. Die soll dabei helfen, Hinweise aus der Bevölkerung "schneller zu identifizieren und zu bearbeiten". Das Tool liefere auch eine Zusammenfassung des Hinweises – unter Verwendung mindestens eines großen Sprachmodells.

Bemerkenswert daran ist die Kombination aus sensiblen Daten und hochpotenten digitalen Werkzeugen. Selbst Steuerdaten und Daten, die einst für Werbung gedacht waren, flossen oder fließen offenbar in die Analyse von ICE mit ein. 

Das Thema Datenschutz wirkt oft etwas angestaubt. Und doch: Diese wilde Verknüpfung von Daten durch invasive Tools ist genau das Angstszenario, vor dem Datenschützerinnen und Netzaktivisten seit Jahren warnen. Wenn Daten einmal erhoben sind, kann man sie nicht zurückholen. Und sie können dann auch für Zwecke eingesetzt werden, die man vorher nicht für möglich gehalten hätte. 

...


Aus: "Die US-Behörde ICE setzt auf KI, und es ist unheimlich" Lisa Hegemann (29. Januar 2026)
Quelle: https://www.zeit.de/digital/internet/2026-01/datenschutz-ice-palantir-newsletter-kuenstliche-intelligenz

Quotemontesa

    Die US-Behörde ICE setzt auf KI, und es ist unheimlich

Die deutsche Polizei setzt auf KI, und es ist unheimlich

Zur Erinnerung:

Palantir bei Polizeibehörden in Hessen (hessenDATA)

Palantir bei Polizeibehörden in Bayern (VeRA).

Palantir bei Polizeibehörden in Nordrhein-Westfalen

Palantir bei Polizeibehörden in Baden-Württemberg

"Unheimlich" ist deutlich zu harmlos für den Scheiß.

...


Quotepeter_schäfer

Kaum sind Häscher an der Macht, ist auch der gläserne Mensch da.

"Bedenken second", anyone?


[Kontext: " ... Ein exzellentes Beispiel dafür, wie schön einfach Wahlkampf doch sein kann, liefert derzeit die FDP unter der Regide ihres betont jugendlich wirkenden Anführers Christian Lindner. Auf einem der vielen Plakate, die hauptsächlich seine Person ins gelbe Licht rücken, meist aber – anders als bei anderen – zusätzlich eine These enthalten, heißt es: ,,Digital first, Bedenken second." ... Nach dem Motto: Wird schon nichts passieren! Und: Wer interessiert sich denn im Ernst für meine Daten? ..." | Aus: "Wahlkampfgetöse der FDP: ,,Digital first, Bedenken second." Guido Piech (29.08.2017) | Quelle: https://www.it-zoom.de/mobile-business/e/digital-first-bedenken-second-17640/]

...

"USA: Die Architektur der Abschiebung und Palantirs Rolle im neuen ICE-System" Imke Stock (25.01.2026)
Die US-Einwanderungsbehörde ICE digitalisiert die Abschiebung mit Palantir, Penlink, Datenbrokern und KI.
https://www.heise.de/hintergrund/USA-Die-Architektur-der-Abschiebung-und-Palantirs-Rolle-im-neuen-ICE-System-11152960.html


Link

"Humanoider Roboter: Jetzt neu: mit Hirn"
Seit Jahrzehnten erschaffen wir Menschen Maschinen nach unserem Ebenbild. Nun sollen die Humanoiden in Serie gehen – mit Chatbot als Denkorgan. Wie werden wir uns begegnen?
Von Max Rauner, Aus ZEIT Wissen Nr. 02/2026
... Die Eroberung der Menschheit durch Gemini (Google), Claude (Anthropic), Copilot (Microsoft) und ChatGPT beflügelt nun die Fantasie der Maschinenbauer. Sie träumen davon, die Chatbots mit Roboterkörpern zu verschmelzen. "Embodied Cognition" (verkörperte Kognition) heißt das Forschungsfeld, das in seiner Extremposition davon ausgeht, dass allgemeine Intelligenz ohne Körper gar nicht möglich ist. Intelligenz braucht Sinne und Gliedmaßen, um die Welt buchstäblich zu be-greifen. Der Mensch ist das Vorbild, aber bitte ohne Herzinfarkt und Knochenbrüche. ...
https://www.zeit.de/zeit-wissen/2026/02/humanoid-roboter-kuenstliche-intelligenz-forschung-mensch/komplettansicht