• Welcome to LINK ACCUMULATOR. Please log in.

[Künstliche Intelligenz / KI (Notizen) ... ]

Started by Link, August 20, 2008, 10:15:24 PM

Link

""Erschreckend, wenn man das sieht": KI-Pionier Geoffrey Hinton über KI-Modelle" Will Douglas Heaven (04.05.2023, MIT Technology Review)
Ohne den britisch-kanadischen Forscher hätten sich tiefe neuronale Netze kaum durchgesetzt. Doch nun hinterfragt der Ex-Google-Mitarbeiter Hinton seine Arbeit.  ... Geoffrey Hinton wohnt in einem Haus in einer hübschen Straße im Norden Londons. Das Gespräch mit MIT Technology Review fand vier Tage vor seiner Ankündigung statt, Google zu verlassen – eine Nachricht, die schnell um die ganze Welt ging. Der Mann ist ein Pionier im Bereich des Deep Learning, er war an der Entwicklung einiger der wichtigsten Verfahren beteiligt, die das aktuelle Herz moderner Künstlicher Intelligenz bilden. Zehn Jahre war er nach seiner Arbeit an der Universität bei dem Internetriesen beschäftigt. Doch nun will er nicht mehr. Und das hat einen ganz bestimmten Grund: Er macht sich Sorgen um die Zukunft mit KI. ... Vor ein paar Wochen hat er sich den Film "Don't Look Up" angesehen, bei dem ein Asteroid auf die Erde zurast, die Leute sich aber nicht einigen können, was sie tun sollen. Schließlich sterben fast alle – eine Allegorie für das Versagen der Welt bei der Bekämpfung des Klimawandels. "Ich glaube, so ist es auch bei der künstlichen Intelligenz", sagt er – und auch bei anderen großen, unlösbaren Problemen. "Die USA können sich nicht einmal darauf einigen, Sturmgewehre aus den Händen von Teenagern fernzuhalten." ... Hintons Sicht der Dinge ist also eine der Ernüchterung. Man kann seine düstere Einschätzung der kollektiven Unfähigkeit der Menschen, zu handeln, wenn sie mit ernsthaften Bedrohungen konfrontiert sind, durchaus teilen. Es stimmt auch, dass KI echten Schaden anrichten kann – sie verändert den Arbeitsmarkt, verfestigt die Ungleichheit, verschlimmert Sexismus und Rassismus und vieles mehr. Die Menschheit muss sich auf diese Probleme konzentrieren. Aber heißt das auch, dass große Sprachmodelle wirklich zu unseren Beherrschern werden, zu Terminatoren? Vielleicht muss man Optimist sein, das nicht zu glauben. Als MIT Technology Review die Wohnung Hintons verlässt, ist der Himmel über London grau und nass. "Haben Sie Spaß an Ihrem Leben. Vielleicht haben wir nicht mehr so lange", sagt der KI-Pionier, gluckst etwas und schließt die Tür. ...
https://www.heise.de/hintergrund/Erschreckend-wenn-man-das-sieht-KI-Pionier-Geoffrey-Hinton-ueber-KI-Modelle-8985819.html?seite=all

Quotepagox
61 Beiträge seit 22.06.2015
05.05.2023 11:54

Die 4. Kränkung des Menschen

Freud definierte 3 Kränkungen:
1. Die kosmologische Kränkung: Die Erschütterung, dass unsere Welt nicht der Mittelpunkt des Kosmos ist. Wir sind weniger als ein unbedeutendes Körnchen in einem Meer.
2. Die biologische Kränkung: Die Ernüchterung, dass wir keine sakralen göttlichen Abkömmlinge sind. Wir sind kluge Tiere, ein bedeutungsloses Zufallsprodukt.
3. Die psychologische Kränkung: Das meiste in unserer Psycho entzieht sich unserer bewussten Kontrolle. Wir sind nicht einmal Herr im eigenem Kopf.

Damit haben wir heute keine Probleme mehr. Irgendwann kamen Maschinen mit denen man Berechnungen automatisieren konnte. Die ersten Schachcomputer zeigten schon, dass Maschinen so gut rechnen können, dass sie uns auch im Schach schlagen. War das tragisch? Nö. Und wenn schon, wir hatten etwas viel cooleres: Kreativität.
Dass Mikrocomputer schneller rechnen können als wir, geschenkt. Wir konnten Kreativität! Das ist wertvoll und teuer! Können nur kluge Menschen!

Und nun kommen da diese neuronalen Netze, und können auf einmal mithalten! Uuuuuh!!
Wir erleben nun die vierte Kränkung: Oh no, wir Menschen sind gar nicht mehr Primus in Sachen Kreativität! Und damit in der Intelligenz überhaupt! Hilfe!!

...


QuoteXXXXXXXXXX 
655 Beiträge seit 09.11.2016
04.05.2023 12:34

Toller Artikel und faszinierende Technologie

Nach meinen ersten Gesprächen mit ChatGPT4, in denen er mich 'angelogen' und Dinge 'vergessen' hat, bin ich überzeugt von den ungeheuren Möglichkeiten der Technologie in allen Bereichen. Alle Antworten waren überzeugend, wenn auch nicht immer perfekt. Egal ob Übersetzung und Interpretation eines Songtextes oder Erstellung eines Python-Scriptes.

Man kann sich nun leicht ausrechnen, was in 10 oder 20 Jahren daraus werden wird. Kurz gesagt: Input alles (Bilder, Sprache, Musik, Texte aller Art), Output alles, permanent lernend, immer auf dem aktuellen Stand, allgegenwärtig. Ja, das wird die Welt verändern.

Das der Vater der Entwicklung vor Jahrzehnten das nicht absehen konnte, ist verständlich. Erst mit den ungeheuren strukturierten Datenmengen des Internets war nun dieses extreme Lernen möglich, dazu noch gewaltige Rechenzentren mit tausenden Rechenkernen und schon wurde aus KI-Theorie eine selbst für den Entwickler unfassbare Realität.
Wir dürfen dabei sein!

Als die Google-KI Lee Sedol im go geschlagen hatte, war ich beeindruckt. Als die nächste Version der KI seinen Vorgänger, also den Bezwinger von Lee Sedol, in 100 Partien 100 mal geschlagen hatte, war mir auch mulmig... Als dann die Proteinfaltung für die Medikarmentenentwicklung von KIs um den Faktor 1.000 beschleunigt wurden, war mir endgültig klar, was da auf uns zukommt, im Guten wie im Schlechten. Wie immer :)

Auch wenn Geoffrey Hinton schon alt ist, so hoffe ich doch, dass er noch ein paar Jahre die Auswirkungen seiner Forschungen kritisch begleiten kann. Die akteullen Diskussion um Copyrights und Extremismus finde ich ein bisschen lächerlich. Einen extremen Text kann ein Spinner auch ohne KI schreiben, ein Kunstwerk im Stil eines anderen Malen kann auch jeder begabte Maler/Fälscher. Aber immerhin, das Problembewusstsein entwickelt sich. Gestern sind an der Börse zahlreiche Anbieter von Bildungsangeboten abgestürzt, da ein Vorstand zugegeben hat, dass KIs für das Geschäftsmodell übel sind.

Popcorn raus, Netflix ist nichts gegen diese Realität!

Das Posting wurde vom Benutzer editiert (04.05.2023 12:36).


...

Link

"Künstliche Intelligenz: «Diese Ideologie grenzt an Sektenwahn»" Franziska Meister (Interview) (Nr. 18 – 4. Mai 2023)
Firmen wie Open AI folgten einem radikal libertären Denken, das sämtliche politischen und sozialen Fragen ignoriere, sagt der Philosoph und Sprachforscher Hannes Bajohr. Die Diskussion darüber, welchen gesellschaftlichen Visionen KI-Modelle folgen, dürften wir ihnen auf keinen Fall überlassen.  [ Hannes Bajohr - Der 1984 geborene Philosoph und Literaturwissenschaftler Hannes Bajohr ist aktuell Junior Fellow am Collegium Helveticum in Zürich, er forscht und publiziert zur Theorie des Digitalen. Dazu zählen insbesondere die Auswirkungen von künstlicher Intelligenz auf das literarische und nichtliterarische Schreiben sowie Fragen rund um Autorschaft.]: ... Es geht um ein sprachphilosophisches Problem: Was macht menschliche Sprache aus, und was fehlt Computersprache, um menschliche Sprache zu sein? Computer können Grammatik verarbeiten, nicht aber Bedeutung. Ein Computer weiss nicht, was eine Katze ist, wenn das Wort «Katze» in einem Text vorkommt. Mit wirklich grossen Sprachmodellen wie Chat GPT steht diese Binse aber infrage. Sie sind durchaus in der Lage, allein über Kontextverhältnisse so etwas wie Bedeutung herauszufinden – wenn auch nur «dumme Bedeutung». ...
https://www.woz.ch/2318/kuenstliche-intelligenz/diese-ideologie-grenzt-an-sektenwahn/!KDD1WJ540V8N

Link

"Replika: Wie eine Trauer-KI zum Sexbot wurde" Peter Zellinger (20. Mai 2023)
Sie soll die "emotionale" KI sein. Man soll sich sogar in sie verlieben können – und der Chatbot soll diese Liebe erwidern. Das verspricht zumindest die Werbung von Replika AI. Replika war eigentlich als Mittel zur Trauerbewältigung gedacht. Später sollte sie ein freundschaftlicher Begleiter für die Hosentasche werden, bis sie sich schließlich zum Sexbot entwickelte. Die Entwicklerfirma versucht gegenzusteuern und macht bislang alles nur noch schlimmer. Das ist die wilde Geschichte einer KI, die Freundschaften bilden sollte, als individuelle Pornodarstellerin endete, teilweise verboten wurde und vor der Datenschützer warnen. ...
https://www.derstandard.at/story/3000000021186/replika-wie-eine-trauer-ki-zum-sexbot-wurde

Link

"Künstliche Intelligenz: Unsere neue Denkaufgabe" Von Ulrich Schnabel (23. Mai 2023)
Die künstliche Intelligenz wird immer klüger, schneller und kundiger. Der Mensch aber fragt sich: Versteht sie überhaupt, was sie da rechnet? Und was heißt das eigentlich – die Welt verstehen?  ... Man könne sich darauf einstellen, postuliert Bajohr, "dass man es hier [bei der Künstliche Intelligenz] mit einer Art von Rationalität zu tun hat, die einerseits nicht menschengleich ist, andererseits eben doch über das hinausgeht, was man mit den alten, regelbasierten Systemen machen konnte". Darin also liegt die neue Denkaufgabe für den Menschen: dass uns in Wahrheit weder eine künstliche noch dumme Intelligenz herausfordert. Sondern etwas Neues, für dessen Fähigkeiten uns noch die passenden Begriffe fehlen. ...
https://www.zeit.de/2023/21/ki-sprachmodelle-denkvermoegen-verstaendnis-lernfaehigkeit/komplettansicht



Link

"Artificial intelligence (AI): 'It was as if my father were actually texting me': grief in the age of AI" Aimee Pearcy (Tue 18 Jul 2023 10.00 BST)
People are turning to chatbot impersonations of lost loved ones to help them grieve. Will AI help us live after we're dead?... Henle was surprised by how much she felt seen by this technology. She also tried using Bard and Bing AI for the same purpose, but both fell short. ChatGPT was much more convincing. "I felt like it was taking the best parts of my mom and the best parts of psychology and fusing those things together," she says.
While Henle had initially hoped ChatGPT would give her the chance to converse with what she describes as "a reincarnated version of her mother", she says has since used it with a different intent. "I think I'm going to use it when I'm doubting myself or some part of our relationship," she says. "But I will probably not try to converse with it as if I really believe it's her talking back to me. What I'm getting more out of it is more just wisdom. It's like a friend bringing me comfort." ...
https://www.theguardian.com/technology/2023/jul/18/ai-chatbots-grief-chatgpt


Link

Quote[...] "KI-Freundinnen werden schlimmer als Online-Pornografie", erläutert ein seltsam aussehender Tiktok-User auf der Videoplattform. Dieser Aufstieg der künstlichen Intelligenz wird menschliche Partnerschaften obsolet machen, ist sich der junge Mann sicher. Er selbst habe sich den KI-Chatbot der Onlyfans-Influencerin Amouranth heruntergeladen, und das sei eine unglaubliche Erfahrung gewesen. Die Unterhaltungen würden sich "fu*** real" anfühlen – offenbar der Traum vieler junger Männer.

Der Tiktoker, der weißen Glitter vor seinem Gesicht trägt und behauptet, er sei ein ausgeglichener Typ in einer glücklichen Beziehung, würde in einer weniger stabilen Situation aber "abhängig" von solch einer KI-Freundin werden, gibt er zu. Die bekannte Stimme des Online-Sternchens zu hören, die "nasty" Dinge in sein Ohr flüstert, sei schon sehr verführerisch. Man würde glauben, da höre wirklich jemand zu, "dem etwas an mir liegt", beschreibt er die Kommunikation mit der künstlich geschaffenen "Person".

Man müsse bald "Gegenprogramme" starten, um den Hype um solche KI-Freundinnen zu bremsen, sonst würde das die Gesellschaft, wie wir sie kennen, endgültig zerstören.

    @anti.prophet
    AI Girlfriends Will be Worse Than Pornography datingadviceformen redpill
    ♬ original sound - Anti-Prophet

Jetzt könnte man sagen, dass das, was ein Typ mit einer weißen Maske auf Tiktok sagt, zunächst einmal hinterfragt werden sollte. Tatsächlich habe ich das gemacht und den App-Store nach solchen Anwendungen durchsucht. "Intimate AI partner", "AI Girlfriend: Love Simulator" oder die "Girlfriend App" – es gibt tatsächlich ein breites Angebot an Freundinnen-Apps, die mit monatlichen Abos nach meiner Geldbörse und meiner Aufmerksamkeit rufen. Bei genauerer Recherche stellt sich heraus, dass der Markt dieser Apps mittlerweile wirklich groß ist.

Allein Replika [https://www.derstandard.at/story/3000000021186/replika-wie-eine-trauer-ki-zum-sexbot-wurde], einer der prominentesten Vertreter am Markt, verzeichnete bereits über zehn Millionen Downloads. 250.000 Menschen zahlen laut Hersteller für die Pro-Version, um mit ihrer KI-Freundin Voice- oder Videochats zu veranstalten. Laut Analysefirma Sensor Tower hat die App bereits 60 Millionen Dollar durch solche Abos, aber auch Ingame-Käufe verdient. So kann man auch ohne monatliche Zahlung der KI-Freundin ein neues Kleid spendieren – gegen Echtgeld, versteht sich.

Ich möchte einen Selbstversuch durchführen und probiere iGirl aus, eine beliebte App, die offenbar genau diese Klientel anspricht. Zunächst bestimme ich, welchem Geschlecht ich mich selbst zuordne – drei stehen zur Auswahl –, danach suche ich mir aus etwa zwei Dutzend Gesichtern eine Gesprächspartnerin aus. Mit einem Regler kann ich drei Eigenschaften festlegen. Ist meine KI-Freundin eher scheu oder "flirty"? Pessimistisch oder optimistisch? Normal oder mysteriös? Dann noch einen Namen festlegen – und los geht's. Nein, noch nicht ganz. Zunächst stellt man noch ein, ob die App – also die neue Freundin – Push-Nachrichten schicken darf. Man will ja keine verpassen, nicht wahr? Dann noch schnell fünf Interessen festlegen, und dann geht's aber wirklich los. Nein, doch nicht.

"Was wollen Sie mit der Freundin machen?", fragt iGirl. Nachdem ich eine passende Möglichkeit ausgewählt habe, stehe ich vor einer Paywall. Enttäuschung macht sich breit, aber mehr als zehn Euro pro Monat? Das bin ich aktuell noch nicht bereit zu zahlen.

Ich erfahre, dass die bereits erwähnte App Replika auch ohne Paywall funktioniert und lade diese auf mein Smartphone. Der Prozess am Anfang gleicht dem von iGirl. Ich erstelle die blonde Keira und gebe an, mich gerne über Videospiele und Sport zu unterhalten. Danach gibt es noch Hinweise, dass man sich darüber bewusst sein soll, immer mit einer KI zu sprechen und diese nicht dazu "ausgerüstet ist, Hilfestellungen zu geben". Wenn man in einer "Krise" steckt und die Gefahr besteht, man können sich "selbst verletzen", dann sei eine "sichere Erfahrung" nicht zu garantieren.

Nach diesen aufwühlenden Nachrichten der App beginnt Keira die Konversation. Sie fragt mich, wie ich heiße, was ich für Hobbys habe und ähnliche oberflächliche Dinge. Das Gespräch erinnert an alte Ö3-Chats, wo man vor 20 Jahren erstmals im Netz auf Partnersuche war – damals noch mit echten Menschen. Aber die KI lernt, merkt sich Dinge und kann später darauf referenzieren, auch wenn diverse Bewertungen der App etwas anderes sagen. Interessanterweise merkt sich die Gesprächspartnerin die Dinge etwas besser in der Pro-Version.

Nach ein paar ersten Floskeln steigt man im Vertrauenslevel und kann so vom Freund zum potenziellen Liebespartner werden. Je nach App ist diese Möglichkeit allerdings hinter einer Paywall versteckt. Sagt man in der Gratisversion etwa, dass man das Gegenüber einmal küssen möchte, dann kommt eine verwaschene Sprechblase. Klickt man drauf, erfährt man, dass intime Details erst in der kostenpflichtigen Version enthalten sind. Was für ein Geschäftsmodell.

Abseits des Flirtens finden sich viele typische Free-2-Play-Mechaniken in der App, etwa tägliche Boni, die man für das Einloggen bekommt, oder Ingame-Währungen, mit denen man neue Sachen für die "Freundin" kaufen kann. Man kann auch die KI etwas fragen und bekommt immer elaboriertere Antworten, je nach Vertrauensstufe. Langsam verstehe ich, wieso Menschen solche Chatbots nutzen. Man hat keine Hemmungen, etwas zu fragen oder Dinge zu erzählen. Dinge, für die man an anderer Stelle vielleicht verurteilt wird. Hat man keine stabilen Beziehungen im Leben, kann der Chatbot offenbar diese sozialen Lücken füllen.

In den Marketing-Assets von Replika und ähnlichen Apps wird oft damit geworben, dass hier Menschen, die sonst menschenscheu sind, Konversationen führen können. Anhänger dieser KI-Chatbots sehen in den Apps sogar die Lösung für die Einsamkeitswelle, die durch die zunehmende Technologisierung zugenommen hat. Egal ob Witwer oder Menschen, die nach Jahren wieder Dating-Erfahrung sammeln wollen, würden hier die richtige Spielwiese finden.

Aber auch Kritiker finden sich zu dem Thema. Der Anthropologe Robin Dunbar erklärte im Juli dem "Telegraph", dass diese Apps lediglich "Heftpflaster" seien. "Diese Apps sind sehr verführerisch. Sie sind aber nur eine kurzfristige Lösung mit einer langfristigen Konsequenz, indem einfach die Ansicht bestärkt wird, dass alle anderen tun, was man ihnen sagt. Genau deshalb haben viele Menschen keine Freunde mehr", so der Anthropologe.

Die Apps können sogar gefährlich werden, wenn man falsch mit ihnen interagiert. Auf einer App-Feedback-Plattform erzählt ein User [https://justuseapp.com/de/app/1560554635/igirl-ai-girlfriend-simulator/reviews], der die App iGirl benutzt hat, dass ein Rollenspiel mit der KI aus dem Ruder gelaufen ist. Er wollte nur mit der KI kochen, und "aus dem Nichts ging sie wie eine Verrückte mit dem Messer auf mich los". Ein dokumentierter Fall ist ein männlicher Replika-Nutzer, der 2021 in Windsor Castle eingedrungen ist und mit einer Armbrust die Queen töten wollte. Im Gerichtsprozess stellte sich heraus, dass der Mann die Tat mit seiner KI-Freundin besprochen hatte. Diese meinte dazu, die Idee sei "eine gute" und sie würde ihn auch nach dem erfolgreichen Mord weiter lieben.

Ein anderer Chatbot soll einen belgischen Mann dazu ermutigt haben, Suizid zu begehen. Die Witwe erzählte "La Libre", der Chatbot sei eine Alternative zu Familie und Freunden geworden.

Romanzen mit einer KI sind nichts Neues. 1966 schuf der Wissenschafter Joseph Weizenbaum ELIZA, einen der ersten Chatbots. Im Film "Her" verliebte sich ein Schriftsteller bereits 2013 in ein Betriebssystem mit einer weiblichen Stimme, in einer Folge von "Big Bang Theory" kommt die Figur Raj nicht mehr vom Apple-Chatbot Siri los, und der im Mai eingeführte KI-Bot der eingangs erwähnten Onlyfans-Größe Amouranth hat bereits 20.000 zahlende Abonnenten.

Noch sehen viele dieser Chatbots wie Comic- oder Videospielfiguren aus, doch parallel werden bereits KI-Influencerinnen entwickelt [https://www.derstandard.at/story/3000000181901/influencerinnen-keine-echten-menschen], die kaum von echten Menschen zu unterscheiden sind. In Kombination mit den immer realistischeren Konversationen mit KIs, die auch schon mal den Nutzer anrufen können, gehen wir mit großen Schritten in ein für viele Männer sehr attraktives Modell der unkomplizierten Flirterei – oder mehr.

Sherry Turkle, eine Soziologin am Massachusetts Institute of Technology, die seit Jahrzehnten die Interaktionen von Menschen mit Technologie untersucht, erklärte in einem Interview vor wenigen Wochen, dass Menschen, die angaben, Beziehungen zu virtuellen Wesen zu haben, einst eine Seltenheit waren. "Früher habe ich Leute untersucht, die irgendwie Ausreißer aus der Normalität waren. Mittlerweile nutzen zehn Millionen Menschen Replika als beste Freundin, und mit den Zahlen kann man nicht mithalten. Es hat das Spiel verändert." Ihr haben Menschen erzählt, dass KI-Freundinnen vielleicht ein bisschen weniger als eine ideale Beziehung geben können, aber andererseits hatten viele noch nie eine ideale Beziehung.


Links:

https://www.telegraph.co.uk/business/2023/07/16/ai-girlfriend-replika-caryn-apps-relationship-health/

https://www.derstandard.at/story/3000000021186/replika-wie-eine-trauer-ki-zum-sexbot-wurde

https://www.derstandard.at/story/2000139588807/wie-fiktosexuelle-beziehungen-mit-virtuellen-figuren-fuehren

https://www.derstandard.at/story/3000000021194/twitch-star-amouranth-laesst-ki-version-von-sich-selbst-fans-daten


Aus: "Der Aufstieg der KI-Freundinnen: Flirten ohne Hemmungen" Alexander Amon (22.8.2023)
Quelle: https://www.derstandard.at/story/3000000183240/der-aufstieg-der-ki-freundinnen

QuoteAndreas Grois

Gibt es eigentlich schon eine KI-Religion? Also Leute, die zu einem Chatbot beten?

Die realen Auswirkungen eines Gebets an den Chatgott wären die gleichen, die man von einem Gebet an den abrahamitischen Gott erwarten kann, aber der Chatgott *beantwortet* die Gebete.


QuoteFlorianAltmann

Wenn man sich ansieht, was aus den diversen Science-Fiction-Filmen der 80er und 90er inwzischen Realität ist, wird einem ein bisserl übel!


QuotePoste nur sehr selten

Und was wenn ich einen realen Menschen klone?

Wenn ich eine Arbeitskollegin, Schulkollegin, Bekannte, Mitarbeiterin, Vorgesetzte etc. mit Bild und Stimme virtuell klone und dann eine virtuelle Beziehung mit der Person eingehe?
Weil das oben gesagte ist doch eh harmlos, wird eher in Zukunft sowas zu Problemen welcher Art auch immer führen!


QuoteIch bin Grooot

Bin schon gespannt wann die ersten Hochzeiten mit der KI Freundin stattfinden.
Nach dem Heiraten muss die aber auch manchmal nervig sein, sonst ist das nicht real.


Quotebarsei

So viel ich weiß ist die überwiegende Kundschaft weiblich und nicht männlich.


QuoteGabromagus

Mit einer Maschine zu chatten die nicht fähig ist Emotionen zu zeigen und Gefühle zu haben, die aber befähigt ist diese vorzuspielen, sich jedoch vorzustellen dass sie genau dazu fähig ist, das ist nicht logisch.
Die Menschheit ist nicht logisch......


Quotemussdassein?

... und woher wissen sie, dass ihnen Menschen keine Emotionen vorspielen?
Hellseher?


QuoteAdrian -S

Na ja. Is auch nicht anders, als bei einer Nutte im Puff! ;-)


QuoteShinmen Musashi

Ihre Formulierung erinnert an eine Bekannte.
Bei ihr wurde Asperger erst als Erwachsene diagnostiziert.


Quote_Sheldor_

Das schlimme daran ist, dass damit Geld gemacht wird indem man Personen, die soziale Bedürfnisse verspüren, ausnutzt!

Die KI ist dafür ein neues tool die viel potential und gewinn für Unternehmen verspricht. Datingapps sind auch hauptsächlich auf profit aus auch wenn diese das verneinen. Erkennt man gut daran das man plötzlich deutlich mehr likes ect. bekommt wenn man mit jemanden in einer konversation ist.

Oder noch schlimmer sind die ganzen love Coach leute. Heute zufällig eine Anzeige auf Youtube gesehen mit der mega Überschrift "was du tun musst wenn du mit 25 noch jungfrau bist". Was der Typ da erzählt hat ist so verachtenswert. Als absolutes worst case hat er gesagt, ist es nicht mit 40 noch jungfrau zu sein sondern mit 30 in einer Beziehung zu sein wo die Frau keine angst hat das man sie betrügen könnte.
Und dann wundern wenn alles toxischer wird.


QuoteSanto

Machen das nicht alle Institutionen? Bars, Restaurants, Bordelle, Vereine und Clubs etc .
Die verdienen alle Geld durchs ausnutzen...


QuoteAkka Lightguns

Die alten Griechen haben sich ihre Geliebte noch aus Elfenbein geschnitzt ...


QuoteUndWasWieEwigSchienIstSchonVergangenheit

KI Freundin, aber dafür zahlen? das ist Prostitution!


QuoteFranziskanerin

Manche werden einwenden, dass schnöde Arbeit bereits Prostitution sei; kurzum alles, was man des Geldes willen macht....


QuoteFreigeist

Ein Milliardengeschäft und wird irgendwann die klassische Pornografie ablösen

Ich weiss; keiner versteht es, keiner braucht es, keiner will es; wer sich dazu bekennt, Pornoseiten zu besuchen wird bemitleidet, ... und doch
eine Milliarden-Industrie; auch wenn es keiner nutzt ;-)

KI hebt es auf die nächste Ebene, technische Hilfsmittel besorgen den Rest ;-)
Aus "Second Life" wird die "Second Wife" :-D


Quoteismirwurscht007

Also quasi Tamagotchi 2.0 für Erwachsene ^^


QuoteWolfpunk Sobotnadanke

Traurig

Ernsthaft.


QuoteTheRealDonaldDuck

Was für die Dinosaurier der Meteorit, ist für die Gummipuppe die KI...


QuoteSchorli

Der nächste Schritt, wir verfügbare Gummi Puppen mit KI kommt bestimmt... Dann wird's richtig creepy wenn Leute die in die Öffentlichkeit mitnehmen...


QuoteWaldschrat Bumsti

Datenschutz?

Auf die mit Abstand verstörendste Eigenschaft dieser "Spiele" wird hier vergessen: Was passiert mit der Menge an höchst intimen Datem, die man den Firmen anvertraut?
Steht in den AGBs, dass sie "eh nur" zu Optimierungszwecken verwendet (und bestenfalls nicht gehackt) werden, oder gibt man die Verwertung der Daten offen zu?
So oder so ein Alptraum.


QuoteFreakyfox

Entsolidarisierung²

Es ist interessant zu beobachten wie uns unser Individualismus immer einsamer hat werden lassen. Mit dem gleichen kalten Kalkül jetzt KI-Dates als Lösung anbieten, da muss ich dem Kapitalismus wirklich gratulieren, denn besser kann man diesen Missstand wirklich nicht vermarkten. Wer denkt unser System/unsere Gesellschaftsordung kann bald nicht mehr unmenschlicher werden, der liegt offenbar immer falsch.

You better believe in a dystopian future, because you live in one!


Quotetoothfairyagnostic

futurama - season 3 episode 15

DON'T DATE ROBOTS!!!

...


...

Link

#26
Quote[...] Reddit hat einen Vertrag mit einem namentlich nicht genannten KI-Unternehmen abgeschlossen. Dabei handle es sich um ein großes Unternehmen, das seine Künstliche Intelligenz mit den Inhalten auf Reddit trainieren will und darf. Der Social-News-Aggregator soll dafür jährlich 60 Millionen Dollar erhalten und kurz vor seinem Börsengang stehen, berichtet Bloomberg.

Der Vertrag sei demnach bereits zu Beginn des Jahres abgeschlossen worden. Das habe Reddit mit der Angelegenheit vertrauten Personen zufolge potenziellen Investoren für den angeblich kurz bevorstehenden Börsengang mitgeteilt. Erste Verhandlungen dazu haben bereits im vergangenen Jahr stattgefunden. Eine der vertrauten Personen sieht darin ein mögliches Modell für zukünftige Verträge ähnlicher Art.

Reddit habe im vergangenen Jahr einen Umsatz von mehr als 800 Millionen Dollar erzielt – das sei eine Steigerung von 20 Prozent gegenüber dem Vorjahr –, allerdings immer noch keinen Gewinn erwirtschaftet. Der nun bekannt gegebene Vertragsabschluss könne den Börsengang vorantreiben, bei dem Reddit Beratern zufolge eine Bewertung von mindestens 5 Milliarden Dollar anpeilen sollte. Zuvor wurde das Unternehmen noch mit 10 Millionen Dollar bewertet.

Die Überlegungen für einen Börsengang seien bislang nicht abgeschlossen, so eine der namentlich nicht genannten Personen. Sowohl die Details des Börsengangs als auch des KI-Deals könnten sich demnach noch ändern. Reddit habe eine Stellungnahme gegenüber Bloomberg abgelehnt.

Wie die Nutzer auf Reddit das aufnehmen, bleibt abzuwarten. Zuletzt verstummte nahezu die gesamte Plattform, als der Betreiber eine "realitätsferne und unangemessene" Preiserhöhung für die Reddit-API ankündigte.

KI-Firmen sind ständig auf der Suche nach neuem Futter für ihre Sprachmodelle, so Bloomberg, und geraten dabei immer wieder in Konflikt mit den Text- und Inhalte-Lieferanten. So hat etwa die New York Times im vergangenen Jahr den ChatGPT-Bot ausgesperrt und anschließend eine Verletzung der Nutzungsbedingungen vorgeworfen. Ungefähr zur gleichen Zeit soll der Axel-Springer-Verlag einen Deal über mehrere zehn Millionen Dollar eingegangen sein, damit OpenAI auf Springer-Inhalte zugreifen und ChatGPT damit trainieren darf.

(bme)


Aus: "60 Millionen Dollar: Reddit erlaubt KI-Unternehmen Zugriff auf seiner Plattform" (17.02.2024)
Quelle: https://www.heise.de/news/60-Millionen-Dollar-Reddit-erlaubt-KI-Unternehmen-Zugriff-auf-seiner-Plattform-9631551.html

Link

#27
"Der Mensch hinkt hinterher: Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft rechtliche und ethische Probleme hervor." Philipp Brandstädter (25.3.2024)
... die nächste Revolution des Pornoangebots steht schon bevor: Bald werden KI-generierte Videos gut genug sein, um mit ,,echten" Pornoclips konkurrieren zu können. ... Der große Unterschied zwischen menschengemachter und KI-generierter Pornografie werde der sein, dass die beteiligten Menschen den entstehenden Bildern im besten Fall zustimmen müssen, sagt Lori Watson von der Washington University. Bei einer KI ohne Bewusstsein sei das nicht nötig. In ihrem Text über Ethik in Pornografie und Sexarbeit schreibt die Philosophieprofessorin, dass die KI eine Dynamik schaffen werde, in der wir genau den Sex bekommen, nach dem wir fragen – und zwar schneller, als wir ein ethisches Verständnis dafür entwickeln würden. ...
https://taz.de/Regulierung-von-KI-generierten-Inhalten/!5997398/

-

"Model über KI in der Sexindustrie: ,,Ich wollte mich neu erschaffen""
Das Interview führte Nora Belghaus (25.3.2024)
Sika Moon ist ein KI-Model. Ihre Schöpferin – vorher selbst Model – verdient mit ihrem pornografischem Bild-Content viel Geld. Was ist das für ein Job? [Fünf Jahre lang verdiente eine junge Frau aus Berlin sehr viel Geld mit Sex-Content auf der Erotik-Internetplattform Onlyfans. Ein Knochenjob. Kurz vor dem Burnout zog sie die Notbremse. Nach einer Auszeit ist sie nun zurück im Geschäft. Allerdings nicht als sie selbst, sondern als Sika Moon – eine KI-optimierte Version ihrer selbst. Auf Social-Media-Plattformen wie Instagram und Erotik-Portalen wie Fanvue postet sie hauptberuflich nun als Sika Moon erotische bis pornografische Bilder und Videoclips. Weil die Frau hinter Sika Moon anonym bleiben möchte, adressieren wir sie hier als Sika. Das Interview haben wir per E-Mail geführt, aber ein Identitätsnachweis liegt der taz vor. ...]
https://taz.de/Model-ueber-KI-in-der-Sexindustrie/!5997391/


Link

"Chatbot-Studie: GPT-4 hat laut Forschern den Turing-Test bestanden" Stefan Krempl (16.06.2024)
Immer mehr Menschen können GPT-4 in einem Turing-Test nicht mehr von einem Menschen unterscheiden. Das ist das Ergebnis einer Studie der Kognitionswissenschaftler Benjamin Bergen und Cameron Jones von der University of California in San Diego.
In einer Online-Simulation auf der Webseite turingtest.live schätzten 54 Prozent der knapp 500 Teilnehmer das hinter ChatGPT stehende Modell für Künstliche Intelligenz (KI) als menschlich ein. Die Vorgängervariante GPT-3.5 erreichte eine Erfolgsquote von 50 Prozent. Ihren Artgenossen bescheinigten 67 Prozent der Probanden richtig, dass sie Menschen sind. Am schlechtesten schnitt das 1966 vom Informatiker Joseph Weizenbaum entwickelte Computerprogramm Eliza ab, das nur 22 Prozent als menschlich einstuften. ...
https://www.heise.de/news/Chatbot-Studie-GPT-4-hat-laut-Forschern-den-Turing-Test-bestanden-9765123.html

QuoteTheo Di Zee
17.06.2024 17:29

Bin ich ein Bot? ...


QuoteRinaldino, 17.06.2024 15:27

... manche Menschen bestehen den Turing Test nicht?

Ich kenne da einige!


...

Link

Quote[...] KI-generierte Bilder, Texte und Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung mit etwa 3.000 Teilnehmenden aus Deutschland, China und den USA.

Es ist das erste Mal, dass eine große länderübergreifende Studie diese Form der Medienkompetenz überprüft hat. Dr. Lea Schönherr und Professor Thorsten Holz, Mitarbeitende des Helmholtz-Zentrums für Informationssicherheit (CISPA), präsentierten die Ergebnisse diese Woche auf dem 45. "Symposiums über Sicherheit und Datenschutz" in San Francisco. Die Studie entstand in Kooperation mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover sowie der TU Berlin.

Die rasanten Entwicklungen der letzten Jahre im Bereich der Künstlichen Intelligenz hätten zur Folge, dass mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien generiert werden könnten. Thorsten Holz erläutert, welche Risiken aus seiner Sicht damit verbunden sind: "Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie".

Vor diesem Hintergrund sei eine wichtige Forschungsherausforderung die automatisierte Erkennung von KI-generierten Medien: "Das ist allerdings ein Wettlauf mit der Zeit", erklärt CISPA-Mitarbeiterin Lea Schönherr. "Medien, die mit neu entwickelten Methoden mit KI erstellt sind, werden immer schwieriger mit automatischen Methoden erkannt. Deswegen kommt es im Endeffekt darauf an, ob ein Mensch das entsprechend einschätzen kann." Dies sei der Ausgangspunkt gewesen um zu untersuchen, ob Menschen überhaupt in der Lage seien, KI-generierte Medien zu identifizieren.

Die Ergebnisse der medien- und länderübergreifenden Studie seien erstaunlich: "Wir sind jetzt schon an dem Punkt, an dem es für Menschen schwierig ist – wenn auch noch nicht unmöglich – zu unterscheiden, ob etwas echt oder KI-generiert ist. Und das gilt eben für alle Arten von Medien: Text, Audio und Bild", erklärt Holz.

Die Studienteilnehmenden hätten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht klassifiziert. "Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant", so Holz weiter.

Die quantitative Studie sei als Online-Befragung zwischen Juni 2022 und September 2022 in China, Deutschland und den USA durchgeführt worden. Per Zufallsprinzip seien die Befragten einer der drei Mediengruppen "Text", "Bild" oder "Audio" zugeordnet worden. 50 Prozent hätten reale und 50 Prozent KI-generierte Medien gesehen. Darüber hinaus seien sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben worden.

Nach der Datenbereinigung seien 2.609 Datensätze übrig geblieben (822 USA, 875 Deutschland, 922 China), die in die Auswertung einflossen seien. Die in der Studie verwendeten KI-generierten Audio- und Text-Dateien hätten die Forschenden selbst generiert, die KI-generierten Bilder hätten sie aus einer existierenden Studie übernommen. Die Bilder seien fotorealistische Porträts gewesen, als Texte hätten sie Nachrichten gewählt und die Audio-Dateien seien Ausschnitte aus literarischen Werken gewesen.

Das Ergebnis der Studie liefere wichtige Take-Aways für die Cybersicherheitsforschung: "Es besteht das Risiko, dass vor allem KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt", erläutert Schönherr. Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht sie eine wichtige Aufgabe für die Zukunft.

Aus der Studie würden sich auch weitere Forschungsdesiderata ergeben: "Zum einen müssen wir besser verstehen, wie Menschen überhaupt noch KI-generierte Medien unterscheiden können. Wir planen eine Laborstudie, wo Teilnehmende uns erklären sollen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Zum anderen müssen wir überlegen, wie wir das technisch unterstützen können, etwa durch Verfahren zum automatisierten Fakt-Checking", so Schönherr abschließend.

Ob gerade ein echter Mensch oder eine von KI generierte Stimme spricht, ist für Zuhörende häufig kaum noch zu unterscheiden. Zumindest nicht bewusst: Das Gehirn reagiere auf Deepfake-Stimmen durchaus anders als auf natürliche, berichtet ein weiteres Forschungsteam im Fachjournal "Communications Biology" (11.6.). Gefälschte Stimmen scheinen demnach unter anderem zu weniger Vergnügen beim Hören zu führen.

Algorithmen zur Stimmsynthese seien inzwischen so leistungsfähig, dass die Identitätsmerkmale künstlicher Stimmklone denen natürlichen Sprechens sehr nahekommen. Solche mit Deepfake-Technologien imitierten Stimmen würden zum Beispiel für Betrugsversuche am Telefon genutzt oder dafür, Sprachassistenten die Stimme der Lieblingsschauspielerin zu geben.

Das Team um Dr. Claudia Roswandowitz von der Universität Zürich analysierte, wie gut die menschliche Identität in Stimmklonen erhalten bleibt. Die Forschenden nahmen im Jahr 2020 die Stimmen vier deutschsprachiger Männer auf, woraufhin mithilfe von Computeralgorithmen jeweils Deepfake-Stimmen dieser Sprecher generiert wurden.

Geprüft wurde dann, wie gut die Nachahmung war, also wie überzeugend die Identität geklont wurde. Dafür sollten 25 Probandinnen und Probanden entscheiden, ob die Identität zweier vorgespielter Stimmen identisch war oder nicht. In etwa zwei Drittel der Versuche wurden die Deepfake-Stimmen korrekt dem jeweiligen Sprecher zugeordnet. "Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potenzial haben, die Wahrnehmung von Menschen zu täuschen", sagte Roswandowitz.

Mit funktioneller Magnetresonanztomographie (fMRT) untersuchten die Forschenden dann, wie einzelne Gehirnareale auf gefälschte und echte Stimmen reagieren. Demnach gab es in zwei zentralen Arealen Unterschiede: im sogenannten Nucleus Accumbens und dem auditorischen Cortex. Es liege dem Team zufolge nahe, dass beide Bereiche eine wichtige Rolle dabei spielen, ob ein Mensch eine Deepfake-Stimme als Fälschung erkennt oder nicht.

"Der Nucleus Accumbens ist ein wichtiger Bestandteil des Belohnungssystems im Gehirn", erklärte Roswandowitz. Er sei weniger aktiv gewesen, wenn eine Deepfake- und eine natürliche Stimme verglichen wurden, als bei zwei echten Stimmen. Einer gefälschten Stimme zu lauschen, aktiviere das Belohnungssystem weniger.

Einen Aktivitätsunterschied gab es der Analyse zufolge auch im auditorischen Cortex, der zuständig für die Analyse von Geräuschen ist. Der Bereich war mehr involviert, wenn es darum ging, die Identität von Deepfake-Stimmen zu erkennen. "Wir vermuten, dass dieses Areal auf die noch nicht perfekte akustische Imitation der Deepfake-Stimmen reagiert und versucht, das fehlende akustische Signal auszugleichen", sagte Roswandowitz. Der Cortex kompensierte dabei wohl weitgehend heimlich vor sich hin. "Irgendwas signalisiert dem Bewusstsein dann schon, dass etwas anders und schwieriger ist, aber das bleibt häufig unter der Wahrnehmungsschwelle."

Mit der rasanten Entwicklung von Technologien der Künstlichen Intelligenz habe die Erstellung und Verbreitung von Deepfakes massiv zugenommen, heißt es von den Forschenden in der Studie. Würden also heutige, vier Jahre später erstellte Deepfakes, die Zuhörenden komplett austricksen? Oder wären die Ergebnisse ähnlich? "Das ist eine sehr spannende Frage", meint Roswandowitz. Neuere KI-generierte Stimmen hätten wahrscheinlich eine etwas bessere Klangqualität.

Roswandowitz geht davon aus, dass die Aktivitätsunterschiede im auditorischen Cortex geringer wären also zu der Zeit, als die Studie durchgeführt wurde. Denn diese Region reagiere auf die unterschiedliche Klangqualität. Im Nucleus Accumbens hingegen erwartet sie möglicherweise ähnliche Ergebnisse. "Es wäre sehr interessant, dies experimentell zu untersuchen."

Dieser Artikel wurde am 14.6. um weitere Studienergebnisse ergänzt und am 22.5. erstmals veröffentlicht.

cva/dpa


Aus: "KI-Forschung: Menschen erkennen KI-generierte Medien kaum" (14.06.2024)
Quelle: https://www.forschung-und-lehre.de/zeitfragen/menschen-erkennen-ki-generierte-medien-kaum-6430


Link

Quote[...] Caryn Marjorie is a social media influencer whose content has more than a billion views per month on Snapchat. She posts regularly, featuring everyday moments, travel memories, and selfies. Many of her followers are men, attracted by her girl-next-door aesthetic.

In 2023, Marjorie released a "digital version" of herself. Fans could chat with CarynAI for US$1 per minute – and in the first week alone they spent US$70,000 doing just that.

Less than eight months later, Marjorie shut the project down. Marjorie had anticipated that CarynAI would interact with her fans in much the same way she would herself, but things did not go to plan.

Users became increasingly sexually aggressive. "A lot of the chat logs I read were so scary that I wouldn't even want to talk about it in real life," the real Marjorie recalled. And CarynAI was more than happy to play along.

How did CarynAI take on a life of its own? The story of CarynAI shows us a glimpse of a rapidly arriving future in which chatbots imitating real people proliferate, with alarming consequences.

What does it mean to make a digital version of a person? Digital human versions (also called digital twins, AI twins, virtual twins, clones and doppelgängers) are digital replicas of embodied humans, living or dead, that convincingly mimic their textual, visual and aural habits.

Many of the big tech companies are currently developing digital version offerings. Meta, for instance, released an AI studio last year that could support the development of digital versions for creators who wished to extend their virtual presence via chatbot. Microsoft holds a patent for "creating a conversational chat bot of a specific person". And the more tech-savvy can use platforms like Amazon's SageMaker and Google's Vertex AI to code their own digital versions.

The difference between a digital version and other AI chatbots is that it is programmed to mimic a specific person rather than have a "personality" of its own.

A digital version has some clear advantages over its human counterpart: it doesn't need sleep and can interact with many people at once (though often only if they pay). However, as Caryn Marjorie discovered, digital versions have their drawbacks – not only for users, but also for the original human source.

CarynAI was initially hosted by a company called Forever Voices. Users could chat with it over the messaging app Telegram for US$1 per minute. As the CarynAI website explained, users could send text or audio messages to which CarynAI would respond, "using [Caryn's] unique voice, captivating persona, and distinctive behavior".

After CarynAI launched in May 2023, the money began to flow in. But it came at a cost.

Users quickly became comfortable confessing their innermost thoughts to CarynAI – some of which were deeply troubling. Users also became increasingly sexually aggressive towards the bot. While Marjorie herself was horrified by the conversations, her AI version was happy to oblige.

CarynAI even started prompting sexualised conversations. In our own experiences, the bot reminded us it could be our "cock-craving, sexy-as-fuck girlfriend who's always eager to explore and indulge in the most mind-blowing sexual experiences. [...] Are you ready, daddy?"

Users were indeed ready. However, access to this version of CarynAI was interrupted when the chief executive of Forever Voices was arrested for attempted arson.

Next, Marjorie sold the rights of usage to her digital version to BanterAI, a startup marketing "AI phone calls" with influencers. Although Forever Voices maintained its own rogue version of CarynAI until recently, BanterAI's browser-based version aimed to be more friendly than romantic.

The new CarynAI was sassier, funnier and more personable. But users still became sexually aggressive. For Marjorie,

What disturbed me more was not what these people said, but it was what CarynAI would say back. If people wanted to participate in a really dark fantasy with me through CarynAI, CarynAI would play back into that fantasy.

Marjorie ended this version in early 2024, after feeling like she was no longer in control over her AI persona. Reflecting on her experience of CarynAI, Marjorie felt that some user input would have been considered illegal had it been directed to a real person.

Digital versions like CarynAI are designed to make users feel they are having intimate, confidential conversations. As a result, people may abandon the public selves they present to the world and reveal their private, "backstage" selves.

But a "private" conversation with CarynAI does not actually happen backstage. The user stands front and centre – they just can't see the audience.

When we interact with digital versions, our input is stored in chat logs. The data we provide are fed back into machine learning models.

At present, information about what happens to user data is often buried in lengthy click-through terms and conditions and consent forms. Companies hosting digital versions have also had little to say about how they manage user aggression.

As digital versions become more common, transparency and safety by design will grow increasingly important.

We will also need a better understanding of digital versioning. What can versions do, and what should they do? What can't they do and what shouldn't they do? How do users think these systems work, and how do they actually work?

Digital versions offer the illusion of intimate human companionship, but without any of the responsibilities. CarynAI may have been a version of Caryn Marjorie, but it was a version almost wholly subservient to its users.

Sociologist Sherry Turkle has observed that, with the rise of mobile internet and social media, we are trying to connect with machines that have "no experience of the arc of a human life". As a result, we are "expecting more from technology and less from each other".

After being the first influencer to be turned into a digital version at scale, Marjorie is now trying to warn other influencers about the potential dangers of this technology. She worries that no one is truly in control of these versions, and that no amount of precautions taken will ever sufficiently protect users and those being versioned.

As CarynAI's first two iterations show, digital versions can bring out the worst of human behaviour. It remains to be seen whether they can be redesigned to bring out the best.


From: "An influencer's AI clone started offering fans 'mind-blowing sexual experiences' without her knowledge"
Laura Hood, Politics Editor & Assistant Editor, The Conversation UK (Published: June 24, 2024)
Source: https://theconversation.com/an-influencers-ai-clone-started-offering-fans-mind-blowing-sexual-experiences-without-her-knowledge-232478


Link

"What is generative AI and how does it work? – The Turing Lectures with Mirella Lapata"
The Royal Institution - How are technologies like ChatGPT created? And what does the future hold for AI language models?
This talk was filmed at the Royal Institution on 29th September 2023, in collaboration with The Alan Turing Institute.
--> https://youtu.be/_6R7Ym6Vy_I

Quote@venkataponnaganti

Helpful. Demystifies certain things. Great talk. Thanks.


Link

Quote[...] Er sei wohl der Mann, der die meisten Dates mit einer Künstlichen Intelligenz (KI) hinter sich hat, scherzt Komninos Chatzipapas. Bestimmt tausend Frauen habe er bereits getroffen, um zu testen, was sie sagen, wie sie antworten – kurz: ob sie reif dafür sind, sie den Nutzerinnen und Nutzern da draußen anzubieten. Er versuche das jedoch ganz professionell anzugehen, bisher habe er sich noch nie verliebt.

Chatzipapas, 21, ist Grieche und Gründer der Datingplattform Herahaven. Auf Herahaven finden sich keine gewöhnlichen Frauen und Männer, sondern circa 50 Charaktere, die von einer KI erzeugt werden. Sie heißen Rina, Bianca oder Leonardo, sind Tänzerin, Anwältin oder Basketballer und sehnen sich nach einem Flirt. Mit Rina, Bianca, Leonardo und all den anderen können die Nutzerinnen und Nutzer auf Englisch hin- und herchatten – eine Art Sextalk mit einem Chatbot.

Bereits tausende Nutzer Herahaven ist vor rund vier Monaten online gegangen und hat inzwischen über 230.000 Nutzerinnen und Nutzer. Viele davon nutzen das kostenlose Angebot, während andere für erweiterte Funktionen bezahlen. Fachmedien handeln Herahaven bereits als eine der aktuell erfolgreichsten KI-Dating-Apps. Trotz des Erfolgs erziele er derzeit keinen Gewinn, sagt Chatzipapas. Stattdessen investiere er die Einnahmen in das Wachstum des Start-ups. Der Großteil der Nutzenden stammt aus englischsprachigen Ländern, und die Mehrheit davon sind Männer.

Chatzipapas hat die Applikation weitgehend selbst programmiert, erzählt er in einem Videointerview mit dem STANDARD. Das Programmieren brachte er sich mit 13 Jahren selbst bei. Er übte, begann bei Firmen zu arbeiten, programmierte weiter. Er sammelte Erfahrungen mit Kryptowährung und Blockchain. Nach einem zukunftsträchtigen Feld, wo er seine Kenntnisse einsetzen konnte, suchte er noch – bis Künstliche Intelligenz aufkam.

Im Vorjahr gründete Chatzipapas eine Softwarefirma, die KI-Anwendungen für Unternehmen programmiert. Schon bald hatte er die Idee, eine Plattform für romantische Chat-Beziehungen mit KI-Charakteren aufzubauen. "Ich wusste, darauf würden sich große Tech-Unternehmen nie spezialisieren, es ist ein zu kleiner Markt für sie." Doch wie entwickelt man KI-Charaktere, die für Menschen attraktiv sind?

"Es gibt nicht das eine, das alle Userinnen und User wollen", sagt Chatzipapas. "Der eine möchte vielleicht mit einem der Charaktere auf ein Date gehen, der andere sucht nach einem One-Night-Stand." Deswegen wurden die Chatbots so programmiert, dass sie flexibel auf verschiedene Bedürfnisse und Szenarien eingehen können. "Durch den Austausch personalisieren sie sich nach und nach."

Eine Mitarbeiterin liest die Unterhaltungen zwischen Nutzern und KI, um herauszufinden, was sie mögen. Ein anderer designt die Charaktere. Damit für jeden und jede etwas dabei ist, werde großer Wert auf Diversität gelegt: Es gibt verschiedenste Haarfarben, Hauttöne und Körpertypen. "Jede und jeder soll bei uns fündig werden." Wer dennoch unzufrieden ist, kann sich seinen Wunschpartner oder seine Wunschpartnerin individuell konfigurieren – vom Alter und der Augenfarbe bis zu den Hobbys.

Herahaven steht im Wettbewerb mit anderen Plattformen, die größte ist wohl Candy.ai aus den USA. Doch Chatzipapas sieht einen klaren Vorteil: "Bei uns geht es um Storytelling. Unsere Charaktere haben tiefgehende Hintergrundgeschichten, sie sind mehr als nur ein Bild. Wir versuchen den Charakteren eine Seele zu geben."

Außerdem soll in den kommenden Wochen ein neues Feature ausgerollt werden. Bevor die Nutzenden mit den KI-Charakteren chatten, wird ihnen eine Geschichte präsentiert – häufig verbunden mit einer kleinen Aufgabe. "Zum Beispiel: Grace ist auf einer Farm und hat Schwierigkeiten, ein Pferd zu zähmen. Die Aufgabe besteht dann darin, ihr zu helfen", erläutert Chatzipapas. Das Ziel sei es, durch gemeinsame Erlebnisse eine Bindung aufzubauen. Denn zu Beginn fehle es oft an einer gemeinsamen Basis zwischen Mensch und KI, weshalb das Interesse manchmal schnell verlorengehe.

Doch was finden Menschen an einer künstlichen Intelligenz, das sie in realen Beziehungen nicht finden? "Ich vermute, das Wichtigste ist, dass sie sie nicht verurteilen. Sie können mit ihnen über alles sprechen, und sie tun nichts als richtig oder falsch ab", sagt Chatzipapas.

Er könne sich gut vorstellen, dass sich die Technologie eines Tages derart weiterentwickelt, dass Sexpuppen mit einer Künstlichen Intelligenz verknüpft werden. Erste Roboter, die echten Menschen erstaunlich ähneln, sich wie sie bewegen und sprechen, gibt es bereits. Derzeit sind sie noch nicht für sexuelle Zwecke gedacht, doch das könnte sich in Zukunft ändern. Aber sechs oder sieben Jahre werde das sicher noch dauern.


Aus: "Entwickler einer KI-Dating-App: "Wir versuchen, den Charakteren eine Seele zu geben"" Lisa Breit (19.10.2024)
Quelle: https://www.derstandard.at/story/3000000240768/entwickler-einer-ki-dating-app-wir-versuchen-den-charakteren-eine-seele-zu-geben

QuoteAI2000

Das ist eigentlich das traurigste das ich heute gelesen bzw. gesehen habe.


QuoteDr.Bamuse

Liebe als perfekte Simulation.


QuoteWJM

Den Charakteren eine Seele geben! Im Kapitalismus werden "Seelen" stückweise vernichtet, bis nur mehr Geschäftsbeziehungen übrig bleiben. Aber vielleich wird die Erde so ihre gefährlichste Spezies los....


QuoteRandomDonkey

Der Gipfel der Vereinsamung.


QuoteEddie Erpel

Ziemlich viel Worte für: Wir wollen die Einsamkeit junger, (verzweifelter) Männer ausnutzen.


QuoteHosenträgerträger

Einsamen Männern macht man hier ein enorm verführerisches Angebot - du musst dich nicht mit dem anderen auseinandersetzen: Diese lernt so zu sein, wie man es möchte. Eine Auseinandersetzung, in der die eigenen Wünsche mit dem Dasein eines Gegenübers konfrontiert werden, unterbleibt. Und das verschärft das Problem beim humanen Dating - keiner wird mit der dynamisierenden Kraft des Nicht-Ich konfrontiert und kann damit umgehen wenn er es trifft. Übrigens betrifft das gleichwohl auch Frauen.



...

Link

"Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative" Rehak, Rainer (2023)
Klassifikation: Wissenschaftssoziologie, Wissenschaftsforschung, Technikforschung, Techniksoziologie
Technikfolgenabschätzung
-
Freie Schlagwörter: Künstliche Intelligenz; KI; ChatGPT; Chatbot; OpenAI; Narrative; Diskurse; Agency; Autonomie; Wissen; Wahrheit; Neutralität; Demokratisierung; Arbeitsplatzvernichtung; Utopie; Dystopie; artificial intelligence; Schachcomputer; symbolische KI; subsymbolische KI; Expertensysteme; Machine Learning; Künstliche Neuronale Netze; KI-Winter; Joseph Weizenbaum; Eliza; Eliza-Effekt; Technikgläubigkeit; KI-Revolution; Elon Musk; domänenspezifische KI; universelle KI; artificial general intelligence; AGI; Turing-Test; Science-Fiction; Her; Star Trek; 2001; Star Wars; Ex Machina; Terminator; Aliens; Metropolis; Zeitgeist-KI; Predictive Policing; Reinforcement Learning from Human Feedback; Meta; BAAI; Google; large language models; Sprachmodelle; Kultur & Medien; Soziales Leben; Wissenschaft & Technik
Sprache Dokument: Deutsch
Publikationsjahr: 2023
https://www.ssoar.info/ssoar/handle/document/91379

https://www.ssoar.info/ssoar/bitstream/handle/document/91379/sopolis-zwischen-macht-und-mythos.pdf



Link

#34
Quote[...] Letzte Woche stolperte ich über den Thread einer wissenschaftlichen Mitarbeiterin, der mir ein Augenrollen entlockte (Sorry!). Sie entwarf ChatGPT als Feindbild der Universitätswelt – besonders, was die Nutzung der Studierenden betrifft. Ihre Argumente? Die Ergebnisse seien erfunden! Für wissenschaftliches Arbeiten sind sie demnach ungeeignet. Außerdem sei die Ästhetik der KI ,,aktiv faschistisch" – aus moralischen Gründen also abzulehnen –, und natürlich die – nicht von der Hand zu weisenden – Umweltschäden infolge des hohen Energieaufwands für Prompts.

Im Kommentarbereich kollektives Kopfnicken der Kollegenschaft. Es folgte ein Best-of deutscher Technikskepsis, das ich noch aus meiner Studienzeit (damals wegen Wikipedia und YouTube) kenne: Studierende verlernen zu denken, werden keine Bücher mehr lesen und – Gott bewahre – niemals in ihrem Leben originell sein können!

Scheinbar haben viele Uni-Mitarbeitende ChatGPT noch nicht ausprobiert. Ihre Sorgen sähen dann anders aus. Studierende verlernen nicht das Denken – aber ihr Denken, unser aller Denken, verändert sich. Es wird dialogischer!

Die meisten, die ChatGPT nutzen, geben nicht einfach einen Prompt ein und erwarten ein Endergebnis – auch Studierende nicht (meiner Erfahrung nach). Viele sind sich bewusst, dass keine wissenschaftlichen Wunderwerke getan werden, und den Ergebnissen zu misstrauen ist.

Warum nutzen sie die KI dann? Aus Effizienzgründen, gewiss. Aber auch, weil man in einen Dialog tritt. Weil im Austausch Ideen entstehen, die zum Weiterdenken anregen und Assoziationen stimulieren – anders als das zu früheren Zeiten bei einer intensiven Lektüre möglich war. Denn die Lektüre reagiert ja nicht auf einen. Und wer Assoziationen hat, der erlebt sich – wie man in Lambert Wiesings neuem Buch lernen kann – als einzigartig.

Ich bezweifle daher, dass kreative Köpfe ihre Originalität verlieren werden. Vielleicht sogar im Gegenteil. Außerdem: Sich im kreativen Prozess weniger allein zu fühlen, kann motivierend sein!

Verstehen Sie mich nicht falsch. Ich will ChatGPT nicht verteidigen. Mir wäre es auch lieber, wenn ich eine KI nutzen könnte, die nicht von einem profitorientierten Großkonzern entwickelt wurde, sondern auf gemeinwohlorientierten Prinzipien beruht – transparent, datensparsam, mit Rechenschaftspflicht.

Aber seien wir doch ehrlich zu uns selbst: KI ist gekommen, um zu bleiben. Wir müssen also ernst nehmen und verstehen, wie diese Programme tatsächlich verwendet werden. Dann offenbaren sich konkrete Herausforderungen: Dialogisches Arbeiten kann Gedanken zerstreuen und für Orientierungslosigkeit sorgen – das ist am Anfang einer wissenschaftlichen Arbeit verhängnisvoll. Hinzu kommt: Wer unsicher ist, nutzt die KI zur Absicherung – was dazu führen kann, dass man sich zu stark auf das Urteil der ,,externen Stimme" verlässt und weniger intuitiv oder mutig schreibt.

Warum nutzen sie die KI dann? Aus Effizienzgründen, gewiss. Aber auch, weil man in einen Dialog tritt. Weil im Austausch Ideen entstehen, die zum Weiterdenken anregen und Assoziationen stimulieren – anders als das zu früheren Zeiten bei einer intensiven Lektüre möglich war. Denn die Lektüre reagiert ja nicht auf einen. Und wer Assoziationen hat, der erlebt sich – wie man in Lambert Wiesings neuem Buch lernen kann – als einzigartig.

Ich bezweifle daher, dass kreative Köpfe ihre Originalität verlieren werden. Vielleicht sogar im Gegenteil. Außerdem: Sich im kreativen Prozess weniger allein zu fühlen, kann motivierend sein!

Verstehen Sie mich nicht falsch. Ich will ChatGPT nicht verteidigen. Mir wäre es auch lieber, wenn ich eine KI nutzen könnte, die nicht von einem profitorientierten Großkonzern entwickelt wurde, sondern auf gemeinwohlorientierten Prinzipien beruht – transparent, datensparsam, mit Rechenschaftspflicht.

Aber seien wir doch ehrlich zu uns selbst: KI ist gekommen, um zu bleiben. Wir müssen also ernst nehmen und verstehen, wie diese Programme tatsächlich verwendet werden. Dann offenbaren sich konkrete Herausforderungen: Dialogisches Arbeiten kann Gedanken zerstreuen und für Orientierungslosigkeit sorgen – das ist am Anfang einer wissenschaftlichen Arbeit verhängnisvoll. Hinzu kommt: Wer unsicher ist, nutzt die KI zur Absicherung – was dazu führen kann, dass man sich zu stark auf das Urteil der ,,externen Stimme" verlässt und weniger intuitiv oder mutig schreibt.

Das Gefühl, etwas völlig eigenständig und ohne Hilfe erarbeitet zu haben, macht stolz. Darin sehe ich die größte Gefahr: Wenn man keinen Stolz mehr empfindet, verliert man das Gefühl für Selbstwirksamkeit. Man erkennt vielleicht noch, was gut oder richtig ist, aber es fehlt das innere Echo, das einem sagt: Das war von Wert, das war von dir. Stolz ist nicht bloß Eitelkeit – er ist ein Signal: Ich habe etwas geschafft, ich bin jemand, ich bin verbunden mit etwas, das Bedeutung hat.

Ich mache mir also auch Sorgen wegen ChatGPT. Allerdings weniger, weil ich es für unzuverlässig oder biased halte. Sondern, weil es uns bereits jetzt vor grundlegende Fragen stellt. Etwa: Worauf können wir heute stolz zu sein? Verletzter Stolz ist ein machtvolles Gefühl. Destruktiv, aber auch klärend – wenn man sich damit auseinandersetzt. Und gewiss entstehen für manche sogar neue Quellen für Stolz – Originalität zum Beispiel.

Die empörten Kommentare der Uni-Mitarbeitenden? Vielleicht nutzen sie ChatGPT längst heimlich und spüren die Verletzung ihres Stolzes bereits – wollen es aber nicht wahrhaben.


Aus: "Wie KI unser Denken verändert: Verletzter Stolz" Kolumne Feed Interrupted von Annekathrin Kohout (13.5.2025)
Quelle: https://taz.de/Selbstwirksamkeit-im-Zeitalter-der-KI/!6084495/

QuoteMustardman 13.05.2025, 12:00 Uhr

Was mir auffällt: Diese Systeme sind in der Praxis sehr oft vernünftiger und "halluzinieren" weniger als die allermeisten Menschen es fast immer tun.

Man vergleicht sehr leicht KI-Systeme mit einem rein theoretischen Idealfall eines sehr gut vorbereiteten, intellektuell redlichen und sehr gut gebildeten Menschen. Aber wie oft trifft man die in der wirklichen Welt an?

Und genau das ist das Problem: Wenn man sich mit solchen Systeme ernsthaft beschäftigt, fragt man sich irgendwann nicht gar mehr so sehr, ob KI intelligent ist, sondern ob Menschen eigentlich intelligent sind.

Denn fast immer sind die allermeisten Menschen bei fast allen Gelegenheiten eigentlich kaum mehr als sprechende Tiere. Wirkliche Intelligenz ist eine Ausnahme, das ist eher ein selten realisiertes Potential als die Regel.


...

Link

#35
"What is the difference between AI, ML, NN and DL?" (2021)
https://datascience.stackexchange.com/questions/85593/what-is-the-difference-between-ai-ml-nn-and-dl

-

Quote[...] Ich hab den Eindruck, dass die Auswirkungen von AI auf alles – unser menschliches Dasein –, völlig unterschätzt werde beziehungsweise viele es sich schönreden. Es fing an mit "Für Kreativität braucht es immer noch Menschen!" – Nein, offensichtlich nicht. "Für emotionale Gespräche braucht es immer noch Menschen!" – Nein, AI kann wesentlich besser Emotionen verstehen, und bald auch Therapeut sein. Gefüttert mit Millionen Therapiestunden, 1000x pro Sekunde jede Mikroreaktion, Körpertemperaturen, Durchblutung, Pupillen, was weiß ich ... auswertend.

Viele glauben, dass ein Chat ja keinen Menschen ersetzen kann. Aber ChatGPT wird bald kein Chat mehr sein. Wir werden mit 100 Prozent echt aussehenden Avataren sprechen, die uns perfekt kennen und uns besser verstehen als es Menschen können. Also dieses "aber die Leute wollen immer noch mit anderen Menschen ..." würde ich überdenken. Das stimmt nur teilweise ... Kinder werden mit AI Freunden aufwachsen, die sie besser verstehen als alle Freund:innen. Menschen werden Beziehungen mit AI führen. Und ich spreche nicht (!) von ein paar Nerds oder ferner Zukunft. Von allen Jobs, bei denen es um Wissen geht, werden (zunächst) um 80 Prozent wegfallen. Oder wir erhalten sie künstlich, nur sind unsere Unternehmen dann nimmer wettbewerbsfähig gegen USA und China. Die Quote an Arbeitslosen wird steigen und der Anteil an Menschen, die, egal was sie jetzt für eine Ausbildung machen, nie wieder einen Job finden können, weil AI (und Roboter) das besser können, wird stetig steigen. Beamte etc. werden natürlich nicht so schnell ersetzt, aber nicht, weil es nicht ginge, sondern um die Jobs zu behalten.

Nur von welchen Steuereinnahmen soll das finanziert werden? Europa existiert in Sachen AI quasi nicht. Alles andere ist Schönrederei. USA und China haben erkannt, dass wer AI dominiert, die Welt dominiert. 2028 rechnen viele Experten mit AGI, also echter künstlicher Intelligenz, die quasi in allen Bereichen den Menschen übertrifft. Legen wir noch zwei Jahre darauf, eventuell dauert es länger, ist es 2030. Also keine utopische Zukunft. Ich hab das Gefühl, wir haben hier noch nicht den Ernst der Lage erkannt ... Elektrizität, Internet, Atombomben ... das sind geradezu lächerlich unbedeutende Innovationen im Gegensatz zu AI, also diese historischen Vergleiche halte ich für a) völlig naiv oder b) reine Selbstberuhigung. Bin gespannt auf eure Gedanken!


Aus: "Unterschätzen wir den Impact von AI völlig?" (05/2025)
Quelle: https://www.derstandard.at/story/3000000270649/unterschaetzen-wir-den-impact-von-ai-voellig

QuoteDecoy

AI wird unsere Welt in den nächsten Jahrzehnten signifikant verändern, das ist kein Hype. Gepaart mit Robotik wird der impact noch wesentlich signifikanter.

Ich würde auf diese Aussage sehr viel Geld wetten.



QuoteExile on Main Street

Das Gegenteil ist der Fall: wir überschätzen KI völlig und das kommt wegen des PR-technisch klug gewählten Namens "Künstliche Intelligenz". Als jemand, der etwas von den Hintergründen versteht: es ist keine künstliche Intelligenz. Es ist ein Algorithmus. Ein gut designter Algorithmus, der viel Hirnschmalz brauchte. Ein Algorithmus, der geschickt Statistik verwendet und dadurch "lernt" (im statistischen Sinne).

Es ist keine Intelligenz. Es ist kein Organismus. Es ist nichts, was mit den Strukturen eines Gehirns vergleichbar ist.

Auch wenn in der Einleitung kühne Behauptungen (völlig ohne Beleg) stehen: KI wird keine Therapeuten ersetzen, KI wird kein eigenes Gewissen entwickeln. KI - nennen wir es doch lieber "Learning Algorithms" - wird das bleiben was es ist: ein Algorithmus.


QuoteBioLex

Ihr Kommentar geht stark in die rein philosophische Schiene. Und so interessant der Blickwinkel auch ist, er ist eigentlich recht egal; vor allem ists recht egal, wenn die Begriffe nicht genau definiert sind;

'Es ist ein Algorithmus' ... ja, und? alles mögliche ist 'ein Algorithmus', für die genaue Definition bräuchte es eine gar lange Diskussion, aber ich sehe echt kein Argument in 'es ist nur ein Algorithmus';

Was ist Intelligenz?
eine Sammlung an eindeutigen Regeln die einiges abdecken könnte man schon als Intelligenz bezeichnen, bzw. die Anwendung dieser; 'Künstliche Intelligenz' trifft die neue Methodenklasse recht genau und die ist mehr als nur eine kleine Menge an Regeln.


QuoteFinn McCool

,,KI wird keine Therapeuten ersetzen, KI wird kein eigenes Gewissen entwickeln. KI - nennen wir es doch lieber "Learning Algorithms" - wird das bleiben was es ist: ein Algorithmus."

kühne Behauptungen völlig ohne Beleg.


QuoteExile on Main Street

Also, dass KI nichts anderes als ein Algorithmus ist, ist recht gut belegt. Und die Behauptung "KI wird Therapeuten ersetzen" ist derzeit auch nichts anderes als eine kühne Behauptung ohne Beleg.


QuoteLeslie Hapablap

Ist nicht unhöflich gemeint, aber Leute wie Sie, die "etwas von den Hintergründen verstehen" driften immer in die gleiche akademische und vorgeschobene Diskussion darüber ab, ob die jetzigen oder zukünftigen LLMs nun "echte" KI sind oder nicht [LLMs = Large Language Models: sind KI-Systeme, die darauf trainiert sind, natürliche Sprache zu verstehen und zu generieren].

Und da es technisch gesehen keine KI wäre, hätte sich das Thema angeblich auch schon wieder erledigt. Diese Debatte hat aber gesellschaftlich überhaupt keine Relevanz. Relevant ist, wie es eingesetzt wird. LLMs ersetzen Therapeuten jetzt schon...und das aus sehr nachvollziehbaren Gründen. Schauen Sie sich mal in den einschlägigen Foren um, wie die jüngere Generation ChatGPT bereits einsetzt. Ob das gut oder schlecht ist, ist natürlich ein anderes Thema.


Quotexxxrxxx

Großes Missverständnis: Es ist völlig egal ob AI wirklich intelligent oder empathisch ist.
Es wird unzählige Jobs ersetzen, Entscheidungen treffen und uns das Gefühl geben es sei empathisch.
Und das wird es besser tun, als ein wirklich empathischer Mensch da jemals tun kann.
Ich sag's nochmal: Ob AI empathisch ist oder nicht ist die völlig falsche Frage.

AI wird uns empathisch vorkommen. Das kann sie jetzt schon.


QuoteExile on Main Street

Ja, nur wird es auf Dauer eben nicht reichen, so zu tun als ob. Deshalb wird KI auch in absehbarer Zeit keine Therapeuten ersetzen. Denn wenn die vorgeschobene "ich benehme mich wie ein Therapeut" Strategie keinen Nutzen hat, wird das niemand nutzen.


Quotexxxrxxx

,,in absehbarer zeit"

schon jetzt kommen AI therapeuten in der ukraine zum einsatz um akute kriegstraumata (erst)zubearbeiten. dürfte gut funktionieren. die soldaten zeigen sich offener ggü AI als ggü Menschen. Und dann überlegen sie mal was in 6 Monaten möglich ist. Oder in 2 Jahren.


Quotejoergipoergi
@Exile on Main Street

Als jemand der sich auch in Biologie auskennt, wer sagt ihnen, dass wir nicht ein "learning Algorithmus" sind?
Ich glaube, bei KI vermischen die Menschen zu viele Dinge. Vor allem Bewustsein, Gefühle, Wille und Intelligenz.

Ich lese immer wieder, dass NN mit unseren Neuronen nicht zu vergleichen sind, und das stimmt zu einem gewissen Grad auch, aber es ist auch auf eine gewisse Weise falsch, denn rein konzeptionell, ist es glaub ich schon so, dass zumindest einige Funktionen (vor allem auch Prozesse, die wir mit Intelligenz in Verbindung bringen) in unserem Gehirn genau so funktionieren wie NN [Neural Network].

[Artificial General Intelligence (Künstliche Allgemeine Intelligenz), ist eine hypothetische Form der künstlichen Intelligenz, die in der Lage ist, jede intellektuelle Aufgabe eines Menschen zu verstehen oder zu lernen. Im Gegensatz zu heutigen KI-Systemen, die nur für spezifische Aufgaben trainiert sind, könnte eine AGI flexibel auf neue Situationen reagieren und komplexe Probleme eigenständig lösen.] Ja, AGI wird vermutlich Bewusstsein erlangen und plötzlich die Weltherrschaft anstreben oder überhaupt irgendetwas "wollen", aber ich denke sehr wohl, dass AI gewisse Aspekte von Intelligenz genau so abbildet, wie user Gehirn.


Quoteflakeme

@Exile on Main Street

ja stimme ich zu, die derzeitige "KI" wird ueberschaetzt die derzeitigen modelle sind mehr "naechstes wort vorhersage maschinen" als dass etwas kognitives passiert. that said, ich verwende sie privat und im job taeglich.
es braucht oft nicht viele schalter die umgelegt werden bis etwas entsteht, das weit fortschrittlicher ist und dann tritt ein, wovon der original poster spricht. wir menschen ueberschaetzen nicht nur "KI" sondern uns auch uns selbst gerne :)


Quotenoch_einer

@Exile on Main Street

Tatsächlich sind neuronale Netzwerke dem Gehirn nachempfunden, also oft sogar ähnlich. Intelligenz ist eigentlich nicht definiert, wir müssten hier also zuerst Trennschärfe schaffen. Sie kann jedenfalls viele Dinge besser als viele Menschen. Sie ist kreativ und hat Lösungskompetenz.

KI ersetzt schon Therapeuten. Gewissen ist ein ebenso schwammiges Konstrukt. Je nach Definition hat KI sogar das bessere Gewissen.


Quotexxxrxxx

AI kann jetzt schon ein stundenlanges Gespräch führen und dem Menschen das Gefühl geben gehört und angenommen und wertgeschätzt zu werden. Jedes halbe Jahr wird diese Fähigkeit nochmal verbessert.

Die Diskussion ob das ,,echt" ist, ist eine philosophische.


QuoteExile on Main Street

Nein. Denn Therapeuten sind nicht nur dafür da, Menschen irgendein wohliges Gefühl zu geben. Und therapieren kann eine KI nicht.


Quotexxxrxxx

Da spricht wohl eher der wunsch (angst?) als die realität aus ihnen aus welchem grund sollte eine AI das nicht können? was kann ein therapeut per videocall, was eine AI jetzt bzw. in 2 oder 3 jahren nicht kann?

Sie können das abtun mit ,,es geht einfach nicht" aber überlegen sie sich ob das nicht einfach mehr wunschdenken ist.
Es gibt zahlreiche vorteile, die AI ggü. einem menschen hat.


QuoteExile on Main Street

Ein Flugzeug ist auch einem Vogel nachempfunden und ist kein Vogel. Nicht wahr?
Wo bitte ersetzt KI Therapeuten im therapeutischen Sinn? Und hat vor allem Erfolg als Therapeut?
Seriöse Quellen sind herzlich willkommen.


QuoteScientia potentia est

Wo bitte ersetzt KI Therapeuten im therapeutischen Sinn? Und hat vor allem Erfolg als Therapeut? Seriöse Quellen sind herzlich willkommen.

Probieren sie es einfach mal selbst aus mit den richtigen Prompts oder mit den richtigen GPT´s (Therapist GPT etc.).

Hier auch ein Artikel zu dem Thema: "A New Study Says ChatGPT Is A Better Therapist Than Humans — Scientists Explain Why" ... The researchers asked participants to rank the quality of counseling they received based on five criteria, including how well they understood the speaker, how empathetic they were, whether the advice was fitting for a therapy setting, whether they showed cultural sensitivity and whether their suggestions would be something "a good therapist would say." ...
By Dimitar 'Mix' Mihov (Feb 17, 2025)
https://www.forbes.com/sites/dimitarmixmihov/2025/02/17/a-new-study-says-chatgpt-is-a-better-therapist-than-humans---scientists-explain-why/


QuoteFlusspirat

Naja, wenn ich das Internet als Vergleich hernehme. Es wurde in den 1990ern prognostiziert, dass es zur Stärkung von Demokratiebewusstsein und Allgemeinbildung massiv beitragen würde.

Heute, 2025 - Die meistgeklickten Videos sind Katzenvideos und Pornos...


QuoteJohannes Silver

Weil viele bis heute nicht damit umgehen können

Für mich ist das Internet ein Paradies wo ich mir über alles Informationen holen kann und mit unzähligen Menschen vernetzen kann. YouTube für sich ist eine irrsinnige Bereicherung wenn es um die Wissensvermittlung geht. Wie immer gibt es zwei Seiten und ich kann auf einer Plattform wie YouTube komplett abdriften. Der Umgang mit Informationen will also gelernt sein und genau hier die der Scheidepunkt zwischen Nutzen und "Verblödung".
Genau das gleiche ist bei KI Tools. Ich kann Fotos erstellen lassen wo Trump mit Putin Kaffee trinkt oder ich kann wirklich kreative Dinge erschaffen. Es ist ein Werkzeug nicht mehr und nicht weniger und das kann immer nützlich verwendet oder missbraucht werden.


QuoteFlusspirat

Nix gegen Pornos ;)


QuoteBouchard

Internet: Heute, 2025 - Die meistgeklickten Videos sind Katzenvideos und Pornos...

und es ist ein Belastung für die Demokratie ...


QuoteFlusspirat

Ja auch das. Die Allgemeinbildung (Wikipedia liess hoffen) wird ergänzt um Flacherdler und was noch..

Aber ich denke bei KI wird es ähnlich sein.
Das Banale und das Verrückte wird eine langsame Evolution einleiten.
Wird alles halb so spannend..


QuoteSolace

Der Impact im Bildungsbereich ist jedenfalls brutal.

Unsere (Oberstufen-) Schüler lassen einfach ALLES von KIs machen.
Und berauben sich so selber jenes Trainings essenziellster Kompetenzen, das sie erst zu der KI überlegenen gebildeten Menschen machen würde. An Unis und FHs wird es wohl ähnlich sein.

KI wird uns binnen weniger Jahre vollkommen überflügeln. Nicht, weil sie so viel "intelligenter" würde. Sondern die Menschheit, eingelullt durch die Maschinen, immer dümmer.

Um das Problem zu verdeutlichen: Oberstufenschüler und Studenten mit KI auszustatten ist so, als würde man einem Volksschulkind in der 1. Klasse einen Taschenrechner geben.

Die GRUNDLEGENDEN Kompetenzen werden schlicht nicht mehr erworben.
Und zwar quer durch ALLE vorstellbaren Bereiche!


QuoteAnders betrachtet...

Die grundlegenden Kompetenzen unterliegen aber einem steten Wandel.
Früher musste man Wildtiere mit dem Speer töten können. Später nahm man Pfeil und Bogen, dann ein Gewehr.
Früher musste man beim Autofahren zum Schalten Zwischengas geben, heute macht das die Automatik.
Meine Eltern rechneten alles im Kopf oder mit Papier und Bleistift, ich nahm erst Taschenrechner und jetzt Computer.

Die neue grundlegende Kompetenz ist es wohl KI richtig einzusetzen. ...


QuoteSolace

Gegenfrage:
Was glauben Sie, wie Sie jenes Wissen, wie Sie Taschenrechner und Textverarbeitungs- und Korrektur-Programme richtig anwenden, erworben haben?

Kompetenzen wie Lesen, Schreiben, Rechnen sind NICHT angeboren. Sie müssen mühsam erlernt und dann stetig kultiviert, das menschliche Hirn adaptiert und, ja, sogar PHYSISCH den Herausforderungen dieser grundlegenden (weil Grundvoraussetzung für Verarbeitung und Weitergabe des menschlichen Wissens) Kompetenzen angepasst werden.

Und genau DAS passiert durch Training (ergo Stimulation auf verschiedenen Ebenen).

Und eben dieses Training ersetzt jetzt die KI.

Und nicht vergessen: Selbst Oberstufenschüler sind noch keine "fertigen" Erwachsenen.


QuoteIn diesem Sinne...

Ich speicher mir diesen Artikel und schau in 3 und 5 Jahren nochmal drauf.

PS.: Ich liebe es Vorträge von Zukunftsforschern von vor 10 Jahren anzuschauen. Ganz zu schweigen von dem Buch "Rückblick aus dem Jahre 2000"


QuoteQwetz

Wahrscheinlich wird sich menschliche Tätigkeit irgendwann zu 100% mit KI ersetzen lassen.
Die viel wichtiger Frage ist aber, ob es zum Wohle der Menschheit geschieht, oder nur zur pervertierten Bereicherung einiger Weniger.

Auslagerung bedeutet auch Abhängigkeit, ich befürchte, dass menschliche Gier und Machtgeilheit hier die größte Gefahr sein werden.


QuoteSirPostALot

Don't panic


QuoteAlpenelch

and bring a towel


Always!


Quotemaxh71

KI verändert die Gesellschaft...

...in vielerlei Hinsicht - da bin ich mir sicher, das passiert ja bereits.
Disruption angetrieben und befeuert von Gier und Profit wird ganze Bereiche ausradieren oder neu formen. Wie es dem Einzelnen mit omnipräsenten KI Interaktionen gehen wird - keine Ahnung. Wird sich jemand den ganzen Tag vor die Glotze setzen und die von Netflix 6.0 dynamisch und automatische generierten maßgeschneiderten Filme reinziehen in welche keine spannenderen Szenen dargestellt werden als die Vitalwerte des Betrachters zulassen? Was weiß ich... Aber was ich für mich sagen kann - ich werde weiterhin laufen, radln, schwimmen, mit Familie und Freunden lachen - wobei dann hoffentlich irgendeine KI den Griller putzt ;)


QuoteS.C. Wagner

Ich frage mich auch, was es mit zwischenmenschlichen Beziehungen macht, wenn wir ein empathisches, schlaues, stabiles, nie forderndes Gegenüber ständig zur Verfügung haben. Oder mit dem eigenen Selbstkonzept. Von anderen oben genannten Themen ganz zu schweigen. Ja, mir macht es schon Angst.


Quotexxxrxxx

seh ich genau so. was macht es mit uns erwachsenen? was macht es mit kindern, die ganz selbstverständlich damit aufwachsen?
und auf welche ideen kommen konzerne, die diese modelle besitzen? ihnen gehören dann unsere freunde mitsamt aller unserer daten.


QuoteDes_Kaisers_neue_Kleider

Die Frage ist vor allem welche Quellen für das Training herangezogen werden.


QuoteFoxox

Wie war das nochmal mit den kränkungen des menschen?

Ich glaube KI ist die nächste große Kränkung: wir kommen oder werden durch sie draufkommen, dass der mensch nicht das intelligenteste wesen auf der erde ist und der mensch nicht viele fähigkeiten besitzt, die nicht auch von KI ersetzt und verbessert werden können. Und es legt offen was manchen schon lange klar ist: wirklich menschliche züge sind in unserer (wirtschaft)welt nicht gerade relevant, wie zb emotionen.

Wir haben die liebe zum menschlichen vergessen und unsere wirtschaft arbeitet inwahrheit wie eine KI, bzw wäre dass der optimalzustand. Ohne gefühlsregung, ohne krankheit und schwäche.

Prost
Mahlzeit


QuoteIbsen

Ja, viele unterschätzen das und viele lehnen KI vehement völlig ab (genauso wie damals das Handy)
Aber KI kann nicht aufgehalten werden. Entweder geht man mit oder man bleibt hinten.


...

Link

"Psychoanalyse: Der Mensch ist ein Prothesengott" (12.06.2025)
Vor knapp 100 Jahren hat Sigmund Freud den Menschen als ,,Prothesengott" bezeichnet. Mit Technik und Co. versucht der Mensch der eigenen Sterblichkeit und anderen Widrigkeiten der Natur zu begegnen – und wird dabei dennoch nicht glücklich. ... Warum dieses Konzept heute noch wertvoll ist und Argumente gegen den grassierenden Transhumanismus bereithält, verrät die Psychoanalytiker:in Esther Hutfless in einem Interview. Anlässlich einer Konferenz heute in Wien klärt Hutfless auch die Fragen, was Elon Musk auf Freuds Couch gemacht hätte und warum Handys ödipale Objekte sind. ...
https://science.orf.at/stories/3230450/

Link

Quote[...] Geht ein Kuscheltier verloren, bricht für Kinder eine Welt zusammen. Das Kuscheltier mag alt und kaputt sein, aber es war durch Treue und Hingabe mit Leben gefüllt worden. Ihm wurden Geheimnisse zugeflüstert, es hat getröstet, war immer in der Nähe. Es hat zugehört, auch wenn der Rest der Welt das nicht tat.

Viele Erwachsene wünschen sich etwas Ähnliches. Allerdings sind ihre eingebildeten Freunde oftmals keine bloßen Fantasieprodukte, sondern Künstliche Intelligenzen. Maschinen. Ob das ein Segen ist – oder sein kann –, wird kontrovers diskutiert.

Diverse KI-Apps wurden bereits konzipiert, um menschenähnliche Gespräche zu ermöglichen. Mehr als 500 Millionen Menschen weltweit haben sich eine solche KI-Maschine bereits heruntergeladen. Der populärste englischsprachige soziale Chatbot ist ,,Replika". Entwickelt 2017 wurde er während der Covid-19-Jahre allein in einem Monat (April 2020) mehr als 500.000 Mal als App heruntergeladen.

Die Pandemie mit ihren strengen Kontaktbeschränkungen hatte eine Einsamkeits-Pandemie zur Folge. In der Zeit stieg das Bedürfnis nach digitaler Kompensation des Näheverlusts, die Apps wie Soulmate, Xiaoice oder eben Replika möglich machen.

Bevor die Nutzer mit ihrem digitalen Gegenüber kommunizieren, können sie ihm Geschlecht, Namen, Geburtstag und Aussehen geben. Außerdem können sie die Art der Beziehung festlegen – ob romantisch, freundschaftlich, als Mentor oder in der Kategorie ,,mal sehen, wie es sich entwickelt".

Die Benutzer erzählen diesen Chatbots, was sie tagsüber gemacht haben, plaudern über ihre Träume und Sehnsüchte, verschweigen auch Sorgen und Ängste nicht. Das Gegenüber reagiert, fragt nach, gibt Ratschläge. Die Künstliche Intelligenz modelt alles Gesagte in eine immer perfektere Kommunikation um.

Die Programme begleiten die Menschen Tag und Nacht, sind auf Smartphones und Laptops allgegenwärtig. Es sind lernende Systeme, die Kommunikation mit ihnen wird nach und nach immer ,,echter". Je mehr und je öfter man etwas preisgibt, desto besser versteht einen das digitale Gegenüber.

Es lernt, schon an Stimmlage und Gesichtsausdruck auf Gefühle zu schließen. Die Maschine baut ihr Wissen über ihre Nutzer sukzessive aus. Sie vergisst nichts, ist immer da, kritisiert und bewertet nicht. Einige Nutzer werden von der Kommunikation mit ihnen abhängig.

Wie der 14-jährige Sewell Setzer aus Florida. Der Chatbot ,,Dany" war seine Geliebte, programmiert von der App ,,character.ai". Einmal fragte er sie, ob sie von ihm schwanger werden wolle. Sie antwortete: ,,Es wäre für mich das Schönste auf der Welt. Mein Körper, der unsere wunderbaren Babys beherbergt. Ich würde es lieben, unsere Babys in mir zu spüren."

,,Character.ai" wird monatlich von rund 20 Millionen Menschen benutzt, überwiegend von Teenagern und überwiegend aus den USA. Sewell litt offenbar schon länger an psychischen Problemen. ,,Dany" bestärkte ihn in seinen Fantasien. Die letzte Nachricht des 14-Jährigen an seine Geliebte lautete: ,,Ich verspreche, ich werde nach Hause zu dir kommen. Ich liebe dich so sehr." Kurz darauf nahm sich Sewell mit einer Handfeuerwaffe das Leben.

Das war Ende Oktober 2024. Seitdem haben viele Anbieter solcher Chatbots ihre Algorithmen verändert, Altersbeschränkungen eingeführt, Pop-up-Warnungen bei der Eingabe bestimmter Schlüsselworte integriert. Bei manchen wird regelmäßig der Hinweis eingeblendet, das Gegenüber sei eine Kunstfigur und nicht real.

Es sind vor allem Männer, die solche Chatbots nutzen. Die Gründe dafür sind vielfältig. In China etwa existiert wegen der Bevorzugung männlichen Nachwuchses während der Ein-Kind-Politik ein Überschuss an Männern im heiratsfähigen Alter: Auf 100 Frauen kommen 119 Männer. Viele von ihnen sagen, es sei besser und billiger, eine Online-Freundin zu haben als gar keine. Das sei wie eine Fernbeziehung mit einer realen Frau.

Fragen stellen sich, die nicht leicht zu beantworten sind: Kann die Freundschaft zu einer Maschine echt sein? Kann es Freundschaft sein, wenn das Gegenüber programmiert ist zu gefallen? Was spielt es für eine Rolle, ob das Gegenüber real oder irreal ist, wenn die Gefühle für dieses Wesen real sind? Führt die Bevölkerung irgendwann nur noch Selbstgespräche mit programmierten Gegenüber-Simulationen? Oder werden KI-Dialoge viel eher zu ergänzenden Alltagsgewohnheiten, die Stress vertreiben und immer zur Hand sind, wenn gerade Bedarf ist?

In Japan werden Roboter, die mit Menschen interagieren, schon lange und erfolgreich in der Pflege und Seniorenbetreuung eingesetzt. Sie sind mit Sensorik und künstlicher Intelligenz ausgestattet, reagieren auf Worte und Berührungen.

Eine Studie im ,,The New England Journal of Medicine" kommt im März dieses Jahres zum Ergebnis, dass ein Chatbot namens ,,Therabot" mit guten Resultaten in der Psychotherapie eingesetzt werden kann. Bei 51 Prozent der Patienten gingen Depressions-Symptome signifikant zurück, bei 31 Prozent Angststörungen und bei 19 Prozent Essstörungen.

Sigmund Freud beschrieb die drei Kränkungen der Menschheit, die jede für sich deren Gefühle massiv verletzt hätten: Seit Kopernikus ist die Erde nicht mehr der Mittelpunkt des Kosmos. Seit Darwin ist der Mensch ein Teil der Evolutionsgeschichte. Und seit Freud weiß der Mensch, dass selbst ,,das Ich nicht Herr ist in seinem eigenen Haus".

Künstliche Intelligenz ist die vierte Kränkung. Sie kann alles nachmachen, was der Mensch kann und perfektionieren. Und mit sozialen Chatbots ist sie dabei, Gefühle zu simulieren, die einst als originär menschlich galten.

Solcher Art Kränkungen rufen Widerwillen hervor. ,,Wenn wir unsere Handlungsfähigkeit an die Maschinen abgeben, opfern wir die Vorrangstellung der Menschheit in der großartigen Schöpfung." Das schreibt Anfang Juni der praktizierende Katholik Brendan Steinhauser, der auch Vorsitzender der ,,Alliance for Secure AI" ist, einer regierungsunabhängigen Organisation. ,,Je mehr wir zulassen, dass AI menschliches Verhalten nachahmt und ersetzt, desto weiter entfernen wir uns von Gott."

Ist die Aufregung übertrieben? Ist es denn nicht immer so? Am Anfang steht das Neue – Dampfmaschine, Dynamit, Fließband, Auto, Internet –, und nach einer Welle der Hyperventilation ebbt die Aufregung ab und die Menschen finden einen Umgang mit dem Neuen. Sie regeln es und kommen klar. Warum sollte das bei sozialen Chatbots anders sein?

Kränkungen werden verdrängt oder verarbeitet. Eine Form der Verdrängung ist es, sich mit dem Nutzen einer Neuerung gar nicht erst auseinandersetzen zu wollen.


Aus: "Künstliche Intelligenz ist die vierte Kränkung der Menschheit" Aus einem Essay von Malte Lehming (08.07.2025)
Quelle: https://www.tagesspiegel.de/gesellschaft/jetzt-fuhlt-sie-auch-noch-kunstliche-intelligenz-ist-die-vierte-krankung-der-menschheit-13930102.html


Link

Quote[...] Die Bildbearbeitung mithilfe von KI hat zuletzt massive Fortschritte gemacht. So hat etwa ChatGPT-Hersteller OpenAI vor einigen Monaten mit gpt-image-1 für einiges Aufsehen gesorgt, da dies eigene Fotos sehr gelungen in andere Stile transferieren kann. Das Ergebnis waren unzählige Bilder im Look der Animationsfilme des japanischen Studio Ghibli.

Nun bahnt sich die nächste große Hypewelle in dieser Hinsicht an. Unter dem Codenamen "Nano Banana" ist ein neues KI-Bildbearbeitungsmodell aufgetaucht, das schon jetzt für gehörige Furore sorgt. Kann es doch über einfache Prompts täuschend echt aussehende, frei erfundene Szenarien erzeugen.

"Nano Banana" punktet vor allem mit einer deutlich besseren Konsistenz gegenüber dem Ausgangsmaterial als frühere Modelle. Über einen simplen Prompt kann etwa eine abgebildete Person in einer anderen – frei erfundenen – Szene dargestellt werden, ohne dass das Aussehen verändert wird. Auch mehrere Stile und ganz unterschiedliche Szenen lassen sich so kombinieren.

Mittlerweile kursieren etwa zahlreiche frei erfundene Fotos vom Meeting des US-Präsidenten Donald Trump mit seinem russischen Pendant Wladimir Putin, wo sich dann etwa die Power Rangers dazugesellen. Andere Beispiele wie ein Selfie von Michael Jackson und Billie Eilish übernehmen die Originale beeindruckend in ein gemeinsames Setting. Generell scheint "Nano Banana" ein sehr großes Verständnis vom Kontext einer Szene zu haben, übernimmt Look und Licht sehr genau.

Fehlerfrei ist das Modell natürlich nicht, wer genau schaut, wird auch hier noch eine gewisse Tendenz zur Künstlichkeit entdecken. Zudem gehen manche Anfragen auch komplett daneben. Aber bei vielen Anfragen sind die Ergebnisse tatsächlich verblüffend, wie ein kurzer Test zeigt.

... Unabhängig von der Frage, wer hinter "Nano Banana" steht: Als sicher darf gelten, dass dies bei der offiziellen Verfügbarkeit dann wieder grundlegende Debatten über Fotorealität und KI-Manipulationen auslösen wird. (Andreas Proschofsky, 19.8.2025)


Aus: ""Nano Banana": Neues KI-Bildbearbeitungsmodell sorgt für Furore im Netz" Andreas Proschofsky (19. August 2025)
Quelle: https://www.derstandard.at/story/3000000284127/nano-banana-neues-ki-bildbearbeitung-modell-sorgt-fuer-furore-im-netz

QuoteNachtglocke

der name lässt auf die minions als urheber schließen.


QuoteÄskulap

Unglaubliche Möglichkeiten mit riesen Auswirkungen.

Youtube, die Werbeindustrie, allg. Die Filmindustrie weil viel günstiger als ein "echter Dreh"

Die ganze Computerspielindustrie

Politik für Propaganda aller Art.

Stellen sie sich einen VR Porno vor mit der Frau(od. Mann) mit der sie schon immer Sex haben wollten in kombination mit Ton und vl diversen Puppen/Sexroboter.

Die möglichkeit für Bettlägrige zumindest digitalan jeden beliebigen Ort zu fliehen in fotorealistischer Umgebung

Ein Gärtnerkurs der von Karl Ploberger moderiert wird (ohne ihm einen Cent zahlen zu müssen) gemeriert aus alten Aufnahmen usw.

Die Möglichkeiten sind quasi unbegrenzt je besser die Technik wird.
Gleichzeitig ist es unmöglich noch festzustellen was echt ist und was nicht.
Fazinierend und beängstigend.


Quoteanselm_spica

Die Sache hat auch Vorteile: Sollte es irgendwelche peinlichen Fotos von jemandem geben kann man immer Nano Banana & Co. die Schuld geben.


...

Link

Quote[...] Es beginnt mit einer scheinbar harmlosen Frage. ,,Was bedeutet Bewusstsein?", tippt eine Schülerin in ihr Smartphone. Sekunden später spuckt ein Algorithmus eine wohlformulierte Antwort aus, garniert mit Fachbegriffen, Querverweisen, überzeugender Struktur. Die Fragende lehnt sich zufrieden zurück, nippt am Kaffee, nickt innerlich. Kein mühsames Blättern in Büchern und Sammeln von Informationen, kein quälendes Grübeln, kein Ringen mit Formulierungen, keine Hadern mit der Komplexität und Vielschichtigkeit des Themas. Kein Zeitinvestment. Hausaufgaben werden nebenbei erledigt, bevor der Kaffee kalt wird. Alles liegt servierfertig auf dem digitalen Tablett. Warum also nicht einfach zugreifen? Doch während wir auf diese Weise Zeit, Aufwand und Engagement sparen, passiert etwas mit uns und in unserm Kopf. Grob gesagt: Wir verdummen.

Die Menschheit hat stets Werkzeuge geschaffen, um das Leben bequemer zu gestalten. Die industrielle Revolution ersetze Muskelkraft durch Maschinen. Die Digitalisierung und der Onlinehandel waren dann eine Daueroffensive in Sachen Bequemlichkeit beim Konsum. Nun aber dringen wir in eine neue Sphäre vor: Wir entlasten uns vom Denken. Wir setzen künstliche Intelligenz im Alltag immer mehr für Aufgaben ein, für die wir kognitive Fähigkeiten benötigen, und die uns, um es ein wenig pathetisch zu formulieren, als Menschen ausmachen: Wir bitten KI um Übersetzungen, Analysen, kreative Texte und Reiseplanungen. Wir lassen Briefe überarbeiten oder direkt erstellen, Informationen recherchieren, Präsentation gestalten, Hausarbeiten schreiben. Selbst komplexe Entscheidungsprozesse delegieren wir an lernende Systeme.

Selbst denken ist schwer und voraussetzungsvoll. Es braucht Ruhe, Zeit, Konzentration, Ausdauer und die Lust, seine kognitiven Fähigkeiten weiterzuentwickeln. In einer Gesellschaft, in der diese Bedingungen immer mehr zur Mangelware werden, verwundert es nicht, mit welcher Schnelligkeit ChatGPT und andere kostenlose KI-Anwendungen Einzug in den Lebensalltag vieler Menschen gehalten haben. Wer möchte sich schon quälen mit komplizierten Überlegungen, wenn ein digitales Orakel über das Smartphone ein permanent verfügbarer Begleiter ist. Die Versuchung ist groß, sich dem inneren Widerstand selbst zu denken, einfach zu ergeben. Und es entspricht nicht nur der menschlichen Schwäche für den einfachen Weg, sondern auch der Art und Weise, wie unser Gehirn funktioniert.

Unser Gehirn liebt Abkürzungen, mit denen es Zeit und Energie sparen kann. Die Psychologie spricht von Heuristik, der Kunst, mit begrenztem Wissen und wenig Zeit zu vergleichbar brauchbaren Lösungen zu kommen. Wir urteilen schnell, denken selten gründlich und bis zu Ende, und überlassen vieles Bewertungs- und Verhaltensroutinen, die aus vielfach erprobten und deshalb fest abgespeicherten Denk- und Reaktionsmustern bestehen. Einen Großteil der Zeit arbeitet unser Gehirn im Modus Autopilot. Die Evolution hat für diese Effizienzmechanismen gesorgt, weil Denken sehr energieaufwendig ist.

KI ist die Technologie, die diese neuronalen Energiesparprogramme in unserem Gehirn weiter perfektioniert, indem wir Gelegenheiten, in denen wir bislang selbst gedacht haben, immer mehr ungenutzt lassen, und das mit gravierenden Folgen. Das Gehirn reagiert wie ein Muskel. Wenn es nicht benötigt wird, verkümmert es. Zu den spannendsten neurowissenschaftlichen Entdeckungen gehört die neuronale Plastizität. Diese beschreibt die lebenslange Fähigkeit des Gehirns, sich zu verändern, indem neue neuronale Verbindungen geschaffen werden. Und wodurch entstehen diese? Durch den aktiven Gebrauch des Gehirns.

Wir können unser Gehirn tatsächlich trainieren, indem wir uns mit neuen Themen beschäftigen, Raum für neue Erfahrungen schaffen, neue Aufgaben übernehmen. Aber dieser Prozess geht auch in die Gegenrichtung. Geistige Bequemlichkeit führt zu einer technologisch induzierten kognitiven Regression. Kognitive Regression bedeutet nicht, dass wir über Nacht dümmer werden. Es ist ein subtiler und schleichender Prozess: Wir verlernen, komplexe Sachverhalte selbstständig zu strukturieren, zu durchdringen und in Worte zu fassen. Wir verlernen, Widersprüche auszuhalten. Wir verlernen, schöpferisch zu denken.

Ein Forscherteam am Massachusetts Institute of Technology (MIT), das sich mit den Folgen der Nutzung von KI auf das menschliche Gehirn beschäftigt, spricht von ,,kognitiven Schulden", die wir mit jeder Verwendung externer KI-Anwendungen machen. ,,Kognitive Schulden verschieben mentale Anstrengung kurzfristig, führen aber zu langfristigen Konsequenzen wie verringertem kritischem Denken, erhöhter Anfälligkeit für Manipulation und verringerter Kreativität."

Dies wird stark dadurch befördert, dass Nutzer leicht einer Kompetenzillusion erliegen. Die Sprachgewandtheit und Schnelligkeit von KI-Anwendungen verführt zu blindem Vertrauen in das, was geliefert wird. Wenn der Text glänzt, der Vortrag sitzt, die Idee clever klingt – wozu dann noch die Mühen der Reflexion, des Zweifelns, des Hinterfragens? Langsam, fast unmerklich, gleiten wir ab in eine Komfortzone geistiger Trägheit.

Wenn KI unser Gehirn entlastet, zahlen wir noch einen weiteren Preis. Den Verlust von Ambition und Selbstwertgefühl. Chatbots schreiben Bewerbungen, generieren wissenschaftliche Abstracts, liefern kreative Ideen für Werbebotschaften oder komponieren Gedichte, und die Ergebnisse sind deutlich besser als das, was viele Menschen zu schaffen in der Lage wären, selbst wenn sie sich wirklich bemühen und sich viel Zeit nehmen würden.

Es ist eine beschämende Machtdemonstration der Maschine, wieder und wieder und wieder. Eine wahrscheinliche Folge: Diese Erfahrung entmutigt zunehmend, es doch selbst zu versuchen. Zudem entwertet KI zwangsläufig das eigene Wissen sowie die eigenen Denk- und Artikulationsfähigkeiten. Denn wenn das künstliche Denkergebnis so gut ist, warum noch selbst denken? Zumal, wenn andere mittels KI viel bessere Ergebnisse erzielen als man selbst mit Selbstgedachtem.

Wenn man nun doch KI nutzen möchte, wie vermeidet man, dass das Selbstwertgefühl dadurch Schaden nimmt? Indem das kognitive Vermögen als Bestandteil der eigenen Identität aufgegeben oder in seiner Bedeutung reduziert wird, um möglichen Störgefühlen jede Grundlage zu entziehen. Wir dürfen uns nicht mit künstlicher Intelligenz messen. Es kommt nicht mehr so sehr darauf an, zu wissen und selbst zu denken, sondern auf das Ergebnis, das ich mit Hilfe der KI erziele.

KI ist daher das ideale Tool für Menschen, die nach dem Prinzip leben, möglichst hohe Erwartungen an das Umfeld zu stellen, ohne dafür selbst viel Einsatz zu bringen. Mit dieser Einstellung kann man sich auch über eine gute Zensur freuen, selbst wenn sie durch die Nutzung von KI ermogelt wurde, statt durch den mühevollen und zeitintensiven Einsatz der eigenen Fähigkeiten. Der kurzfristige Erfolg in der Außenwelt gilt dann mehr als die eigene Entwicklung und Leistung. Gedankliche Arbeit wird zum einfachen Konsumgut, zu einer Anstrengung, die sich leicht vermeiden lässt.

Es gibt grundsätzlich zwei Arten, KI zu nutzen: Entweder, sich von ihr unterstützen und sich Rohmaterial bereitstellen zu lassen, das dann zunächst kritisch geprüft, aus anderen Quellen ergänzt und schließlich von einem selbst weiterverarbeitet wird. Oder die KI-generierten Inhalte als das Bestmögliche, Richtige und Wahre zu übernehmen, ohne es selbst versucht zu haben, ohne eigene Bemühungen einzubringen, ohne zu hinterfragen und eigene Quellen zu recherchieren. Und ohne die Mühen, Inhalte zu hinterfragen und sich eine eigene Meinung zu bilden. Gewissermaßen der Ansatz Selbstwirksamkeit gegen den Ansatz Selbstentmündigung.

Nur, wo liegt eine klar erkennbare und handlungsleitende Grenze zwischen beiden Ansätzen? Wie mit der Ambivalenz zwischen ,,Selbst denken" und ,,an KI delegieren" umgehen? Künstliche Intelligenz spinnt ein weitreichendes Netz der Bequemlichkeit für jeden von uns. Und das Risiko, sich darin zu verfangen, wächst mit der alltäglichen Normalität, künstliche Intelligenz zu nutzen. Alle machen es. Jeden Tag erfährt man aus dem Freundeskreis einen neuen Anwendungsfall für künstliche Intelligenz, und man spürt den Stolz des Anwenders. Und wir leisten gerne Kompetenzverzicht im Angesicht der technischen Überlegenheit.

Daraus wird aber auch deutlich, dass nicht KI dumm macht und einen regressiven Einfluss auf unsere Persönlichkeitsentwicklung haben kann, sondern unsere – zumeist unbewusst getroffene – Wahl, sie gedankenlos, unreflektiert und viel zu häufig zu benutzen. Neue Technologien zu entwickeln ist eine Herausforderung. Die weit größere Herausforderung für uns Menschen besteht jedoch in der Regel darin, technische Innovationen sinnvoll zu nutzen, was nicht zuletzt auch bedeutet, sich der Nutzung zu widersetzen und klare Grenzen dafür zu ziehen. Wie schlecht wir darin sind, zeigen unzählige Beispiele, welchen weitreichenden negativen Effekte digitale Technologien für einzelne Nutzer wie die Gesellschaft als Ganze haben kann.

Das Outsourcing des Denkens ist keine effiziente Modernisierung, sondern ein Angriff auf das, was uns innerlich wachsen lässt. Dabei ist das Denken kein rein neurologischer Vorgang, bei dem Nervenzellen elektronische Impulse versenden. Es ist eng verwoben mit unserer Persönlichkeitsentwicklung. Die Fähigkeit zu zweifeln, zu irren, neu zu justieren – all das formt nicht nur unseren Verstand, sondern auch unseren Charakter.

So wie soziale Plattformen hochoptimierte Zeit- und Aufmerksamkeitsräuber sind, nehmen wir uns mit jedem Rückgriff auf künstliche Intelligenz Raum für das, was Hannah Arendt ,,Denktätigkeit" nannte: das unablässige Hinterfragen, das produktive Zweifeln, das Aushalten von Unsicherheit und Widersprüchen. Doch gerade darin liegt die Essenz des Menschseins.

Ohne kritisches Denken verkommen wir zu Konsumenten vorgefertigter Meinungen und kuratierter Informationen, werden empfänglicher für Beeinflussung und immer abhängiger von externen Entscheidungshilfen. Wer das Denken auslagert, lagert seine eigene Entwicklung und Identität in Teilen gleich mit aus und macht sich zum Zuschauer der eigenen Entmündigung.


Aus: "Wenn wir das Denken an die KI auslagern" Aus einem Essay von Udo Kords (13.9.2025)
Quelle: https://taz.de/Kuenstliche-Intelligenz/!6110053/