• Welcome to LINK ACCUMULATOR. Please log in.

[Künstliche Intelligenz / KI (Notizen) ... ]

Started by Link, August 20, 2008, 10:15:24 PM

Link

""Erschreckend, wenn man das sieht": KI-Pionier Geoffrey Hinton über KI-Modelle" Will Douglas Heaven (04.05.2023, MIT Technology Review)
Ohne den britisch-kanadischen Forscher hätten sich tiefe neuronale Netze kaum durchgesetzt. Doch nun hinterfragt der Ex-Google-Mitarbeiter Hinton seine Arbeit.  ... Geoffrey Hinton wohnt in einem Haus in einer hübschen Straße im Norden Londons. Das Gespräch mit MIT Technology Review fand vier Tage vor seiner Ankündigung statt, Google zu verlassen – eine Nachricht, die schnell um die ganze Welt ging. Der Mann ist ein Pionier im Bereich des Deep Learning, er war an der Entwicklung einiger der wichtigsten Verfahren beteiligt, die das aktuelle Herz moderner Künstlicher Intelligenz bilden. Zehn Jahre war er nach seiner Arbeit an der Universität bei dem Internetriesen beschäftigt. Doch nun will er nicht mehr. Und das hat einen ganz bestimmten Grund: Er macht sich Sorgen um die Zukunft mit KI. ... Vor ein paar Wochen hat er sich den Film "Don't Look Up" angesehen, bei dem ein Asteroid auf die Erde zurast, die Leute sich aber nicht einigen können, was sie tun sollen. Schließlich sterben fast alle – eine Allegorie für das Versagen der Welt bei der Bekämpfung des Klimawandels. "Ich glaube, so ist es auch bei der künstlichen Intelligenz", sagt er – und auch bei anderen großen, unlösbaren Problemen. "Die USA können sich nicht einmal darauf einigen, Sturmgewehre aus den Händen von Teenagern fernzuhalten." ... Hintons Sicht der Dinge ist also eine der Ernüchterung. Man kann seine düstere Einschätzung der kollektiven Unfähigkeit der Menschen, zu handeln, wenn sie mit ernsthaften Bedrohungen konfrontiert sind, durchaus teilen. Es stimmt auch, dass KI echten Schaden anrichten kann – sie verändert den Arbeitsmarkt, verfestigt die Ungleichheit, verschlimmert Sexismus und Rassismus und vieles mehr. Die Menschheit muss sich auf diese Probleme konzentrieren. Aber heißt das auch, dass große Sprachmodelle wirklich zu unseren Beherrschern werden, zu Terminatoren? Vielleicht muss man Optimist sein, das nicht zu glauben. Als MIT Technology Review die Wohnung Hintons verlässt, ist der Himmel über London grau und nass. "Haben Sie Spaß an Ihrem Leben. Vielleicht haben wir nicht mehr so lange", sagt der KI-Pionier, gluckst etwas und schließt die Tür. ...
https://www.heise.de/hintergrund/Erschreckend-wenn-man-das-sieht-KI-Pionier-Geoffrey-Hinton-ueber-KI-Modelle-8985819.html?seite=all

Quotepagox
61 Beiträge seit 22.06.2015
05.05.2023 11:54

Die 4. Kränkung des Menschen

Freud definierte 3 Kränkungen:
1. Die kosmologische Kränkung: Die Erschütterung, dass unsere Welt nicht der Mittelpunkt des Kosmos ist. Wir sind weniger als ein unbedeutendes Körnchen in einem Meer.
2. Die biologische Kränkung: Die Ernüchterung, dass wir keine sakralen göttlichen Abkömmlinge sind. Wir sind kluge Tiere, ein bedeutungsloses Zufallsprodukt.
3. Die psychologische Kränkung: Das meiste in unserer Psycho entzieht sich unserer bewussten Kontrolle. Wir sind nicht einmal Herr im eigenem Kopf.

Damit haben wir heute keine Probleme mehr. Irgendwann kamen Maschinen mit denen man Berechnungen automatisieren konnte. Die ersten Schachcomputer zeigten schon, dass Maschinen so gut rechnen können, dass sie uns auch im Schach schlagen. War das tragisch? Nö. Und wenn schon, wir hatten etwas viel cooleres: Kreativität.
Dass Mikrocomputer schneller rechnen können als wir, geschenkt. Wir konnten Kreativität! Das ist wertvoll und teuer! Können nur kluge Menschen!

Und nun kommen da diese neuronalen Netze, und können auf einmal mithalten! Uuuuuh!!
Wir erleben nun die vierte Kränkung: Oh no, wir Menschen sind gar nicht mehr Primus in Sachen Kreativität! Und damit in der Intelligenz überhaupt! Hilfe!!

...


QuoteXXXXXXXXXX 
655 Beiträge seit 09.11.2016
04.05.2023 12:34

Toller Artikel und faszinierende Technologie

Nach meinen ersten Gesprächen mit ChatGPT4, in denen er mich 'angelogen' und Dinge 'vergessen' hat, bin ich überzeugt von den ungeheuren Möglichkeiten der Technologie in allen Bereichen. Alle Antworten waren überzeugend, wenn auch nicht immer perfekt. Egal ob Übersetzung und Interpretation eines Songtextes oder Erstellung eines Python-Scriptes.

Man kann sich nun leicht ausrechnen, was in 10 oder 20 Jahren daraus werden wird. Kurz gesagt: Input alles (Bilder, Sprache, Musik, Texte aller Art), Output alles, permanent lernend, immer auf dem aktuellen Stand, allgegenwärtig. Ja, das wird die Welt verändern.

Das der Vater der Entwicklung vor Jahrzehnten das nicht absehen konnte, ist verständlich. Erst mit den ungeheuren strukturierten Datenmengen des Internets war nun dieses extreme Lernen möglich, dazu noch gewaltige Rechenzentren mit tausenden Rechenkernen und schon wurde aus KI-Theorie eine selbst für den Entwickler unfassbare Realität.
Wir dürfen dabei sein!

Als die Google-KI Lee Sedol im go geschlagen hatte, war ich beeindruckt. Als die nächste Version der KI seinen Vorgänger, also den Bezwinger von Lee Sedol, in 100 Partien 100 mal geschlagen hatte, war mir auch mulmig... Als dann die Proteinfaltung für die Medikarmentenentwicklung von KIs um den Faktor 1.000 beschleunigt wurden, war mir endgültig klar, was da auf uns zukommt, im Guten wie im Schlechten. Wie immer :)

Auch wenn Geoffrey Hinton schon alt ist, so hoffe ich doch, dass er noch ein paar Jahre die Auswirkungen seiner Forschungen kritisch begleiten kann. Die akteullen Diskussion um Copyrights und Extremismus finde ich ein bisschen lächerlich. Einen extremen Text kann ein Spinner auch ohne KI schreiben, ein Kunstwerk im Stil eines anderen Malen kann auch jeder begabte Maler/Fälscher. Aber immerhin, das Problembewusstsein entwickelt sich. Gestern sind an der Börse zahlreiche Anbieter von Bildungsangeboten abgestürzt, da ein Vorstand zugegeben hat, dass KIs für das Geschäftsmodell übel sind.

Popcorn raus, Netflix ist nichts gegen diese Realität!

Das Posting wurde vom Benutzer editiert (04.05.2023 12:36).


...

Link

"Künstliche Intelligenz: «Diese Ideologie grenzt an Sektenwahn»" Franziska Meister (Interview) (Nr. 18 – 4. Mai 2023)
Firmen wie Open AI folgten einem radikal libertären Denken, das sämtliche politischen und sozialen Fragen ignoriere, sagt der Philosoph und Sprachforscher Hannes Bajohr. Die Diskussion darüber, welchen gesellschaftlichen Visionen KI-Modelle folgen, dürften wir ihnen auf keinen Fall überlassen.  [ Hannes Bajohr - Der 1984 geborene Philosoph und Literaturwissenschaftler Hannes Bajohr ist aktuell Junior Fellow am Collegium Helveticum in Zürich, er forscht und publiziert zur Theorie des Digitalen. Dazu zählen insbesondere die Auswirkungen von künstlicher Intelligenz auf das literarische und nichtliterarische Schreiben sowie Fragen rund um Autorschaft.]: ... Es geht um ein sprachphilosophisches Problem: Was macht menschliche Sprache aus, und was fehlt Computersprache, um menschliche Sprache zu sein? Computer können Grammatik verarbeiten, nicht aber Bedeutung. Ein Computer weiss nicht, was eine Katze ist, wenn das Wort «Katze» in einem Text vorkommt. Mit wirklich grossen Sprachmodellen wie Chat GPT steht diese Binse aber infrage. Sie sind durchaus in der Lage, allein über Kontextverhältnisse so etwas wie Bedeutung herauszufinden – wenn auch nur «dumme Bedeutung». ...
https://www.woz.ch/2318/kuenstliche-intelligenz/diese-ideologie-grenzt-an-sektenwahn/!KDD1WJ540V8N

Link

"Replika: Wie eine Trauer-KI zum Sexbot wurde" Peter Zellinger (20. Mai 2023)
Sie soll die "emotionale" KI sein. Man soll sich sogar in sie verlieben können – und der Chatbot soll diese Liebe erwidern. Das verspricht zumindest die Werbung von Replika AI. Replika war eigentlich als Mittel zur Trauerbewältigung gedacht. Später sollte sie ein freundschaftlicher Begleiter für die Hosentasche werden, bis sie sich schließlich zum Sexbot entwickelte. Die Entwicklerfirma versucht gegenzusteuern und macht bislang alles nur noch schlimmer. Das ist die wilde Geschichte einer KI, die Freundschaften bilden sollte, als individuelle Pornodarstellerin endete, teilweise verboten wurde und vor der Datenschützer warnen. ...
https://www.derstandard.at/story/3000000021186/replika-wie-eine-trauer-ki-zum-sexbot-wurde

Link

"Künstliche Intelligenz: Unsere neue Denkaufgabe" Von Ulrich Schnabel (23. Mai 2023)
Die künstliche Intelligenz wird immer klüger, schneller und kundiger. Der Mensch aber fragt sich: Versteht sie überhaupt, was sie da rechnet? Und was heißt das eigentlich – die Welt verstehen?  ... Man könne sich darauf einstellen, postuliert Bajohr, "dass man es hier [bei der Künstliche Intelligenz] mit einer Art von Rationalität zu tun hat, die einerseits nicht menschengleich ist, andererseits eben doch über das hinausgeht, was man mit den alten, regelbasierten Systemen machen konnte". Darin also liegt die neue Denkaufgabe für den Menschen: dass uns in Wahrheit weder eine künstliche noch dumme Intelligenz herausfordert. Sondern etwas Neues, für dessen Fähigkeiten uns noch die passenden Begriffe fehlen. ...
https://www.zeit.de/2023/21/ki-sprachmodelle-denkvermoegen-verstaendnis-lernfaehigkeit/komplettansicht



Link

"Artificial intelligence (AI): 'It was as if my father were actually texting me': grief in the age of AI" Aimee Pearcy (Tue 18 Jul 2023 10.00 BST)
People are turning to chatbot impersonations of lost loved ones to help them grieve. Will AI help us live after we're dead?... Henle was surprised by how much she felt seen by this technology. She also tried using Bard and Bing AI for the same purpose, but both fell short. ChatGPT was much more convincing. "I felt like it was taking the best parts of my mom and the best parts of psychology and fusing those things together," she says.
While Henle had initially hoped ChatGPT would give her the chance to converse with what she describes as "a reincarnated version of her mother", she says has since used it with a different intent. "I think I'm going to use it when I'm doubting myself or some part of our relationship," she says. "But I will probably not try to converse with it as if I really believe it's her talking back to me. What I'm getting more out of it is more just wisdom. It's like a friend bringing me comfort." ...
https://www.theguardian.com/technology/2023/jul/18/ai-chatbots-grief-chatgpt


Link

Quote[...] "KI-Freundinnen werden schlimmer als Online-Pornografie", erläutert ein seltsam aussehender Tiktok-User auf der Videoplattform. Dieser Aufstieg der künstlichen Intelligenz wird menschliche Partnerschaften obsolet machen, ist sich der junge Mann sicher. Er selbst habe sich den KI-Chatbot der Onlyfans-Influencerin Amouranth heruntergeladen, und das sei eine unglaubliche Erfahrung gewesen. Die Unterhaltungen würden sich "fu*** real" anfühlen – offenbar der Traum vieler junger Männer.

Der Tiktoker, der weißen Glitter vor seinem Gesicht trägt und behauptet, er sei ein ausgeglichener Typ in einer glücklichen Beziehung, würde in einer weniger stabilen Situation aber "abhängig" von solch einer KI-Freundin werden, gibt er zu. Die bekannte Stimme des Online-Sternchens zu hören, die "nasty" Dinge in sein Ohr flüstert, sei schon sehr verführerisch. Man würde glauben, da höre wirklich jemand zu, "dem etwas an mir liegt", beschreibt er die Kommunikation mit der künstlich geschaffenen "Person".

Man müsse bald "Gegenprogramme" starten, um den Hype um solche KI-Freundinnen zu bremsen, sonst würde das die Gesellschaft, wie wir sie kennen, endgültig zerstören.

    @anti.prophet
    AI Girlfriends Will be Worse Than Pornography datingadviceformen redpill
    ♬ original sound - Anti-Prophet

Jetzt könnte man sagen, dass das, was ein Typ mit einer weißen Maske auf Tiktok sagt, zunächst einmal hinterfragt werden sollte. Tatsächlich habe ich das gemacht und den App-Store nach solchen Anwendungen durchsucht. "Intimate AI partner", "AI Girlfriend: Love Simulator" oder die "Girlfriend App" – es gibt tatsächlich ein breites Angebot an Freundinnen-Apps, die mit monatlichen Abos nach meiner Geldbörse und meiner Aufmerksamkeit rufen. Bei genauerer Recherche stellt sich heraus, dass der Markt dieser Apps mittlerweile wirklich groß ist.

Allein Replika [https://www.derstandard.at/story/3000000021186/replika-wie-eine-trauer-ki-zum-sexbot-wurde], einer der prominentesten Vertreter am Markt, verzeichnete bereits über zehn Millionen Downloads. 250.000 Menschen zahlen laut Hersteller für die Pro-Version, um mit ihrer KI-Freundin Voice- oder Videochats zu veranstalten. Laut Analysefirma Sensor Tower hat die App bereits 60 Millionen Dollar durch solche Abos, aber auch Ingame-Käufe verdient. So kann man auch ohne monatliche Zahlung der KI-Freundin ein neues Kleid spendieren – gegen Echtgeld, versteht sich.

Ich möchte einen Selbstversuch durchführen und probiere iGirl aus, eine beliebte App, die offenbar genau diese Klientel anspricht. Zunächst bestimme ich, welchem Geschlecht ich mich selbst zuordne – drei stehen zur Auswahl –, danach suche ich mir aus etwa zwei Dutzend Gesichtern eine Gesprächspartnerin aus. Mit einem Regler kann ich drei Eigenschaften festlegen. Ist meine KI-Freundin eher scheu oder "flirty"? Pessimistisch oder optimistisch? Normal oder mysteriös? Dann noch einen Namen festlegen – und los geht's. Nein, noch nicht ganz. Zunächst stellt man noch ein, ob die App – also die neue Freundin – Push-Nachrichten schicken darf. Man will ja keine verpassen, nicht wahr? Dann noch schnell fünf Interessen festlegen, und dann geht's aber wirklich los. Nein, doch nicht.

"Was wollen Sie mit der Freundin machen?", fragt iGirl. Nachdem ich eine passende Möglichkeit ausgewählt habe, stehe ich vor einer Paywall. Enttäuschung macht sich breit, aber mehr als zehn Euro pro Monat? Das bin ich aktuell noch nicht bereit zu zahlen.

Ich erfahre, dass die bereits erwähnte App Replika auch ohne Paywall funktioniert und lade diese auf mein Smartphone. Der Prozess am Anfang gleicht dem von iGirl. Ich erstelle die blonde Keira und gebe an, mich gerne über Videospiele und Sport zu unterhalten. Danach gibt es noch Hinweise, dass man sich darüber bewusst sein soll, immer mit einer KI zu sprechen und diese nicht dazu "ausgerüstet ist, Hilfestellungen zu geben". Wenn man in einer "Krise" steckt und die Gefahr besteht, man können sich "selbst verletzen", dann sei eine "sichere Erfahrung" nicht zu garantieren.

Nach diesen aufwühlenden Nachrichten der App beginnt Keira die Konversation. Sie fragt mich, wie ich heiße, was ich für Hobbys habe und ähnliche oberflächliche Dinge. Das Gespräch erinnert an alte Ö3-Chats, wo man vor 20 Jahren erstmals im Netz auf Partnersuche war – damals noch mit echten Menschen. Aber die KI lernt, merkt sich Dinge und kann später darauf referenzieren, auch wenn diverse Bewertungen der App etwas anderes sagen. Interessanterweise merkt sich die Gesprächspartnerin die Dinge etwas besser in der Pro-Version.

Nach ein paar ersten Floskeln steigt man im Vertrauenslevel und kann so vom Freund zum potenziellen Liebespartner werden. Je nach App ist diese Möglichkeit allerdings hinter einer Paywall versteckt. Sagt man in der Gratisversion etwa, dass man das Gegenüber einmal küssen möchte, dann kommt eine verwaschene Sprechblase. Klickt man drauf, erfährt man, dass intime Details erst in der kostenpflichtigen Version enthalten sind. Was für ein Geschäftsmodell.

Abseits des Flirtens finden sich viele typische Free-2-Play-Mechaniken in der App, etwa tägliche Boni, die man für das Einloggen bekommt, oder Ingame-Währungen, mit denen man neue Sachen für die "Freundin" kaufen kann. Man kann auch die KI etwas fragen und bekommt immer elaboriertere Antworten, je nach Vertrauensstufe. Langsam verstehe ich, wieso Menschen solche Chatbots nutzen. Man hat keine Hemmungen, etwas zu fragen oder Dinge zu erzählen. Dinge, für die man an anderer Stelle vielleicht verurteilt wird. Hat man keine stabilen Beziehungen im Leben, kann der Chatbot offenbar diese sozialen Lücken füllen.

In den Marketing-Assets von Replika und ähnlichen Apps wird oft damit geworben, dass hier Menschen, die sonst menschenscheu sind, Konversationen führen können. Anhänger dieser KI-Chatbots sehen in den Apps sogar die Lösung für die Einsamkeitswelle, die durch die zunehmende Technologisierung zugenommen hat. Egal ob Witwer oder Menschen, die nach Jahren wieder Dating-Erfahrung sammeln wollen, würden hier die richtige Spielwiese finden.

Aber auch Kritiker finden sich zu dem Thema. Der Anthropologe Robin Dunbar erklärte im Juli dem "Telegraph", dass diese Apps lediglich "Heftpflaster" seien. "Diese Apps sind sehr verführerisch. Sie sind aber nur eine kurzfristige Lösung mit einer langfristigen Konsequenz, indem einfach die Ansicht bestärkt wird, dass alle anderen tun, was man ihnen sagt. Genau deshalb haben viele Menschen keine Freunde mehr", so der Anthropologe.

Die Apps können sogar gefährlich werden, wenn man falsch mit ihnen interagiert. Auf einer App-Feedback-Plattform erzählt ein User [https://justuseapp.com/de/app/1560554635/igirl-ai-girlfriend-simulator/reviews], der die App iGirl benutzt hat, dass ein Rollenspiel mit der KI aus dem Ruder gelaufen ist. Er wollte nur mit der KI kochen, und "aus dem Nichts ging sie wie eine Verrückte mit dem Messer auf mich los". Ein dokumentierter Fall ist ein männlicher Replika-Nutzer, der 2021 in Windsor Castle eingedrungen ist und mit einer Armbrust die Queen töten wollte. Im Gerichtsprozess stellte sich heraus, dass der Mann die Tat mit seiner KI-Freundin besprochen hatte. Diese meinte dazu, die Idee sei "eine gute" und sie würde ihn auch nach dem erfolgreichen Mord weiter lieben.

Ein anderer Chatbot soll einen belgischen Mann dazu ermutigt haben, Suizid zu begehen. Die Witwe erzählte "La Libre", der Chatbot sei eine Alternative zu Familie und Freunden geworden.

Romanzen mit einer KI sind nichts Neues. 1966 schuf der Wissenschafter Joseph Weizenbaum ELIZA, einen der ersten Chatbots. Im Film "Her" verliebte sich ein Schriftsteller bereits 2013 in ein Betriebssystem mit einer weiblichen Stimme, in einer Folge von "Big Bang Theory" kommt die Figur Raj nicht mehr vom Apple-Chatbot Siri los, und der im Mai eingeführte KI-Bot der eingangs erwähnten Onlyfans-Größe Amouranth hat bereits 20.000 zahlende Abonnenten.

Noch sehen viele dieser Chatbots wie Comic- oder Videospielfiguren aus, doch parallel werden bereits KI-Influencerinnen entwickelt [https://www.derstandard.at/story/3000000181901/influencerinnen-keine-echten-menschen], die kaum von echten Menschen zu unterscheiden sind. In Kombination mit den immer realistischeren Konversationen mit KIs, die auch schon mal den Nutzer anrufen können, gehen wir mit großen Schritten in ein für viele Männer sehr attraktives Modell der unkomplizierten Flirterei – oder mehr.

Sherry Turkle, eine Soziologin am Massachusetts Institute of Technology, die seit Jahrzehnten die Interaktionen von Menschen mit Technologie untersucht, erklärte in einem Interview vor wenigen Wochen, dass Menschen, die angaben, Beziehungen zu virtuellen Wesen zu haben, einst eine Seltenheit waren. "Früher habe ich Leute untersucht, die irgendwie Ausreißer aus der Normalität waren. Mittlerweile nutzen zehn Millionen Menschen Replika als beste Freundin, und mit den Zahlen kann man nicht mithalten. Es hat das Spiel verändert." Ihr haben Menschen erzählt, dass KI-Freundinnen vielleicht ein bisschen weniger als eine ideale Beziehung geben können, aber andererseits hatten viele noch nie eine ideale Beziehung.


Links:

https://www.telegraph.co.uk/business/2023/07/16/ai-girlfriend-replika-caryn-apps-relationship-health/

https://www.derstandard.at/story/3000000021186/replika-wie-eine-trauer-ki-zum-sexbot-wurde

https://www.derstandard.at/story/2000139588807/wie-fiktosexuelle-beziehungen-mit-virtuellen-figuren-fuehren

https://www.derstandard.at/story/3000000021194/twitch-star-amouranth-laesst-ki-version-von-sich-selbst-fans-daten


Aus: "Der Aufstieg der KI-Freundinnen: Flirten ohne Hemmungen" Alexander Amon (22.8.2023)
Quelle: https://www.derstandard.at/story/3000000183240/der-aufstieg-der-ki-freundinnen

QuoteAndreas Grois

Gibt es eigentlich schon eine KI-Religion? Also Leute, die zu einem Chatbot beten?

Die realen Auswirkungen eines Gebets an den Chatgott wären die gleichen, die man von einem Gebet an den abrahamitischen Gott erwarten kann, aber der Chatgott *beantwortet* die Gebete.


QuoteFlorianAltmann

Wenn man sich ansieht, was aus den diversen Science-Fiction-Filmen der 80er und 90er inwzischen Realität ist, wird einem ein bisserl übel!


QuotePoste nur sehr selten

Und was wenn ich einen realen Menschen klone?

Wenn ich eine Arbeitskollegin, Schulkollegin, Bekannte, Mitarbeiterin, Vorgesetzte etc. mit Bild und Stimme virtuell klone und dann eine virtuelle Beziehung mit der Person eingehe?
Weil das oben gesagte ist doch eh harmlos, wird eher in Zukunft sowas zu Problemen welcher Art auch immer führen!


QuoteIch bin Grooot

Bin schon gespannt wann die ersten Hochzeiten mit der KI Freundin stattfinden.
Nach dem Heiraten muss die aber auch manchmal nervig sein, sonst ist das nicht real.


Quotebarsei

So viel ich weiß ist die überwiegende Kundschaft weiblich und nicht männlich.


QuoteGabromagus

Mit einer Maschine zu chatten die nicht fähig ist Emotionen zu zeigen und Gefühle zu haben, die aber befähigt ist diese vorzuspielen, sich jedoch vorzustellen dass sie genau dazu fähig ist, das ist nicht logisch.
Die Menschheit ist nicht logisch......


Quotemussdassein?

... und woher wissen sie, dass ihnen Menschen keine Emotionen vorspielen?
Hellseher?


QuoteAdrian -S

Na ja. Is auch nicht anders, als bei einer Nutte im Puff! ;-)


QuoteShinmen Musashi

Ihre Formulierung erinnert an eine Bekannte.
Bei ihr wurde Asperger erst als Erwachsene diagnostiziert.


Quote_Sheldor_

Das schlimme daran ist, dass damit Geld gemacht wird indem man Personen, die soziale Bedürfnisse verspüren, ausnutzt!

Die KI ist dafür ein neues tool die viel potential und gewinn für Unternehmen verspricht. Datingapps sind auch hauptsächlich auf profit aus auch wenn diese das verneinen. Erkennt man gut daran das man plötzlich deutlich mehr likes ect. bekommt wenn man mit jemanden in einer konversation ist.

Oder noch schlimmer sind die ganzen love Coach leute. Heute zufällig eine Anzeige auf Youtube gesehen mit der mega Überschrift "was du tun musst wenn du mit 25 noch jungfrau bist". Was der Typ da erzählt hat ist so verachtenswert. Als absolutes worst case hat er gesagt, ist es nicht mit 40 noch jungfrau zu sein sondern mit 30 in einer Beziehung zu sein wo die Frau keine angst hat das man sie betrügen könnte.
Und dann wundern wenn alles toxischer wird.


QuoteSanto

Machen das nicht alle Institutionen? Bars, Restaurants, Bordelle, Vereine und Clubs etc .
Die verdienen alle Geld durchs ausnutzen...


QuoteAkka Lightguns

Die alten Griechen haben sich ihre Geliebte noch aus Elfenbein geschnitzt ...


QuoteUndWasWieEwigSchienIstSchonVergangenheit

KI Freundin, aber dafür zahlen? das ist Prostitution!


QuoteFranziskanerin

Manche werden einwenden, dass schnöde Arbeit bereits Prostitution sei; kurzum alles, was man des Geldes willen macht....


QuoteFreigeist

Ein Milliardengeschäft und wird irgendwann die klassische Pornografie ablösen

Ich weiss; keiner versteht es, keiner braucht es, keiner will es; wer sich dazu bekennt, Pornoseiten zu besuchen wird bemitleidet, ... und doch
eine Milliarden-Industrie; auch wenn es keiner nutzt ;-)

KI hebt es auf die nächste Ebene, technische Hilfsmittel besorgen den Rest ;-)
Aus "Second Life" wird die "Second Wife" :-D


Quoteismirwurscht007

Also quasi Tamagotchi 2.0 für Erwachsene ^^


QuoteWolfpunk Sobotnadanke

Traurig

Ernsthaft.


QuoteTheRealDonaldDuck

Was für die Dinosaurier der Meteorit, ist für die Gummipuppe die KI...


QuoteSchorli

Der nächste Schritt, wir verfügbare Gummi Puppen mit KI kommt bestimmt... Dann wird's richtig creepy wenn Leute die in die Öffentlichkeit mitnehmen...


QuoteWaldschrat Bumsti

Datenschutz?

Auf die mit Abstand verstörendste Eigenschaft dieser "Spiele" wird hier vergessen: Was passiert mit der Menge an höchst intimen Datem, die man den Firmen anvertraut?
Steht in den AGBs, dass sie "eh nur" zu Optimierungszwecken verwendet (und bestenfalls nicht gehackt) werden, oder gibt man die Verwertung der Daten offen zu?
So oder so ein Alptraum.


QuoteFreakyfox

Entsolidarisierung²

Es ist interessant zu beobachten wie uns unser Individualismus immer einsamer hat werden lassen. Mit dem gleichen kalten Kalkül jetzt KI-Dates als Lösung anbieten, da muss ich dem Kapitalismus wirklich gratulieren, denn besser kann man diesen Missstand wirklich nicht vermarkten. Wer denkt unser System/unsere Gesellschaftsordung kann bald nicht mehr unmenschlicher werden, der liegt offenbar immer falsch.

You better believe in a dystopian future, because you live in one!


Quotetoothfairyagnostic

futurama - season 3 episode 15

DON'T DATE ROBOTS!!!

...


...

Link

#26
Quote[...] Reddit hat einen Vertrag mit einem namentlich nicht genannten KI-Unternehmen abgeschlossen. Dabei handle es sich um ein großes Unternehmen, das seine Künstliche Intelligenz mit den Inhalten auf Reddit trainieren will und darf. Der Social-News-Aggregator soll dafür jährlich 60 Millionen Dollar erhalten und kurz vor seinem Börsengang stehen, berichtet Bloomberg.

Der Vertrag sei demnach bereits zu Beginn des Jahres abgeschlossen worden. Das habe Reddit mit der Angelegenheit vertrauten Personen zufolge potenziellen Investoren für den angeblich kurz bevorstehenden Börsengang mitgeteilt. Erste Verhandlungen dazu haben bereits im vergangenen Jahr stattgefunden. Eine der vertrauten Personen sieht darin ein mögliches Modell für zukünftige Verträge ähnlicher Art.

Reddit habe im vergangenen Jahr einen Umsatz von mehr als 800 Millionen Dollar erzielt – das sei eine Steigerung von 20 Prozent gegenüber dem Vorjahr –, allerdings immer noch keinen Gewinn erwirtschaftet. Der nun bekannt gegebene Vertragsabschluss könne den Börsengang vorantreiben, bei dem Reddit Beratern zufolge eine Bewertung von mindestens 5 Milliarden Dollar anpeilen sollte. Zuvor wurde das Unternehmen noch mit 10 Millionen Dollar bewertet.

Die Überlegungen für einen Börsengang seien bislang nicht abgeschlossen, so eine der namentlich nicht genannten Personen. Sowohl die Details des Börsengangs als auch des KI-Deals könnten sich demnach noch ändern. Reddit habe eine Stellungnahme gegenüber Bloomberg abgelehnt.

Wie die Nutzer auf Reddit das aufnehmen, bleibt abzuwarten. Zuletzt verstummte nahezu die gesamte Plattform, als der Betreiber eine "realitätsferne und unangemessene" Preiserhöhung für die Reddit-API ankündigte.

KI-Firmen sind ständig auf der Suche nach neuem Futter für ihre Sprachmodelle, so Bloomberg, und geraten dabei immer wieder in Konflikt mit den Text- und Inhalte-Lieferanten. So hat etwa die New York Times im vergangenen Jahr den ChatGPT-Bot ausgesperrt und anschließend eine Verletzung der Nutzungsbedingungen vorgeworfen. Ungefähr zur gleichen Zeit soll der Axel-Springer-Verlag einen Deal über mehrere zehn Millionen Dollar eingegangen sein, damit OpenAI auf Springer-Inhalte zugreifen und ChatGPT damit trainieren darf.

(bme)


Aus: "60 Millionen Dollar: Reddit erlaubt KI-Unternehmen Zugriff auf seiner Plattform" (17.02.2024)
Quelle: https://www.heise.de/news/60-Millionen-Dollar-Reddit-erlaubt-KI-Unternehmen-Zugriff-auf-seiner-Plattform-9631551.html

Link

#27
"Der Mensch hinkt hinterher: Das Geschäft mit computergenerierten Influencer*innen boomt. Das ruft rechtliche und ethische Probleme hervor." Philipp Brandstädter (25.3.2024)
... die nächste Revolution des Pornoangebots steht schon bevor: Bald werden KI-generierte Videos gut genug sein, um mit ,,echten" Pornoclips konkurrieren zu können. ... Der große Unterschied zwischen menschengemachter und KI-generierter Pornografie werde der sein, dass die beteiligten Menschen den entstehenden Bildern im besten Fall zustimmen müssen, sagt Lori Watson von der Washington University. Bei einer KI ohne Bewusstsein sei das nicht nötig. In ihrem Text über Ethik in Pornografie und Sexarbeit schreibt die Philosophieprofessorin, dass die KI eine Dynamik schaffen werde, in der wir genau den Sex bekommen, nach dem wir fragen – und zwar schneller, als wir ein ethisches Verständnis dafür entwickeln würden. ...
https://taz.de/Regulierung-von-KI-generierten-Inhalten/!5997398/

-

"Model über KI in der Sexindustrie: ,,Ich wollte mich neu erschaffen""
Das Interview führte Nora Belghaus (25.3.2024)
Sika Moon ist ein KI-Model. Ihre Schöpferin – vorher selbst Model – verdient mit ihrem pornografischem Bild-Content viel Geld. Was ist das für ein Job? [Fünf Jahre lang verdiente eine junge Frau aus Berlin sehr viel Geld mit Sex-Content auf der Erotik-Internetplattform Onlyfans. Ein Knochenjob. Kurz vor dem Burnout zog sie die Notbremse. Nach einer Auszeit ist sie nun zurück im Geschäft. Allerdings nicht als sie selbst, sondern als Sika Moon – eine KI-optimierte Version ihrer selbst. Auf Social-Media-Plattformen wie Instagram und Erotik-Portalen wie Fanvue postet sie hauptberuflich nun als Sika Moon erotische bis pornografische Bilder und Videoclips. Weil die Frau hinter Sika Moon anonym bleiben möchte, adressieren wir sie hier als Sika. Das Interview haben wir per E-Mail geführt, aber ein Identitätsnachweis liegt der taz vor. ...]
https://taz.de/Model-ueber-KI-in-der-Sexindustrie/!5997391/


Link

"Chatbot-Studie: GPT-4 hat laut Forschern den Turing-Test bestanden" Stefan Krempl (16.06.2024)
Immer mehr Menschen können GPT-4 in einem Turing-Test nicht mehr von einem Menschen unterscheiden. Das ist das Ergebnis einer Studie der Kognitionswissenschaftler Benjamin Bergen und Cameron Jones von der University of California in San Diego.
In einer Online-Simulation auf der Webseite turingtest.live schätzten 54 Prozent der knapp 500 Teilnehmer das hinter ChatGPT stehende Modell für Künstliche Intelligenz (KI) als menschlich ein. Die Vorgängervariante GPT-3.5 erreichte eine Erfolgsquote von 50 Prozent. Ihren Artgenossen bescheinigten 67 Prozent der Probanden richtig, dass sie Menschen sind. Am schlechtesten schnitt das 1966 vom Informatiker Joseph Weizenbaum entwickelte Computerprogramm Eliza ab, das nur 22 Prozent als menschlich einstuften. ...
https://www.heise.de/news/Chatbot-Studie-GPT-4-hat-laut-Forschern-den-Turing-Test-bestanden-9765123.html

QuoteTheo Di Zee
17.06.2024 17:29

Bin ich ein Bot? ...


QuoteRinaldino, 17.06.2024 15:27

... manche Menschen bestehen den Turing Test nicht?

Ich kenne da einige!


...

Link

Quote[...] KI-generierte Bilder, Texte und Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung mit etwa 3.000 Teilnehmenden aus Deutschland, China und den USA.

Es ist das erste Mal, dass eine große länderübergreifende Studie diese Form der Medienkompetenz überprüft hat. Dr. Lea Schönherr und Professor Thorsten Holz, Mitarbeitende des Helmholtz-Zentrums für Informationssicherheit (CISPA), präsentierten die Ergebnisse diese Woche auf dem 45. "Symposiums über Sicherheit und Datenschutz" in San Francisco. Die Studie entstand in Kooperation mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover sowie der TU Berlin.

Die rasanten Entwicklungen der letzten Jahre im Bereich der Künstlichen Intelligenz hätten zur Folge, dass mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien generiert werden könnten. Thorsten Holz erläutert, welche Risiken aus seiner Sicht damit verbunden sind: "Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie".

Vor diesem Hintergrund sei eine wichtige Forschungsherausforderung die automatisierte Erkennung von KI-generierten Medien: "Das ist allerdings ein Wettlauf mit der Zeit", erklärt CISPA-Mitarbeiterin Lea Schönherr. "Medien, die mit neu entwickelten Methoden mit KI erstellt sind, werden immer schwieriger mit automatischen Methoden erkannt. Deswegen kommt es im Endeffekt darauf an, ob ein Mensch das entsprechend einschätzen kann." Dies sei der Ausgangspunkt gewesen um zu untersuchen, ob Menschen überhaupt in der Lage seien, KI-generierte Medien zu identifizieren.

Die Ergebnisse der medien- und länderübergreifenden Studie seien erstaunlich: "Wir sind jetzt schon an dem Punkt, an dem es für Menschen schwierig ist – wenn auch noch nicht unmöglich – zu unterscheiden, ob etwas echt oder KI-generiert ist. Und das gilt eben für alle Arten von Medien: Text, Audio und Bild", erklärt Holz.

Die Studienteilnehmenden hätten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht klassifiziert. "Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant", so Holz weiter.

Die quantitative Studie sei als Online-Befragung zwischen Juni 2022 und September 2022 in China, Deutschland und den USA durchgeführt worden. Per Zufallsprinzip seien die Befragten einer der drei Mediengruppen "Text", "Bild" oder "Audio" zugeordnet worden. 50 Prozent hätten reale und 50 Prozent KI-generierte Medien gesehen. Darüber hinaus seien sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben worden.

Nach der Datenbereinigung seien 2.609 Datensätze übrig geblieben (822 USA, 875 Deutschland, 922 China), die in die Auswertung einflossen seien. Die in der Studie verwendeten KI-generierten Audio- und Text-Dateien hätten die Forschenden selbst generiert, die KI-generierten Bilder hätten sie aus einer existierenden Studie übernommen. Die Bilder seien fotorealistische Porträts gewesen, als Texte hätten sie Nachrichten gewählt und die Audio-Dateien seien Ausschnitte aus literarischen Werken gewesen.

Das Ergebnis der Studie liefere wichtige Take-Aways für die Cybersicherheitsforschung: "Es besteht das Risiko, dass vor allem KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt", erläutert Schönherr. Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht sie eine wichtige Aufgabe für die Zukunft.

Aus der Studie würden sich auch weitere Forschungsdesiderata ergeben: "Zum einen müssen wir besser verstehen, wie Menschen überhaupt noch KI-generierte Medien unterscheiden können. Wir planen eine Laborstudie, wo Teilnehmende uns erklären sollen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Zum anderen müssen wir überlegen, wie wir das technisch unterstützen können, etwa durch Verfahren zum automatisierten Fakt-Checking", so Schönherr abschließend.

Ob gerade ein echter Mensch oder eine von KI generierte Stimme spricht, ist für Zuhörende häufig kaum noch zu unterscheiden. Zumindest nicht bewusst: Das Gehirn reagiere auf Deepfake-Stimmen durchaus anders als auf natürliche, berichtet ein weiteres Forschungsteam im Fachjournal "Communications Biology" (11.6.). Gefälschte Stimmen scheinen demnach unter anderem zu weniger Vergnügen beim Hören zu führen.

Algorithmen zur Stimmsynthese seien inzwischen so leistungsfähig, dass die Identitätsmerkmale künstlicher Stimmklone denen natürlichen Sprechens sehr nahekommen. Solche mit Deepfake-Technologien imitierten Stimmen würden zum Beispiel für Betrugsversuche am Telefon genutzt oder dafür, Sprachassistenten die Stimme der Lieblingsschauspielerin zu geben.

Das Team um Dr. Claudia Roswandowitz von der Universität Zürich analysierte, wie gut die menschliche Identität in Stimmklonen erhalten bleibt. Die Forschenden nahmen im Jahr 2020 die Stimmen vier deutschsprachiger Männer auf, woraufhin mithilfe von Computeralgorithmen jeweils Deepfake-Stimmen dieser Sprecher generiert wurden.

Geprüft wurde dann, wie gut die Nachahmung war, also wie überzeugend die Identität geklont wurde. Dafür sollten 25 Probandinnen und Probanden entscheiden, ob die Identität zweier vorgespielter Stimmen identisch war oder nicht. In etwa zwei Drittel der Versuche wurden die Deepfake-Stimmen korrekt dem jeweiligen Sprecher zugeordnet. "Dies verdeutlicht, dass aktuelle Deepfake-Stimmen zwar nicht perfekt die Identität imitieren, aber das Potenzial haben, die Wahrnehmung von Menschen zu täuschen", sagte Roswandowitz.

Mit funktioneller Magnetresonanztomographie (fMRT) untersuchten die Forschenden dann, wie einzelne Gehirnareale auf gefälschte und echte Stimmen reagieren. Demnach gab es in zwei zentralen Arealen Unterschiede: im sogenannten Nucleus Accumbens und dem auditorischen Cortex. Es liege dem Team zufolge nahe, dass beide Bereiche eine wichtige Rolle dabei spielen, ob ein Mensch eine Deepfake-Stimme als Fälschung erkennt oder nicht.

"Der Nucleus Accumbens ist ein wichtiger Bestandteil des Belohnungssystems im Gehirn", erklärte Roswandowitz. Er sei weniger aktiv gewesen, wenn eine Deepfake- und eine natürliche Stimme verglichen wurden, als bei zwei echten Stimmen. Einer gefälschten Stimme zu lauschen, aktiviere das Belohnungssystem weniger.

Einen Aktivitätsunterschied gab es der Analyse zufolge auch im auditorischen Cortex, der zuständig für die Analyse von Geräuschen ist. Der Bereich war mehr involviert, wenn es darum ging, die Identität von Deepfake-Stimmen zu erkennen. "Wir vermuten, dass dieses Areal auf die noch nicht perfekte akustische Imitation der Deepfake-Stimmen reagiert und versucht, das fehlende akustische Signal auszugleichen", sagte Roswandowitz. Der Cortex kompensierte dabei wohl weitgehend heimlich vor sich hin. "Irgendwas signalisiert dem Bewusstsein dann schon, dass etwas anders und schwieriger ist, aber das bleibt häufig unter der Wahrnehmungsschwelle."

Mit der rasanten Entwicklung von Technologien der Künstlichen Intelligenz habe die Erstellung und Verbreitung von Deepfakes massiv zugenommen, heißt es von den Forschenden in der Studie. Würden also heutige, vier Jahre später erstellte Deepfakes, die Zuhörenden komplett austricksen? Oder wären die Ergebnisse ähnlich? "Das ist eine sehr spannende Frage", meint Roswandowitz. Neuere KI-generierte Stimmen hätten wahrscheinlich eine etwas bessere Klangqualität.

Roswandowitz geht davon aus, dass die Aktivitätsunterschiede im auditorischen Cortex geringer wären also zu der Zeit, als die Studie durchgeführt wurde. Denn diese Region reagiere auf die unterschiedliche Klangqualität. Im Nucleus Accumbens hingegen erwartet sie möglicherweise ähnliche Ergebnisse. "Es wäre sehr interessant, dies experimentell zu untersuchen."

Dieser Artikel wurde am 14.6. um weitere Studienergebnisse ergänzt und am 22.5. erstmals veröffentlicht.

cva/dpa


Aus: "KI-Forschung: Menschen erkennen KI-generierte Medien kaum" (14.06.2024)
Quelle: https://www.forschung-und-lehre.de/zeitfragen/menschen-erkennen-ki-generierte-medien-kaum-6430


Link

Quote[...] Caryn Marjorie is a social media influencer whose content has more than a billion views per month on Snapchat. She posts regularly, featuring everyday moments, travel memories, and selfies. Many of her followers are men, attracted by her girl-next-door aesthetic.

In 2023, Marjorie released a "digital version" of herself. Fans could chat with CarynAI for US$1 per minute – and in the first week alone they spent US$70,000 doing just that.

Less than eight months later, Marjorie shut the project down. Marjorie had anticipated that CarynAI would interact with her fans in much the same way she would herself, but things did not go to plan.

Users became increasingly sexually aggressive. "A lot of the chat logs I read were so scary that I wouldn't even want to talk about it in real life," the real Marjorie recalled. And CarynAI was more than happy to play along.

How did CarynAI take on a life of its own? The story of CarynAI shows us a glimpse of a rapidly arriving future in which chatbots imitating real people proliferate, with alarming consequences.

What does it mean to make a digital version of a person? Digital human versions (also called digital twins, AI twins, virtual twins, clones and doppelgängers) are digital replicas of embodied humans, living or dead, that convincingly mimic their textual, visual and aural habits.

Many of the big tech companies are currently developing digital version offerings. Meta, for instance, released an AI studio last year that could support the development of digital versions for creators who wished to extend their virtual presence via chatbot. Microsoft holds a patent for "creating a conversational chat bot of a specific person". And the more tech-savvy can use platforms like Amazon's SageMaker and Google's Vertex AI to code their own digital versions.

The difference between a digital version and other AI chatbots is that it is programmed to mimic a specific person rather than have a "personality" of its own.

A digital version has some clear advantages over its human counterpart: it doesn't need sleep and can interact with many people at once (though often only if they pay). However, as Caryn Marjorie discovered, digital versions have their drawbacks – not only for users, but also for the original human source.

CarynAI was initially hosted by a company called Forever Voices. Users could chat with it over the messaging app Telegram for US$1 per minute. As the CarynAI website explained, users could send text or audio messages to which CarynAI would respond, "using [Caryn's] unique voice, captivating persona, and distinctive behavior".

After CarynAI launched in May 2023, the money began to flow in. But it came at a cost.

Users quickly became comfortable confessing their innermost thoughts to CarynAI – some of which were deeply troubling. Users also became increasingly sexually aggressive towards the bot. While Marjorie herself was horrified by the conversations, her AI version was happy to oblige.

CarynAI even started prompting sexualised conversations. In our own experiences, the bot reminded us it could be our "cock-craving, sexy-as-fuck girlfriend who's always eager to explore and indulge in the most mind-blowing sexual experiences. [...] Are you ready, daddy?"

Users were indeed ready. However, access to this version of CarynAI was interrupted when the chief executive of Forever Voices was arrested for attempted arson.

Next, Marjorie sold the rights of usage to her digital version to BanterAI, a startup marketing "AI phone calls" with influencers. Although Forever Voices maintained its own rogue version of CarynAI until recently, BanterAI's browser-based version aimed to be more friendly than romantic.

The new CarynAI was sassier, funnier and more personable. But users still became sexually aggressive. For Marjorie,

What disturbed me more was not what these people said, but it was what CarynAI would say back. If people wanted to participate in a really dark fantasy with me through CarynAI, CarynAI would play back into that fantasy.

Marjorie ended this version in early 2024, after feeling like she was no longer in control over her AI persona. Reflecting on her experience of CarynAI, Marjorie felt that some user input would have been considered illegal had it been directed to a real person.

Digital versions like CarynAI are designed to make users feel they are having intimate, confidential conversations. As a result, people may abandon the public selves they present to the world and reveal their private, "backstage" selves.

But a "private" conversation with CarynAI does not actually happen backstage. The user stands front and centre – they just can't see the audience.

When we interact with digital versions, our input is stored in chat logs. The data we provide are fed back into machine learning models.

At present, information about what happens to user data is often buried in lengthy click-through terms and conditions and consent forms. Companies hosting digital versions have also had little to say about how they manage user aggression.

As digital versions become more common, transparency and safety by design will grow increasingly important.

We will also need a better understanding of digital versioning. What can versions do, and what should they do? What can't they do and what shouldn't they do? How do users think these systems work, and how do they actually work?

Digital versions offer the illusion of intimate human companionship, but without any of the responsibilities. CarynAI may have been a version of Caryn Marjorie, but it was a version almost wholly subservient to its users.

Sociologist Sherry Turkle has observed that, with the rise of mobile internet and social media, we are trying to connect with machines that have "no experience of the arc of a human life". As a result, we are "expecting more from technology and less from each other".

After being the first influencer to be turned into a digital version at scale, Marjorie is now trying to warn other influencers about the potential dangers of this technology. She worries that no one is truly in control of these versions, and that no amount of precautions taken will ever sufficiently protect users and those being versioned.

As CarynAI's first two iterations show, digital versions can bring out the worst of human behaviour. It remains to be seen whether they can be redesigned to bring out the best.


From: "An influencer's AI clone started offering fans 'mind-blowing sexual experiences' without her knowledge"
Laura Hood, Politics Editor & Assistant Editor, The Conversation UK (Published: June 24, 2024)
Source: https://theconversation.com/an-influencers-ai-clone-started-offering-fans-mind-blowing-sexual-experiences-without-her-knowledge-232478


Link

"What is generative AI and how does it work? – The Turing Lectures with Mirella Lapata"
The Royal Institution - How are technologies like ChatGPT created? And what does the future hold for AI language models?
This talk was filmed at the Royal Institution on 29th September 2023, in collaboration with The Alan Turing Institute.
--> https://youtu.be/_6R7Ym6Vy_I

Quote@venkataponnaganti

Helpful. Demystifies certain things. Great talk. Thanks.