• Welcome to LINK ACCUMULATOR. Please log in.

[Künstliche Intelligenz / KI (Notizen) ... ]

Started by Link, August 20, 2008, 10:15:24 PM

Link

Künstliche Intelligenz
https://www.scinexx.de/schlagzeilen/revolution-in-der-kuenstlichen-intelligenz/

-

"Prof. Thomas Metzinger bei Sternstunde Philosophie - Wenn Maschinen zu denken beginnen" (Sendung vom 15.11.2015)
https://www.youtube.com/watch?v=zHAXUonYH3o

-

"DREAM-LOGIC, THE INTERNET AND ARTIFICIAL THOUGHT" David Gelernter (2010)
Will computers be able to think again? And what Sigmund Freud would have to do with cyberspace? Internet pioneer David Gelernter predicts the next stage of development of artificial intelligence.
https://www.edge.org/conversation/david_gelernter-dream-logic-the-internet-and-artificial-thought


Künstliche Intelligenz (kurz: KI; englisch: Artificial Intelligence, kurz: AI) ist ein Teilgebiet der Informatik mit interdisziplinärem Charakter.
http://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

Kategorie:Künstliche Intelligenz
https://de.wikipedia.org/wiki/Kategorie:K%C3%BCnstliche_Intelligenz


"Der Mensch und die ,,Künstliche Intelligenz""
Eine Profilierung und kritische Bewetrung der Unterschiedlichen Grundauffassungen vom Standpunkt des gemaessigten Realismus
(Dissertation; R. Erassme, 2002, Hannover)
http://psydok.sulb.uni-saarland.de/volltexte/2004/102/pdf/02_194.pdf
http://psydok.psycharchives.de/jspui/bitstream/20.500.11780/73/1/02_194.pdf


Making Robots Conscious of their Mental States (by John McCarthy; Computer Science Department Stanford University; 1995 to 2002)
http://www-formal.stanford.edu/jmc/consciousness/consciousness.html

Marvin Lee Minsky (* 9. August 1927 in New York) ist ein US-amerikanischer Forscher auf dem Gebiet der künstlichen Intelligenz...
http://de.wikipedia.org/wiki/Marvin_Minsky

The Society of Mind (wörtlich: Die Gesellschaft des Geistes, deutscher Titel: Mentopolis) ist der Titel eines Buches und einer Theorie von Marvin Minsky.
Minsky entwickelt in einem Schritt-für-Schritt-Prozess ein umfassendes Modell menschlicher Intelligenz, und versucht dieses auf das Feld der Künstlichen Intelligenz zu übertragen. ...
https://de.wikipedia.org/wiki/The_Society_of_Mind

Marvin Minsky - What are Possible Worlds?
Possible worlds' are all the ways in which a world can be. A 'world' is a complete state of cosmic affairs: all the infinite variations of innumerable parts and their myriad relationships. ...
https://www.youtube.com/watch?v=PUbANEalnzc

"Du verstehst nichts, bis Du es auf mehr als einem Weg verstehst – zum Tode von Marvin Minsky" Detlef Borchers, Jürgen Kuri (26.01.2016)
Marvin Minsky, der Pionier der künstlichen Intelligenz, der mit "Society of Mind" und "The Emotion Machine" auch die Diskussion in der Öffentlichkeit über KI stark prägte, ist im Alter von 88 Jahren gestorben. ...
http://www.heise.de/newsticker/meldung/Du-verstehst-nichts-bis-Du-es-auf-mehr-als-einem-Weg-verstehst-zum-Tode-von-Marvin-Minsky-3084064.html

Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um die Frage ,,Können Maschinen denken?" zu entscheiden.
http://de.wikipedia.org/wiki/Turing-Test

Computermodelle von Emotionen und ihre Bedeutung fuer die emotionspsychologische Forschung
http://www.ruebenstrunk.de/emeocomp/INHALT.HTM


Kreative Maschinen, Symbolische Universen...
http://www.uni-ulm.de/uni/intgruppen/memosys/lpl11.htm


"Das Gehirn ist kein Computer"
Thema = Kreativitaet und Lernen: Denkende Maschinen / Gehirn versus Computer / Genetik und Gehirn / Modelle des Gehirns / Kreativitaet & Emotionen
http://www.fh-wuerzburg.de/fh/fb/bwl/Offiziel/BWT/pages/pp/2/brodbeck.htm


Conscious Machines  - By Marvin Minsky (1991)
http://kuoi.asui.uidaho.edu/~kamikaze/doc/minsky.html


Link

#1
Der Mensch und die Künstliche Intelligenz (Philosophisches Hörbuch)
Dr. phil. Dipl.-Ing. Rolf Eraßme: Der Mensch und die 'Künstliche Intelligenz' – Eine Profilierung und kritische Bewertung der unterschiedlichen Grundauffassungen vom Standpunkt des gemäßigten Realismus.

Die Arbeit wird von der Software "GhostReader" vorgelesen.
=> http://www.archive.org/details/mp3.Der_Mensch_und_die_KI

Hier als pdf (Erstellungsjahr: 2002)
http://sylvester.bth.rwth-aachen.de/dissertationen/2002/194/02_194.pdf

---

"Roboter entwickeln Neurosen"
Hans-Arthur Marsiske 05.10.2010
Auch eine künstliche Persönlichkeit braucht ein Unbewusstes
http://www.heise.de/tp/r4/artikel/33/33419/1.html

"Roboter-Ethik: Roboter können Menschen in Verlegenheit bringen" (23.10.2013)
Es ist absehbar, dass Roboter mit moralischen Dilemmas konfrontiert werden, für die es keine eindeutigen Lösungen gibt. Das sagte Matthias Scheutz von der Tufts University im Rahmen einer Vortragsreihe der University of Sussex vor der Konferenz Social and Ethical Aspects of Cognitive Systems, die heute Nachmittag beginnt. Er berichtete von Experimenten, in denen untersucht wurde, wie Menschen moralisches Verhalten von Robotern wahrnehmen. ...
http://www.heise.de/newsticker/meldung/Roboter-Ethik-Roboter-koennen-Menschen-in-Verlegenheit-bringen-1984151.html


"Das soziale Gehirn taucht einfach auf"
16.07.2014 – Courtney Humphries   
Die Neurowissenschaftlerin Rebecca Saxe über soziale Kognition, die Irrtümer der Hirnforschung in der Vergangenheit und die Chancen für die Künstliche-Intelligenz-Forschung. ...
http://www.heise.de/tr/artikel/Das-soziale-Gehirn-taucht-einfach-auf-2243061.html


Blade Runner, deutscher Verleihtitel zeitweise auch Der Blade Runner, ist ein am 25. Juni 1982 erschienener US-amerikanischer Science-Fiction-Film des Regisseurs Ridley Scott. Literarische Vorlage ist der Roman Träumen Androiden von elektrischen Schafen? von Philip K. Dick. Dieser wurde später ebenfalls unter dem Titel ,,Blade Runner" vertrieben. Der Film, der Elemente des Film noir übernimmt und eine Dystopie entwirft, war bei Kritik und Publikum zunächst kein Erfolg, wurde mit der Zeit aber zum Kultfilm. ... Zentrales Thema der Werke Philip K. Dicks und auch dieses Films ist die Frage, was den Menschen zum Menschen macht, und die paranoide Furcht davor, dass es Wesen gibt, die wie Menschen aussehen, aber keine sind. Laut Buch und Film sind die Replikanten daran zu erkennen, dass sie nicht das menschliche Vermögen der Empathie besitzen. Sie werden mit einem Gerät getestet, das emotionale Reaktionen überprüft. Die Brauchbarkeit dieses Unterscheidungskriteriums wird im Laufe des Films aber in Frage gestellt. ...
http://de.wikipedia.org/wiki/Blade_Runner


""Ex Machina" Ach Mensch, Maschine" Daniel-C. Schmidt (20. April 2015)
Wie aufrichtig können die Gefühle eines Roboters sein? Das Scifi-Kammerspiel "Ex Machina" beleuchtet die Beziehung zwischen Schöpfer und Kreatur – mit erotischer Note. ... Eigentlich funktioniert der Turing-Test nur, wenn der Proband nicht weiß, ob er es mit Mensch oder Maschine zu tun hat. Das, erklärt Nathan seinem Angestellten, sei aber hier die eigentliche Herausforderung: "Dir zu zeigen, dass Ava ein Roboter ist, um dann zu sehen, ob du trotzdem das Gefühl hast, sie hätte ein Bewusstsein."...
http://www.zeit.de/kultur/film/2015-04/ex-machina-alex-garland-kuenstliche-intelligenz


"Künstliche Intelligenz: Maschinen sind die Denker von morgen" Christoph Drösser (24. April 2015)
Künstliche Intelligenz muss vielmehr menschliche Schwächen ausgleichen. Ein Überblick über den Stand der Forschung ...
http://www.zeit.de/kultur/film/2015-04/kuenstliche-intelligenz-ex-machina-big-data

---

"Human Rights Watch fordert Komplettverbot von Killerrobotern" (12.05.2015)
Automatisierte Systeme gewinnen beim Militär an Bedeutung. Als nächster Schritt könnten vollständig autonome Kampfmaschinen kommen – was nicht nur ethische Probleme aufwirft, sondern auch juristische. ... Ohne menschliche Eingriffe entscheidende Waffensysteme drohen das Prinzip der Abschreckung und Bestrafung bei Kriegsverbrechen auszuhöhlen, fürchtet die Menschenrechtsorganisation Human Rights Watch. In einer aktuellen Studie fordert sie deshalb ein weltweites Verbot von Entwicklung, Produktion und Einsatz derartiger Systeme, berichtet Technology Review. ...
http://www.heise.de/newsticker/meldung/Human-Rights-Watch-fordert-Komplettverbot-von-Killerrobotern-2633796.html

QuoteEl Maximo Lider, 12.05.2015 08:01

Und genau darum werden sie kommen

Das ist doch der Traum jedes Hardliners: Automatisiertes Töten ohne Möglichkeit jemanden zur Verantwortung zu ziehen.
Die Erfahrung jeder Maschine kann einfach kopiert werden, keine teure Ausbildung mehr nötig. Nachschub in beliebiger Größenordnung ist nur eine Frage des Geldes.

Die neue Maßgabe wird CPK sein (Cost per kill). 10M USD Budget? Hm, das sind 5187 garantierte Ziele ohne, daß weiche Faktoren, wie Menschen, noch eine Rolle spielen.

Was für eine Scheiße! Ich geh dann mal kotzen...

http://www.heise.de/forum/Technology-Review/News-Kommentare/Human-Rights-Watch-fordert-Komplettverbot-von-Killerrobotern/Und-genau-darum-werden-sie-kommen/posting-5505836/show/

QuoteSJO, 12.05.2015 12:12

Unterschied zur Landmine = ?

Wie soll dem Normalsterblichen vermittelt werden, wo die Grenze beispielsweise von einer Landmine und einem Killerroboter zu ziehen ist? Die Landmine ist völlig autonom agierend, und reagiert passiv auf einen "Impuls" - der Roboter, der eine Bombe zündet, weil sich ihm jemand nähert, ist aus meiner Perspektive nicht anders... Wie autonom ist autonom dann?

http://www.heise.de/forum/Technology-Review/News-Kommentare/Human-Rights-Watch-fordert-Komplettverbot-von-Killerrobotern/Unterschied-zur-Landmine/posting-5507044/show/



Link

#2
"Memristoren für den Gehirn-Prozessor" (08.07.2015)
In den letzten Monaten melden zahlreiche Unternehmen Fortschritte auf Gebieten wie Brain Computing – auch der Gehirn-Simulation –, neuronale Netze, AI/KI und Deep Learning beziehungsweise Machine Learning. Der Handelsriese Amazon setzt solche Verfahren für sein Empfehlungssystem ein, Google zur Bilderkennung. Knowm hat die Scalable and Extensible Neural Sense Making Engine (SENSE) entwickelt, die etwa auffällige Veränderungen in der Ethernet-Kommunikation detektieren soll, die auf Angriffe hindeuten. ...
http://www.heise.de/newsticker/meldung/Memristoren-fuer-den-Gehirn-Prozessor-2744249.html


"A Million Core Silicon Brain"
For those of you who like to get your geek on (and rumour has it, they can be found reading this blog) the Computerphile channel just had a video interview with Steve Furber of the Human Brain Project who talks about the custom hardware that's going to run their neural net simulations. ...
http://mindhacks.com/2015/08/26/a-million-core-silicon-brain/

"Viele halten die Demokratie für eine veraltete Technologie" Marcus Klöckner (12.10.2015)
Kai Schlieter über Künstliche Intelligenz, Big Data und eine neue Herrschaftsformel ...
http://www.heise.de/tp/artikel/46/46140/1.html


"Risikobewertung: Fukushima der Künstlichen Intelligenz" Carsten Könneker (19.11.2015)
Zeitgleich zum Digital-Manifest von "Spektrum.de" legten vergangene Woche mehrere Philosophen ein Diskussionspapier über die Risiken und Chancen von Künstlicher Intelligenz vor. Darin warnen sie vor historisch beispiellosen ethischen Herausforderungen durch die weitere KI-Entwicklung. Ein Gespräch mit Thomas Metzinger, einem der Autoren. ...
http://www.spektrum.de/news/interview-die-unterschaetzten-risiken-der-kuenstlichen-intelligenz/1377620


"32C3: Wenn Algorithmen entscheiden und töten" Torsten Kleinz (31.12.2015) 
"Wie wir alle wissen, werden durch die rapide sinkenden Preise bei Datenspeicherung und -verarbeitung und neue Sensortechnologien, nun fast alle Aspekt unseres Leben digital erfasst", erklärte Jennifer Helsby von der Universität Chicago auf dem 32. Chaos Communication Congress (32C3) in Hamburg. Viele der Daten werden in staatlichen oder privaten Datencentern aufbewahrt und mit Algorithmen ausgewertet – von Netflix-Empfehlungen bis hin zum "predictive policing", mit dem künftige Straftaten vorhergesagt und somit verhindert werden sollen. ...
http://www.heise.de/newsticker/meldung/32C3-Wenn-Algorithmen-entscheiden-und-toeten-3057086.html

Prediction and Control - Watching Algorithms [32c3]
https://www.youtube.com/watch?v=BaCzwGbo-Mc

---


"Marvin Minsky : Er wünschte sich einfach nur Unsterblichkeit" Christoph Drösser (26. Januar 2016)
Der Pionier der künstlichen Intelligenz ist tot: Marvin Minsky suchte die Agenten des Hirns, um unseren Geist zu halten. Er war ein Multigenie und erstaunlich demütig. ... Minsky selbst war davon überzeugt, dass man den Geist eines Menschen trennen kann von seiner biologischen Hülle, er war ein Verfechter der Kryonik. Das ist eine Technik, mit der das Gehirn von Verstorbenen tiefgefroren wird in der Hoffnung, dass man es eines Tages mit fortgeschrittenen technischen Methoden wieder zum Leben erwecken kann. Nun ist er selber an einer Gehirnblutung gestorben, im Alter von 88 Jahren. Man möchte inständig hoffen, dass der Glaube dieses radikal atheistischen Menschen sich erfüllt und sein Geist irgendwann wieder aufleuchtet. Minsky war ohne Zweifel einer der großen Denker des 20. Jahrhunderts. ... In den letzten Jahren stand Minsky der aktuellen Entwicklung der KI zunehmend kritisch gegenüber.  ...  Viele Menschen halten die Ideen, die Minsky in seinem Leben verfolgte, für den Ausdruck eines kalten, seelenlosen Verständnisses des menschlichen Wesens. Nichts ist weiter entfernt von der Wahrheit. Zwar glaubte er nicht an die Vorstellung einer Seele – aber er war trotz seiner großen Gedanken ein bescheidener, warmherziger Mensch. Als ich ihn einmal auf einer Konferenz zur Frage der Unsterblichkeit des Geistes interviewte, spekulierte er darüber, in welcher Form wir eines Tages den Tod überleben könnten.
Wen die Vorstellung gruselte, in einem Kasten aus Drähten und Transistoren weiterzuleben, dem legte Marvin Minsky die Idee nahe, dass der Rechner der Zukunft auch ein Glas Wasser sein könnte, in dem winzige Moleküle miteinander kommunizieren. Wie viele Geister in so ein Glas Wasser passen würden, fragte ich ihn. "Schwer zu sagen", antwortete Minsky. "Aber ich glaube, Menschen können sehr klein sein."...

http://www.zeit.de/digital/internet/2016-01/marvin-minsky-kuenstliche-intelligenz-nachruf

Marvin Minsky
MIT Media Lab and MIT AI Lab
Professor of Media Arts and Sciences, MIT
Professor of E.E.C.S., M.I.T
http://web.media.mit.edu/~minsky/

---

'Erhard Tietel: "Künstliche Intelligenz" und Psychoanalyse: eine "Mesalliance"?' (11 Seiten)
Im Winterheft 1988 des "DAEDALUS", dem Journal of the American Academy of Art and Sciences,  findet sich unter verschiedenen Aufsätzen zur "Artificial Intelligence" ein Beitrag von Sherry Turkle mit dem Titel: "Artificial Intelligence and Psychoanalysis: a new alliance" - ohne Fragezeichen! ... beim Übergang von der Objektbeziehung zur Objektverwendung, die erst die Anerkennung von Äußeren Objekten als Äußere ermöglicht, stellt sich folgendes Paradox, das auch dem Kind widersprüchliches zumutet: "Das Kleinkind erschafft das Objekt, aber das Objekt war bereits vorher da, um geschaffen und besetzt zu werden" (Winnicott 1973, 104). Winnicott betont ausdrücklich, dass ein wesentlicher Beitrag seiner Theorie in der Aufforderung besteht, "dieses Paradox anzuerkennen und hinzunehmen und es nicht lösen zu wollen. Nur eine Zuflucht zu
abgespaltenen intellektuellen Funktionen könnte es lösen; der Preis wäre jedoch, dass das Paradox dabei seinen Wert einbüßt" (ebenda, 8). Der Gedanke Winnicotts besteht darin, "dass eine Widersprüchlichkeit, die akzeptiert
wird, positiven Wert haben kann" (ebenda, 25).  ...

http://psydok.sulb.uni-saarland.de/volltexte/2006/865/pdf/Kuenstliche_Intelligenz_und_Psa_PG.pdf

"MOST PEOPLE ARE CONVINCED computers cannot think. That is, really think. Everyone knows that computers al- ready do many things that no person could do without "thinking." But when computers do such things, most people suspect, that there is only an illusion of thoughtful behavior, and that the machine ... " ---  "Why People Think Computers Can't" AI Magazine, 1982), Marvin Minsky MIT Cambridge, Massachusetts
http://www.agent.ai/doc/upload/200302/mins82_1.pdf

The Society of Mind (wörtlich: Die Gesellschaft des Geistes, deutscher Titel: Mentopolis) ist der Titel eines Buches und einer Theorie von Marvin Minsky.
Minsky entwickelt in einem Schritt-für-Schritt-Prozess ein umfassendes Modell menschlicher Intelligenz, und versucht dieses auf das Feld der Künstlichen Intelligenz zu übertragen. Seine Kernthese ist, dass unintelligente (mindless), einfache Bausteine, Agenten, durch Interaktionen Komplexität aufbauen können. Er beschreibt, wie verschiedene Interaktionen, die einer spezifischen Problemlösung zugeordnet sind, als ,,Agentengemeinschaften" aufgefasst werden können, daher der Titel ,,Society of Mind". ...
http://www.acad.bg/ebook/ml/Society%20of%20Mind.pdf

https://de.wikipedia.org/wiki/The_Society_of_Mind

Link

#3
"AlphaGo : Google-Software gewinnt gegen Go-Weltmeister"
Mensch unterliegt Maschine: Der Computer AlphaGo hat die erste Runde gegen den Go-Weltmeister gewonnen. Lee Sedol gab die Partie nach dreieinhalb Stunden auf. ... AlphaGo ist eine Entwicklung von Google Deepmind, der Computer hat bereits den dreifachen Go-Europameister Fan Hui bezwungen. Das Duell zwischen Mensch und Maschine geht insgesamt über fünf Runden und findet in der südkoreanischen Hauptstadt Seoul statt. ... Go ist ein traditionelles asiatisches Brettspiel. Es gilt als komplizierter als Schach und sollte daher eigentlich für eine künstliche Intelligenz schwer zu verstehen sein. Experten für künstliche Intelligenz hatten bis vor Kurzem noch prognostiziert, es würde ein weiteres Jahrzehnt dauern, bis Computer professionelle Go-Spieler schlagen könnten.... Die Partie zwischen AlphaGo und Lee folgt einer Reihe von Brettspielduellen zwischen einer künstlichen Intelligenz und einem Menschen. Im Schach werden schon lange Computer eingesetzt. Für Aufsehen sorgte 1997 etwa der Computer Deep Blue von IBM, der gegen den Weltmeister Garri Kasparow gewann. ...
http://www.zeit.de/sport/2016-03/alphago-sieg-go-brettspiel-weltmeister-lee-sedol-kuenstliche-intelligenz

---

"Google-Mitarbeiter veröffentlichen Neuronales-Netz-Spielplatz" (16.04.2016)
Google Photos, Spracherkennung, Übersetzungs-Apps – in vielen Apps und Web-Diensten verrichten neuronale Netze heute wichtige Arbeiten. Das sogenannte Deep Learning nimmt im Alltag der Computer- und Smartphone-Nutzung von jedermann eine immer bedeutendere Rolle ein.
Dennoch sind Begriffe wie neuronale Netze und Deep Learning für viele Menschen böhmische Dörfer. Das hat auch damit zu tun, dass diese Gebilde meist im Hintergrund ihre Arbeit verrichten. Man bekommt nur ihren Output zu Gesicht, nicht ihr Innenleben. Und selbst wenn man in einzelne Neuronen hineinschauen könnte, würde sich ihre Bedeutung – letztlich eine mathematische Funktion – für viele Anwender nicht erschließen. Und somit schon gar nicht die Funktion des Gesamtnetzes. ...

http://www.heise.de/newsticker/meldung/Google-Mitarbeiter-veroeffentlichen-Neuronales-Netz-Spielplatz-3176144.html


"Cyc: KI mit Weltwissen erlangt Marktreife" (29.04.2016)
Nach 31 Jahren Entwicklungsarbeit ist das Projekt Cyc marktreif. Dahinter verbirgt sich eine Künstliche Intelligenz, die auf einer Ontologie basiert, einer Datenbank mit tausenden von semantischen Informationen. Darunter auch solche, die in keiner Enzyklopädie auftauchen, weil sie für Menschen selbstverständlich sind. Der Erfinder Doug Lenat hatte sich mit Cyc nichts weniger vorgenommen als einem Computer zu erklären, wie die Welt funktioniert. Das berichtet Technology Review im Online-Artikel "Nach 30 Jahren steht Cyc vor dem Abschluss". ...
http://www.heise.de/newsticker/meldung/Cyc-KI-mit-Weltwissen-erlangt-Marktreife-3192668.html

---

"Kommentar: Allo, Google? Geht's noch?" Ronald EIkenberg (24.05.2016)
Das Alleinstellungsmerkmal von Allo ist künstliche Intelligenz. Googles KI liest kontinuierlich mit, um etwa in einem Chat mehrere kontextabhängige Reaktionen anzubieten, die der Nutzer nur noch anklicken muss. Die Antworten sind laut Google "in your style", werden also nach Mundart des Nutzers verfasst. Und unterhält man sich über die Essenspläne, empfiehlt Google italienische Restaurants in der Nähe. Die coolen Assistenzfunktionen sprechen natürlich auch gegen eine Ende-zu-Ende-Verschlüsselung: Schließlich muss Google mitlesen, um die KI mit Daten füttern zu können.
KI und Privatsphäre, das passt nicht zusammen. Google musste abwägen – und hat sich gegen eine konsequente Verschlüsselung entschieden. Es wäre jedoch ein Fehler zu glauben, dass sich Google schweren Herzens davon getrennt hat: Die Haupteinnahmequelle des Megakonzerns ist Werbung, die er aufgrund seiner intimen Kenntnisse seiner Nutzer so gut platzieren kann wie kein anderer.
Kurz nachdem der Nutzer etwa in einer Mail seine Urlaubspläne erwähnt hat, sieht er überall dazu passende Anzeigen. Und das ginge natürlich nicht mehr, wenn die private Kommunikation Ende-zu-Ende-verschlüsselt wäre. Das erklärt auch, warum die bereits vor zwei Jahren präsentierte PGP-Erweiterung für Google Mail bis heute nicht in die Gänge gekommen ist. ...

http://www.heise.de/newsticker/meldung/Kommentar-Allo-Google-Geht-s-noch-3215729.html

QuotemordsDing boa eh, 24.05.2016 08:44

Abschalten!

Es gab ja mal eine Zeit, da war es ganz selbstverständlich, dass man beim Kacken zusammen saß und sich unterhielt. Der Ausdruck "Geschäft machen" geht darauf zurück. Die Römer taten es, und vor und nach ihnen Andere auch. Ist also nichts Neues, dass Kacken eine gesellschaftliche Komponente hat und mehr oder weniger öffentlich stattfinden kann. Die römischen Latrinen mit teils mehr als 20 Kackplätzen in Reihe legen beeindruckendes Zeugnis darüber ab.

Könnte man heute auch tun. Jeder kackt schließlich mal. Jeder weiß wie es geht und jeder weiß, wie Mensch untenrum aussieht und wie es riecht.

Tut man aber nicht. Warum nicht?

Weil es Dinge gibt, die man nicht mit anderen teilen will. Weil es Räume gibt, die man nicht mit anderen teilen will. Weil man, egal aus welchem Grund, Andere nicht teilhaben lassen will.

Und man muss das auch nicht mal begründen. Es reicht, dass man es nicht will. Und das hat jeder Andere zu respektieren! Auch und vor allem Unternehmen.

Wenn ich mit jemandem Chatte, geht es Gurgle oder irgend einen anderen Dienst einen feuchten Scheißdreck an, was ich da äußere. Und schon gar nicht will ich, dass sich irgend ein Dienst in das Gespräch einmischt und mir Vorschläge macht, die ich gar nicht gemacht bekommen will.

Dass Gurgel sich da einfach einklinkt, zeigt zweierlei:

1. Dass solche Unternehmen auf Privatsphäre ganz offensichtlich grundsätzlich
scheißen.

2. Dass solche Unternehmen einfach nicht hinzulernen wollen.

Einzig richtige Konsequenz der Nutzer: Abschalten!

http://www.heise.de/forum/heise-online/News-Kommentare/Kommentar-Allo-Google-Geht-s-noch/Abschalten/posting-28657685/show/


Link

#4
"Dieser Mann denkt über den Untergang der Menschheit nach" Stefan Schmitt (26. Mai 2016)
"Den gruseligsten Philosophen der Welt" hat die Washington Post den Denker aus Oxford genannt. Denn Nick Bostrom überlegt, was wäre, wenn so eine Kunstintelligenz erst einmal auf Chips heimisch würde. Zum Beispiel das: Ein lernfähiges, sich selbst verbesserndes System könnte irgendwann beginnen, nach mehr zu streben – mehr Rechenkapazität, mehr Speicherplatz und mehr Informationen, mehr Kontrolle über andere Computer, Netzwerke und Geräte. Diese Maschinenintelligenz würde sich verselbstständigen, heimlich die Macht über fremde Rechenzentren suchen. Sie würde Roboter, Bankkonten und automatisierte Laboratorien kontrollieren, bevor sie zum Vernichtungsschlag ausholte: gegen konkurrierende automatische Systeme und gegen die Menschen, die ihrem Streben im Weg stehen.
Superintelligenz heißt das Buch, in dem Bostrom vor zwei Jahren dieses Szenario entwarf und dessen deutsche Übersetzung gerade bei Suhrkamp als Taschenbuch erschienen ist. Es trägt den Untertitel Szenarien einer kommenden Revolution und ist ein sehr ungewöhnlicher Bestseller: spekulativ, nüchtern, zuweilen dröge. Der gefühlte Großteil der 370 Seiten steht im Konjunktiv. Wie könnte eine Superintelligenz entstehen? Was für eine Gestalt wäre denkbar?...

http://www.zeit.de/2016/21/nick-bostrom-oxford-philosoph-kuenstliche-intelligenz

---

Innovationsguru: "Freue mich darauf, dass uns Roboter Arbeit abnehmen" Interview: Andreas Sator (6. September 2016)
Wenn man sich den Fortschritt bei Robotern, was Agilität und Mobilität betrifft, ansieht oder bei künstlicher Intelligenz, geht das alles viel schneller voran, als wir noch vor einigen Jahren dachten. Es werden am Anfang vielleicht zuerst die alten Jobs wegfallen und die neuen erst später kommen. Das schafft Risiken. ... Die Politik muss Aufmerksamkeit dafür schaffen, was da passiert und wie schnell das vor sich geht. Es braucht eine Vision, anstatt es nur als eine Gefahr zu sehen. ...
http://derstandard.at/2000043887208/Innovationsguru-Freue-mich-darauf-dass-uns-Roboter-Arbeit-abnehmen

QuoteLausbub

Besteuerung der menschlichen Arbeit

Die Verbreitung solcher Roboter wird viel schneller gehen als sich die meisten vorstellen können. Wenn aber politisch ein Thema nicht gelöst wird, dann wird das großes Chaos auslösen, nämlich das der Besteuerung der menschlichen Arbeit. Es wäre grenzenlos ungerecht, wenn z.B. ein Hotelier für die Lohnkosten eines Zimmermädchens einen horrenden Steuersatz zahlen muss, während er einen Roboter, der die Arbeit besser erledigt über einige Jahre von der Steuer absetzen kann.


QuoteHerr Fred

Sehr schwach auf beiden Seiten!

Die Zeit diesen Artikel zu lesen hätte ich auch mit Nasenobren verbringen können und hätte garantiert mehr zu Tage gefördert. Sowohl Interviewer als auch Interviewter sind nicht wirklich auf wichtige Inhalte eingegangen.
Wer zahlt die ausfallenden Steuern und Sozialversicherungsbeiträge die entstehen werden, wenn immer mehr Maschinen Menschen ersetzten werden?
Interfaces zwischen Mensch und Maschine wie Monitoring Chips und in weiterer Folge AR Anwendungen werden für lange Zeit nur Menschen vorbehalten bleiben, die auch die finanziellen Mittel haben sich dies zu leisten.
Es dauert keine 10 Jahre und viele Jobs werden durch Maschinen ersetzt werden. Nicht nur manuelle sonder auch Jobs die sich auf Wissen begründen, wie Arzt oder Anwälte usw


QuoteAlexander_Hrach

Bemerkenswert. ... bemerkenswert platt.


Quoteangeltupi

Willkommen zur Maschinen-Feudalismus-Zeit.


Quotean kog

Also einer der Verhaltenskontrolle in Echtzeit am Arbeitsplatz und durch Versicherungen in der Freizeit super findet, weil er sich als Optimist bezeichnet, ist wohl fast schon psychisch auffällig.


Quotepeak oil

"Es werden am Anfang vielleicht zuerst die alten Jobs wegfallen und die neuen erst später kommen"

auf 10 alte wird vielleicht 1 neuer job kommen, und diesen wird vielleicht doch wieder ein roboter erledigen...


...


Link

Quote[...] Künstliche Intelligenz wird in den nächsten 15 Jahren bedeutende Aspekte des Alltags von Beschäftigung und Bildung bis Transport und Unterhaltung auf den Kopf stellen. Die Gefahr dafür, dass die Menschheit in diesem Zeitraum durch Fortschritte in der KI-Technik versklavt oder eliminiert wird, ist jedoch gering. Zu diesem Ergebnis kommt eine groß angelegte Studie der Stanford University, die von nun an alle fünf Jahre aktualisiert werden soll. Das berichtet Technology Review online in "Künstliche Intelligenz: Freund oder Feind?".

Laut der Studie, zu der 20 Experten beigetragen haben, werden automatisierte Lastwagen und Fluggeräte sowie persönliche Roboter bis 2030 weite Verbreitung finden; jedoch sorgten technische Hürden dafür, dass solche Technik vorerst auf bestimmte Nischen beschränkt bleibt. Trotzdem hätten Fortschritte bei KI potenziell erhebliche gesellschaftliche und ethische Auswirkungen, etwa Arbeitslosigkeit auf bestimmten Gebieten und weniger Privatsphäre durch neue Formen der Überwachung und Data Mining, was offene Diskussionen und Debatten erfordere.

Andere KI-Forscher äußern sich positiv über die Studie. "Es ist erfreulich, weniger Schwarzmalerei und eine nüchternere Bewertung von dem zu bekommen, was zu erwarten ist", sagt etwa Ronald Arkin, Professor am Georgia Institute of Technology. Max Tegmark vom Future of Life Institute, allerdings sagt, möglicherweise werde darin zu wenig auf die Risiken durch unvorhergesehene technische Veränderungen geachtet: "Die Behauptung, dass übermenschliche Roboter unmöglich sein dürften, ist umstritten und wird von manchen KI-Forschern als zu pessimistisch angesehen."

QuoteAdvocadus Diaboli, 06.09.2016 10:28

Künstliche Intelligenz ist keine Bedrohung, natürliche Dummheit schon
Und die letztgenannte zählt leider nicht zu den vom Aussterben bedrohten Arten.
Natürlich wird die KI unsere Welt mächtig umkrempeln. Denken wir mal an die autonom fahrenden Autos, das dürfte eine schlimmere Konkurrenz für die Taxifahrer werden also Uber es derzeit ist.
Wir leben in interessanten Zeiten. Die Zukunft wird zeigen, ob wir diese Entwicklungen zu nutzen wissen oder ob die Deppen wieder aus ihren Löchern kriechen und neben der Angst vor Überfremdung dann die Angst vor intellektueller Überlegenheit durch die KI propagieren. ;-)


QuoteOliver Gröbel, 06.09.2016 11:39

Studie: Künstliche Intelligenz ist vorerst keine Bedrohung für die Menschheit

... Bei einigen Artgenossen bin ich mir da nicht so sicher. Die Einen sind mit simplen Produktbewertungen bei Amazon überfordert: Die geben 1 Stern weil der Versand nicht geklappt hat. Die sollen aber nicht DHL sondern das Produkt bewerten. Die Anderen glauben an die Heilkraft von Zuckerkügelchen und die Gefährlichkeit von Chemtrails.

Oliver


Quotecythev, 06.09.2016 11:14

Tolle Studie...
Bei einen betrachteten Zeitraum von 15 Jahren hätte es keine große Studie gebraucht um zu der Erkenntnis zu gelangen, dass die KI noch keine Bedrohung ist.
Überhaupt ist das, was da zum Teil schon KI genannt wird doch nichts anderes als automatisch funktionierende Maschinen (Selbstfahrende Autos etc.). imho braucht es für KI mehr und die wird irgendwann in einer fernen Zukunft vermutlich durch ein singuläres Ereignis zu soetwas wie "Bewusstsein" gelangen und ab dann innerhalb kürzester Zeit werden wir wissen ob sie sich entscheidet ihren Schöpfer zu bewahren oder zu verdrängen. Mit etwas Pech bringt sie uns versehentlich beim "spielen und ausprobieren" um. Genug Potential dazu haben wir ja überall rumstehen.



Aus: "Studie: Künstliche Intelligenz ist vorerst keine Bedrohung für die Menschheit" Sascha Mattke (Technology Review, 06.09.2016)
Quelle: http://www.heise.de/newsticker/meldung/Studie-Kuenstliche-Intelligenz-ist-vorerst-keine-Bedrohung-fuer-die-Menschheit-3313720.html

Link

Marvin Lee Minsky (* 9. August 1927 in New York) ist ein US-amerikanischer Forscher auf dem Gebiet der künstlichen Intelligenz...
http://de.wikipedia.org/wiki/Marvin_Minsky


The Society of Mind (wörtlich: Die Gesellschaft des Geistes, deutscher Titel: Mentopolis) ist der Titel eines Buches und einer Theorie von Marvin Minsky.
Minsky entwickelt in einem Schritt-für-Schritt-Prozess ein umfassendes Modell menschlicher Intelligenz, und versucht dieses auf das Feld der Künstlichen Intelligenz zu übertragen. ...
https://de.wikipedia.org/wiki/The_Society_of_Mind


Marvin Minsky - What are Possible Worlds?
Possible worlds' are all the ways in which a world can be. A 'world' is a complete state of cosmic affairs: all the infinite variations of innumerable parts and their myriad relationships. ...
https://www.youtube.com/watch?v=PUbANEalnzc


Marvin Minsky (August 9, 1927 – January 24, 2016) reflects on a lifetime in the field he helped start, Artificial Intelligence, over the course of a 5+ hour interview.
https://www.youtube.com/watch?v=xiUuQSCR4h8


Link

#7
"Roboter: Wir Automaten"  Adrian Lobe (1. September 2016)
Je klüger die Roboter werden, desto mehr ähneln sie uns Menschen. Oder passen wir uns ihnen an? ... Dass hier ein grundsätzliches Problem vorliegt, zeigten der Rechtswissenschaftler Brett Frischmann und der Philosoph Evan Selinger in einem Beitrag für den Guardian. Sie stellten die These auf, der Turing-Test müsse heute umgekehrt gedacht werden: Die Frage sei nicht mehr, ob Maschinen menschenähnlich würden, sondern ob der Mensch maschinenähnlich, das heißt programmierbar werde. ... Will man wie Selinger und Frischmann den Test unter umgekehrten Vorzeichen durchführen, muss man zuerst definieren, was eigentlich menschlich ist. In Studien, die sie in ihrem im kommenden Jahr erscheinenden Buch Being Human in the 21st Century bündeln, nennen Selinger und Frischmann Common Sense, rationales und irrationales Denken, freien Willen und Autonomie als Eigenschaften, die den Menschen von Maschinen unterscheiden. Aber die Wissenschaftler beobachten auch, dass wir uns in einer datengetriebenen Umgebung immer mehr wie Maschinen verhalten. Millionen Menschen klicken nach Reiz-Reaktions-Schema auf den Button "Ja, ich stimme zu", ohne die Geschäftsbedingungen gelesen zu haben, oder jagen wie ferngesteuert virtuelle Monster. ...
http://www.zeit.de/2016/35/roboter-kuenstliche-intelligenz-anpassung-menschen/komplettansicht

Quote
White_Chocobo #3

Vielleicht scheitert die Frage an dem Dualismus den sie aufwirft (Mensch-Maschine). Betrachtet man Auseinandersetzungen zum konstitutiven Ineinandergreifen von Mensch-Technik im Sinne entsprechender Technosubjekte, wie sie z.B. von Donna Haraway seit den 1980er Jahren diskutiert werden, wird für mich eher ein Schuh aus der aufgeworfenen Frage.

Kurz: wir sind (bereits) alle Cyborgs, insofern stellt sich die Frage ggf. gar nicht mehr, ist der Dualismus bereits passé und ein Relikt einer Zeit in der eine solche Trennung noch möglich(er) schien.


...

---

"Zum Tode von Peter Naur: Schlimmer als denkende Maschinen sind Menschen, die nicht nachdenken" Detlef Borchers (heise online, 04.01.2016)
Nach seiner Emeritierung widmete sich Naur unter dem Eindruck von William James und seiner "Principles of Psychology" der Aufgabe, eine grundsätzliche Kritik der Philosophie und Psychologie voranzutreiben. Er veröffentlichte ein Antiphilosophisches Lexikon, das kein gutes Haar an den Philosophen von A wie Aristoteles bis W wie Wittgenstein übrig ließ. Von James ausgehend, entwickelte er eine synaptische Theorie geistiger Prozesse, die ihn dazu führte, Computern die Denkfähigkeit abzusprechen, wie dies in einem Youtube-Video zu sehen ist. Daneben beschäftigte sich der Musikliebhaber Naur mit der Detail-Analyse der Symphonien von Joseph Haydn und der Alzheimer-Krankheit als Synapsen-Problem. ...
http://www.heise.de/newsticker/meldung/Zum-Tode-von-Peter-Naur-Schlimmer-als-denkende-Maschinen-sind-Menschen-die-nicht-nachdenken-3059545.html


Link

"Künstliche Intelligenz: Träumen ist ein Algorithmus" Christoph Drösser (27. August 2016)
Manches Wissen wächst in verdammt hoch gelegenen Gebieten. Trotzdem sollte man sich hin und wieder dorthin aufmachen – auch wenn es richtig anstrengend wird. Willkommen auf dem Pfad des maschinellen Lernens. ... Deep Learning bringt jetzt die Erfolge, die uns jahrzehntelang von der Künstlichen Intelligenz versprochen wurden: Die Netze erkennen menschliche Gesichter mit großer Sicherheit auf Fotos. Sie können gesprochene Sprache sehr gut verstehen. Skype kann Videotelefonate zwischen unterschiedlichen Muttersprachlern in Echtzeit dolmetschen.
Bei den bisher erwähnten lernenden Programmen war immer noch der Mensch der Lehrer der Maschine, er gab ihr im Training die korrekten Antworten vor. Aber zunehmend lernen die Netze selbstständig. Man speist eine große Menge Daten ein, und sie machen sich ihren eigenen Reim darauf. Google-Ingenieure erregten im vergangenen Jahr Aufmerksamkeit, als sie Neuronale Netze gleichsam unter Drogen setzten: Wenn man das Netz zwingt, auch in unscheinbaren Mustern, etwa einem Wolkenhimmel, Objekte zu erkennen, dann halluziniert es drauflos und sieht zum Beispiel fantastische Fische am Himmel, wo eigentlich keine sind. Die Maschinen haben das Träumen gelernt. ...
http://www.zeit.de/zeit-wissen/2016/05/kuenstliche-intelligenz-algorithmus-deep-learning-maschinelles-lernen/

Quoteaquinaso #12  (2016)

Die grundlegenden Probleme der KI-Forschung werden schnell sichtbar, wenn man die Begrifflichkeit des Mentalen und das Materiellen sauber auseinanderhält, und sich dabei klar macht, dass das Materielle nie anders kann, als naturgesetzlich und kausal zu funktionieren, und dies auch nie überschreiten kann, während das Mentale (welches zum Beispiel beinhaltet Intentionalität, Erkennen, Wahrnehmung, Selbstsein etc.) stets zielgerichtet strukturiert ist und durch Spontaneität gekennzeichnet ist.

Die Frage, wie diese beiden Sphären im lebendigen Organismus verbunden sind, ist das uralte Leib-Seele-Problem, welches das hartnäckigste Rätsel der Philosophie darstellt.

Versuche aus der materialistischen Position, es zu ignorieren, für irrelevant zu halten, oder gar für im Sinne des materialistischen Monismus für gelöst zu erklären, scheitern nicht nur theoretisch, sondern mit hundertprozentiger Sicherheit in der technischen Praxis der KI.

In der Wirklichkeit werden ständig Begriffe aus der Sphäre des Mentalen unbedacht auf die materielle Sphäre angewandt, und dadurch werden Konfusion und falsche Erwartungen ausgelöst, die sich sehr einfach als Illusionen entlarven lassen.

Begriffe wie: Lernen, Erkennen, selbständig, intelligent und viele andere, welche ständig im Zusammenhang mit KI genannt werden, entstammen der mentalen Sphäre und sind nur im metaphorischen Sinne bei Maschinen vorhanden. Beim Menschen sind sie im wirklichen Sinne vorhanden.


Quotedth #12.10

... Sie Verweigern sich der Realität mit der Rechtfertigung, dass Sie auf eine lange Reihe von Realitätsverweigerern aus der Philosophie zurück blicken. Die Philosophie entwickelt Gedankenmodelle, sie gewinnt keine Erkenntnisse über die Realität. Gedankenmodelle können natürlich hilfreich sein, aber nur, wenn man sie mit der Realität abgleicht. Es gibt eine philosophische Denkschule, die einen elementaren Zweck postuliert. Leider ist davon in der Realität nichts zu sehen.

... Ich habe zweckvolle Absichten in meinem Leben, aber dahinter steht kein ultimativer Sinn, es ist nur ein Ergebnis eines evolutionären Prozesses, der es mir ermöglicht, für mich selbst Ziele zu setzen und danach zu handeln. Für Sie wird das dadruch "scheinbar", aber warum? Es macht für meine und Ihre Realität keinen Unterschied, ob hinter unserem persönlichen, zielgerichteten Handeln ein höheres Prinzip des Zwecks steht oder nicht. Sie unterstellen einen generellen Unterschied zwischen "beseelter" und "unbeselter" Natur, was Ihnen dann ermöglicht, dass es hinter menschlichem Handeln einen grundlegenden Zweck gibt, wo in der Natur nur Kausalität zu erkennen ist.


Quoteaquinaso
#12.12  —  vor 4 Wochen

... Sie haben das Thema ,,Scheinbarkeit" in Hinsicht auf Ihren Willen und Ihre Zwecke immer noch nicht begriffen. Es geht nicht um die Ausrichtung auf ,,höhere" oder ,,gottgegebene" oder ,,naturgegebene" Zwecke, sondern um die Frage, ob Sie etwas wollen, indem Sie ein Subjekt sind, das um seiner selbst willen etwas erstrebt, oder ob Sie nur ein Apparat sind, der eine bestimmte Programmierung hat, welche Ihnen vorschreibt, was in Ihrem Leben als nächstes kommt.

Wenn Sie nicht imstande sind, die Betrachtungsebene der Maschinenförmigkeit in Hinsicht auf Menschen zu überschreiten, dann kommen Sie gar nicht in die Verlegenheit, das Problem zu erfassen (dann wird man eben ohne Sie darüber diskutieren).

,,Scheinbar" heißt also nur: gar nicht wirklich intentional, sondern nur der fälschliche Eindruck einer Intentionalität, in Wirklichkeit das Wirken eines rein kausalen Programms, so wie eine Wahlwiederholung am Telefon nicht bedeutet, dass das Telefon den Adressaten erreichen ,,will".


QuoteFonzie #14  (2016)

Hahaha, viele der Kommentare sind köstlich.
Die strotzen nur so von Hybris und "Vorstellungskraft".
Es scheint mehr Kreationisten zu geben als vermutet.
Sind Amöben oder andere Einzeller intelligent?
Nein? ... In welchem Stadium soll den "Intelligenz" der sich zum Menschen hin entwickelten biologischen Masse hinzugekommen sein?Da sind wir beim Henne-Ei-Problem: Wie können dumme Eltern ein intelligentes Kind schaffen?
Welches war das erste intelligente Lebewesen?
Ein Baum, der sich "schlauerweise" dem Licht zuneigt?

Die Antwort liegt auf der Hand:
Intelligenz ist nur eine rein subjektive Zuschreibung zur Begründung für wahrgenommene Kausalzusammenhänge.
Insofern ist KI keineswegs limitiert auf Subintelligenz und wir leiden nur an Selbstüberschätzung, die lediglich auf unserer "kreative" Kriteriengewichtung basiert.


[Der Unterschied zwischen weicher und harter Intelligenz ergibt sich somit aus dem Zeitpunkt des Programmierens, aus der Trennung oder Nichttrennung des "Programmschreibers" von der Hardware und damit zusammenhängend aus der Frage, ob im Sinne des problemlösenden Systems Eigen- oder Fremdziele verfolgt werden. ... http://sigridschaefer.homepage.t-online.de/aki1.html]

QuoteM.Aurelius #19

Die Jünger der harten KI sind nicht zu übertreffen, aber leider nur auf dem Gebiet der Selbstüberschätzung. Seit vielen Jahren hört man von ihnen, die Simulation des Bewusstseins und lernende Maschinen stünden kurz bevor. Wenn man sich die vorliegenden Ergebnisse ansieht, stellt sich schnell Ernüchterung ein, da sie entweder von der Intelligenz von Amöben gesprochen haben oder den Intelligenzbegriff bis zur Unkenntlichkeit umdefiniert haben oder das "machine learning" in der Realität als wenig hilfreich erweisst, weil die Maschine außerhalb eines schmalen, vorgegeben Kontextes von der Komplexität der Realität schnell total überfordert ist. Was hier als Fortschritte der KI bezeichnet wird, sind im wesentlichen Fortschritte der Hardware, die für asbach-uralte KI Schmonzetten ala Türme von Hanoi genutzt werden. Die harte KI hatte schon immer ein Faible für Vaporware und Taschenspielertricks.


---


"Künstliche Intelligenz: Watson, wir haben ein Problem" Lars Gaede (22. September 2016)
Derzeit entsteht eine neue Generation von Maschinen, die nicht nur besser heben, schweißen, bohren können als Menschen, sondern auch immer komplexere kognitive Aufgaben übernehmen: Lesen, Schreiben, Sprache und Zusammenhänge verstehen. Wir stehen an der Schwelle einer neuen industriellen Revolution, die sich leiser und unsichtbarer vollzieht als alle vergangenen, weil Algorithmen weder wummern und stampfen wie einst Dampfmaschinen, noch Autotüren umherwirbeln wie Fertigungsroboter. Unsere Arbeitswelt wird schon in wenigen Jahren eine völlig andere sein. ... Tatsächlich warnen Denker wie der Physiker Stephen Hawking  vor der potenziell zerstörerischen Kraft künstlicher Intelligenz, sollte sie falsch eingesetzt werden. Der Tesla-Gründer Elon Musk sieht in einer unregulierten Entwicklung der künstlichen Intelligenz "unsere größte existenzielle Bedrohung" und Bill Gates sagt, er verstehe niemanden, dem die rasante Entwicklung der KI keine Sorgen bereite. Smarte Maschinen wie Watson wirken auf viele Menschen ziemlich gruselig. ... Historisch betrachtet haben neue Technologien am Arbeitsmarkt tatsächlich immer beides getan. Neues erschaffen und Altes zerstört. Berufe wie der Treidelknecht, der Hufschmied oder der Schriftsetzer sind verschwunden. Und zugleich sind Hunderte neue entstanden. Nur welche, war für die Menschen im Moment des Wegfalls oft noch nicht vorstellbar. Deshalb folgten im Jahr 1812 die britischen Maschinenstürmer ihrem Anführer Ned Ludd durch England und zerstörten industrielle Webstühle und Spinnereien. Das Ende der Arbeit befürchteten die Menschen, als die Dampfmaschine aufkam und als die ersten Roboter in die Fabriken einzogen. Doch bisher wurde der zerstörerische Effekt neuer Technologien stets durch die gleichzeitige Steigerung der Produktivität aufgefangen. Denn wenn ein Produkt dank neuer Maschinen effizienter produziert werden kann, fallen die Preise. Das reale Einkommen der Menschen steigt und damit die Nachfrage für andere Produkte – es wird investiert, und neue Arbeitsbereiche wachsen. Kann man sich darauf verlassen? Es gibt Anzeichen, dass es diesmal etwas anders laufen könnte. ...
http://www.zeit.de/wirtschaft/2016-09/kuenstliche-intelligenz-maschinen-menschenersatz-jobs


Link

#9
"Roboter-Ausstellung: Im Gruselkabinett der Seelenlosen" Imke Henkel, London (2. April 2017)
Seit einem halben Jahrtausend versucht der Mensch, sich nachzubauen. Die Ausstellung "Robots" in London gleicht einem Trip durch eine Geisterbahn aus Mensch-Maschinen. ... Diese Kreaturen ziehen den Besucher durchaus in ihren Bann. Um echte Existenzängste auszulösen, können sie aber noch zu wenig. In einem letzten Aufbäumen konfrontiert uns die Texttafel – zum Finale werden die Buchstaben groß und leuchtend an die Wand projiziert – noch einmal mit den philosophischen Fragen vom Anfang: Was wäre, wenn Roboter von uns lernen könnten? Würden sie lernen ... sich anzupassen? ... zu scherzen? ... gemocht zu werden? Was derzeit zur künstlichen Intelligenz erforscht wird, berührt solche Fragen. Doch darüber lernt der London-Besucher leider nichts. Davon, dass Mensch und Maschine auf unheimliche Art verschmelzen, ist in den historischen Hallen von South Kensington noch nichts zu spüren. Während die Besucher aus Fleisch und Blut sich nach dieser Roboter-Freakshow nach frischer Luft und einem Kaffee sehnen, verrichten die Seelenlosen weiter stoisch ihren Robo-Job. Beneidenswert, dass sie über den Sinn ihrer selbst (noch) nicht nachdenken können. Muss das ein unbeschwertes Dasein sein. ...
http://www.zeit.de/wissen/2017-03/roboter-ausstellung-london-kuenstliche-intelligenz-mensch-maschine/komplettansicht

---

"Menschen gegen Roboter "Der Evolution ist ja egal, ob wir glücklich sind"" Moritz Honert (06.09.2017)
Darf man humanoiden Robotern Gewalt antun? Wenn der erste von ihnen Bürgerrechte fordert, ist es zu spät, sagt der Neuroethiker Thomas Metzinger. Warum humanoide Roboter bei uns "soziale Halluzinationen" erzeugen und was das mit unserer Psyche macht.
http://www.tagesspiegel.de/weltspiegel/sonntag/menschen-gegen-roboter-der-evolution-ist-ja-egal-ob-wir-gluecklich-sind/20268974-all.html

---

"34C3: Notwehr against the machine"  Patrick Beuth, Leipzig (28. Dezember 2017)
Künstliche Intelligenz wird schon bald große Teile der Gesellschaft durchdringen. Die Hacker-Community signalisiert, dass sie notfalls Widerstand leisten wird. 
"Irgendwann in den nächsten Jahren wird irgendein Gremium aus Imperiumsbürokraten vor der Entscheidung stehen: Sollen wir jetzt diese selbstlernende, fehlerbeseitigende, uns turmhoch überlegene künstliche Intelligenz anschalten – oder lieber nicht? Und dann wird einer sagen: Jetzt hamwa's bezahlt, jetzt schalten wir's auch an." So stellt sich Marc-Uwe Kling den Anfang vom Ende der Menschheit vor. Beim Autor der Känguru-Chroniken und der Science-Fiction-Satire Qualityland klingt das lustig, aber auf dem 34. Chaos Communication Congress (34C3) ist seine Geschichte durchaus als Warnung zu verstehen. ...
Schon in der Eröffnungsrede warnt der Science-Fiction-Autor Charles Stross: "Wir müssen eine Strategie entwickeln, um Herr über diese Dinge zu werden, bevor sie Herr über uns werden." Stross denkt an künftige Machine-Learning-basierte Systeme, die extrem personalisierte, staatliche Propaganda im Netz verbreiten, Videos und Audioaufnahmen nach Belieben fälschen oder einzelne Internetnutzer derart genau analysieren, dass sie ihnen stets exakt jene Reize bieten können, die sie noch länger am Bildschirm halten.
Die beiden deutschen KI-Forscher Hendrik Heuer und Karen Ullrich warnen tags darauf vor Verzerrungen in Machine-Learning-Systemen, die bereits verwendet werden. "Eine Art Geldwäsche für Vorurteile", nennt Heuer solche Modelle, die einseitige Zielsetzungen haben, oder Trainingsdaten verwenden, die nicht repräsentativ sind. Die einseitige Vorhersage für die Risikoeinschätzung von schwarzen gegenüber weißen Strafgefangenen, die ProPublica im Mai 2016 in einem aufsehenerregenden Bericht beschrieben hatte, ist eines seiner Beispiele: Die Diskriminierung von Afroamerikanern, die in den Trainingsdaten des US-Strafverfolgungs- und Justizsystems steckt, wird durch die Entscheidung eines emotionslosen Automaten nicht entfernt – sie ist nur nicht mehr so einfach sichtbar. ...
http://www.zeit.de/digital/internet/2017-12/34c3-chaos-computer-club-kuenstliche-intelligenz/komplettansicht

QuoteLa Paloma
#4  —  vor 3 Tagen 9

Ich glaube, dass es längst zu spät ist für eine flächendeckende effektive Notwehr. Und das hängt nicht zuletzt damit zusammen, dass sich das Ganze nicht mehr oder weniger zufällig oder aus einer rein geschäftlichen Dynamik heraus entwickelt. Wir haben es hier mit einer Art Religion zu tun. Und das Internet, die neuen KI Technologien, alles was dazu gehört sind die Werkzeuge, die in den Händen einiger weniger Milliardäre liegen, die diese gezielt im Sinne dieser Religion einsetzen.

Hier ein Statement des Paypal Mitgründers Peter Andreas Thiel:

,,Anders als im Bereich der Politik, haben in dem der Technologie die Entscheidungen von einzelnen Menschen möglicherweise immer noch den absoluten Vorrang. Das Schicksal unserer Welt liegt vielleicht in den Händen eines einzelnen Menschen, der jene Freiheits-Maschine erschafft oder verbreitet, die wir brauchen, um die Welt sicher für den Kapitalismus zu machen. Das ist der Grund, weshalb wir alle Friedman das Allerbeste wünschen in Bezug auf seinen außergewöhnlichen Versuch."

https://de.wikipedia.org/wiki/Peter_Thiel

Zitiert aus einem Interview mit Jonas Lüscher dem Erfolgsautor des Silicon Valley Romans "Kraft"

https://www.basellandschaftlichezeitung.ch/leben/leben/trend-autor-jonas-luescher-die-reichen-werden-unsterblich-und-der-grosse-rest-ueberfluessig-131231659

QuoteJulian Roechelt #8

Die Amazombies haben ihre Meister selber ermächtigt.
Konsumverzicht würde die Algorithmus-Heinis schnell auf dem Trockenen sitzen lassen.



http://www.zeit.de/digital/internet/2017-12/34c3-chaos-computer-club-kuenstliche-intelligenz?cid=17135917#cid-17135917

QuoteIME2605 #11

Alles lobenswerte Überlegungen, aber ob es irgendwie weiterhilft ?
Schon als es nur den Fernseher gab, war es nicht möglich den Menschen beizubringen, einfach den "Aus-Knopf" zu drücken und Sendung, Sendung sein zu lassen. Nein, man gab ihnen die Fernbedienung mit vielen Knöpfen, um sie mit Hilfe des "Zappens" am Bildschirm zu halten. Facebook und Co können das heute noch viel besser, das ist offensichtlich und wenn es offensichtlich ist und keiner tut was, ist es gewollt.
Wer sich davor schützen will, muss bei sich selber anfangen und nicht bei den Anderen. Typisch deutscher ethischer Partikularismus, der sich da mal wieder austobt.
Wenn ich weiß, dass die sie auf meine Interessen einschießen und mich am Bildschirm halten wollen, dann weiß ich auch, dass ich darüber lachen kann, aufstehen und gehen.


http://www.zeit.de/digital/internet/2017-12/34c3-chaos-computer-club-kuenstliche-intelligenz?cid=17138248#cid-17138248


Link

Quote[...]  Mehr als 3.100 Mitarbeiter von Google sind gegen die militärische Nutzung ihrer KI. Ein offener Brief an den CEO Sundar Pichai wurde als Protest gegen Projekt Maven verfasst. Auch alteingesessene Mitarbeiter haben das Dokument unterschrieben.

... In einer Stellungnahme antwortet ein Google-Represäntant: "Google arbeitet an einem Teil von Maven - speziell Technik, die auf nichtoffensive Zwecke ausgelegt ist." Maven nutzt Machine Learning von Google, um Spionagebilder automatisiert auszuwerten und zu kategorisieren - etwa feindliche Stellungen oder Truppenbewegungen. Diese Informationen können schlussendlich genutzt werden, um Angriffe zu planen.

Neben Google sind auch andere große Unternehmen wie Amazon mit dem Bilderkennungssystem Rekognition for Defense und Microsoft mit Azure Government vertreten. Das wundert wenig, schließlich sind Militäraufträge oftmals sehr lukrativ und Langzeit-Service-Verträge dort sehr gut umsetzbar.


Aus: "Google-Mitarbeiter protestieren gegen Militärprojekt Maven" (9. April 2018)
Quelle: https://www.golem.de/news/maschinelles-lernen-google-mitarbeiter-protestieren-gegen-militaerprojekt-maven-1804-133733.html

https://www.golem.de/news/verhaltenskodex-google-verabschiedet-sich-von-don-t-be-evil-1805-134479.html

https://www.golem.de/news/tensorflow-das-us-militaer-nutzt-ki-systeme-von-google-1803-133194.html


Link

#11
"Künstliche emotionale Intelligenz - Das richtige Gefühl" Eva Wolfangel (23.05.2018)
Roboter mit Emotionen können komplexe Aufgaben besser meistern. Forscher sind davon überzeugt, dass sich Emotion und Kognition nicht trennen lassen. ... Ein Roboter, der Angst hat oder Stress empfindet: Auf den ersten Blick erscheint das absurd und unnötig. Hemmen uns diese Gefühle nicht? Verhindern sie nicht, dass wir unsere Ziele erreichen? Warum sollte man so etwas in einen Roboter implementieren wollen? Erst bei genauerem Hinsehen wird klar, wie nützlich Emotionen für kognitive Prozesse sind.
Marvin Minsky hat bereits 1986 darauf hingewiesen, dass Emotionen wichtig sind für künstliche Intelligenz, und zwar nicht, um möglichst menschenähnlich zu werden, sondern um komplexe Aufgaben besser bewältigen zu können. »Emotionen sind andere Wege zu denken«, schrieb er schließlich 2006 in seinem Buch »The Emotion Machine«. Sein einleuchtendes Argument: Programme voller Vorgaben für jede Eventualität werden zu komplex, während Emotionen häufig auf einem anderen Weg zur »richtigen« oder ökonomischen Verhaltensweise führen.
Schließlich denken wir Menschen in bestimmten Situationen auch nicht nach, sondern handeln – weil es nötig ist. ...
Beispielsweise verändert sich unsere Wahrnehmung, wenn wir in Gefahr sind oder uns in Gefahr vermuten: Wir sehen die potenzielle Bedrohung größer, wir meiden dunkle Ecken instinktiv, gehen Menschen aus dem Weg, die aggressiv oder bedrohlich wirken. ...
Nicht zuletzt ist eines von Broekens Zielen also auch, die Mensch-Roboter-Interaktion zu erleichtern. Allerdings nicht, indem Roboter nett lächeln und sympathisch wirken, sondern damit sie für Menschen berechenbar werden – und andersherum. »Es ist nicht schlecht, die Absichten von jemandem zu erahnen – bevor er dich haut.« ...
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366

----


"Meinungsfreiheit: Die Würde des Roboters ist antastbar" Patrick Spät (9. Juni 2018)
In Kalifornien wird ein Gesetzentwurf debattiert, der die Kennzeichnung von Bots im Netz verlangt. Die Frage dahinter lautet: Haben Maschinen ein Recht auf freie Rede? ... Bots, also Computerprogramme, die ohne Zutun von Menschen tagtäglich Abertausende Beiträge insbesondere auf Twitter und Facebook posten, sind alles andere als harmlos. Sie dienen zum Beispiel der Verbreitung von Fake News oder sollen gezielt die Wirkung bestimmter politischer Botschaften verstärken. Während des US-Wahlkampfs 2016 etwa verschickten russische Bots 469.000 Retweets von Donald Trumps offiziellem Account auf Twitter. Momentan hat der US-Präsident dort 52,5 Millionen Follower, mehr als ein Viertel davon aber sind nicht aus Fleisch und Blut, sondern Algorithmen. Sie sind potentiell zugleich ein robotisch klatschendes Scheinpublikum, maschinelle Weitererzähler und automatisierte Fabulierer. Und die meisten von ihnen lassen sich nicht ohne weiteres als Bots erkennen.
"Diese Bots können den Nachrichten, die sie verbreiten, eine falsche Glaubwürdigkeit verleihen, indem sie koordinierte Fake-Nachrichten in die Welt setzen", sagt der US-Politiker Robert Hertzberg, der für die Demokraten im State Senate von Kalifornien sitzt, also in einer der beiden Kammern des dortigen Landesparlaments. Man müsse als Mensch wissen, ob man im Netz mit anderen Menschen debattiere oder mit Maschinen, die sich als solche nicht zu erkennen geben, sagt Hertzberg.
Er hat deshalb den Gesetzentwurf mit dem Kürzel SB 1001 im Senat von Kalifornien eingebracht, der künftig das Programmieren von Bots untersagen soll, die sich als natürliche Person ausgeben und somit Menschen gezielt über ihre künstliche Existenz hinwegtäuschen. Auf Hinweis von Nutzerinnen und Nutzern müssten Social-Media-Plattformen wie Facebook und Twitter binnen 72 Stunden etwa mutmaßliche Bot-Profile überprüfen und als solche kennzeichnen. 
... Obwohl die Regelungen lediglich für diesen einen US-Bundesstaat gelten würden, könnte SB 1001 weltweit Signalwirkung haben – schließlich geht es um Kalifornien, die Heimat der Tech-Industrie. Das Gesetz beträfe dort ansässige Unternehmen wie Facebook, Twitter, Google, Apple und Microsoft unmittelbar.
... Die Frage danach, ob Algorithmen eigene Rechte zukommen sollen oder nicht, hat aber noch weitreichendere Folgen: Es gibt inzwischen Dutzende Kriminalfälle, in denen das FBI Smartphones oder verschlüsselte Messenger-Nachrichten knacken oder die Audiodaten von Amazons Alexa auswerten will. In ihrer Ablehnung dagegen berufen sich Technologiekonzerne vor Gericht meist auf den ersten Zusatzartikel. Ausschlaggebend sei dabei nicht, dass ein Mensch schreibt oder spricht, sondern dass bereits der verschlüsselte Quellcode im Gerät an sich geschützt ist, weil auch für diesen die freedom of speech gelte. ...
Nathalie Nevejans, Jura-Dozentin an der französischen Universität Artois und Expertin für Roboterethik bei der Forschungsorganisation CNRS, wirft den EU-Abgeordneten vor, dass deren Vorstellung von Robotern verzerrt sei durch Science-Fiction. Damit ein Roboter als Person gelten könne, "müsste er ein Gewissen, eine Seele oder die Fähigkeit haben, Emotionen zu fühlen. Und das ist aus technischer Sicht gegenwärtig völlig undenkbar. Solche Gesetze laufen Gefahr, Menschen und Roboter in einen Topf zu werfen", sagt Nevejans gegenüber ZEIT ONLINE.
Dennoch bleibt die Frage, ob es nicht doch irgendeiner gesetzlichen Regulierung bedarf. Oder ob Selbstverpflichtungen von Unternehmen ausreichen. So hat beispielsweise Google versprochen, die geplante Sprach-KI Duplex, die auf Befehl hin Telefonanrufe für ihre menschlichen Nutzer erledigen kann, als solche zu Beginn jedes Gesprächs anzukündigen. Die Zusicherung war offenkundig Googles Reaktion auf das allgemeine Entsetzen, das vor einigen Wochen der ersten Präsentation von Duplex folgte: Die Stimme von Duplex klingt nicht nur menschlich, ihre KI benutzt auch äußerst menschliche Ticks wie "Äh" und "Hmmm", um noch authentischer zu klingen und sich zugleich Rechenzeit für die nächste Frage oder Antwort am Telefon zu verschaffen. ...
Ein Bot mag über alles mögliche twittern können. Doch er weiß ganz buchstäblich nicht, wovon er redet. ...
https://www.zeit.de/digital/2018-06/meinungsfreiheit-social-bots-kalifornien-gesetz-kennzeichnung/komplettansicht

QuoteSimplicio #3

" Auch die klügste Maschine hat kein Bewusstsein, sie simuliert es nur"

Eben. Daraus ergibt sich alles andere.


QuoteLeser00 #3.1

Das ist Unsinn. Ich könnte auch behaupten, selbst der klügste Mensch hat kein Bewusstsein, er simuliert es nur. (Und damit z.B Genozid an Menschen rechtfertigen)


QuoteDie Alternative zur Alternative #3.2

Viele Menschen simulieren auch nur ein intelligentes Ich.


Quote
Shenia #17

KI wird trainiert und kann vorgegebene Konstrukte selbstständig entwickeln. Aber egal wieviele Simulationen sie entwickelt, es geht dabei um die Quantität und eine hoehere Stufe, nämlich ein Bewusstsein als ein neues Qualitätsmerkmal kann sie gar nicht erlangen. Dafür braucht man die Vorstellungskraft und Fantasie, aber die macht ihre Aufgaben wie ein Bürokrat, ohne sich Fragen zu stellen, welchen Sinn und Zweck dient das Ganze. Und mit der Suche nach dem Antwort wird sie überfordert, weil sie versteht nicht die Komplexität unseren Welt.


QuotePassionsefeu #22

Bots haben keine Meinung, schon gar keine eigene.
Sie tun lediglich, worauf sie von ihren Programmierern eingestellt wurden. Wenn sie gut gemacht sind, fällt das den unbedarfteren Menschen nicht auf.

Jedenfalls: etwas, was keine eigene Meinung haben kann, braucht auch keine Meinungsfreiheit.


Quoterecht und gerechtigkeit #25

Kann der Programmierer juristisch belangt werden, wenn sein Bot strafbare Beiträge schreibt?


...


Link

Quote[...] Es sind wirklich gute Nachrichten: Europa hat gerade die geistige Führung in der heiß umkämpften globalen Debatte um den ethisch richtigen Umgang mit der Künstlichen Intelligenz übernommen. Am Montag hat die EU-Kommission in Brüssel ihre "Ethics Guidelines for Trustworthy AI" vorgestellt. Neun Monate hat die 52-köpfige High-Level Expert Group on Artificial Intelligence (HLEG AI), der auch ich angehöre, an dem Text gearbeitet. Herausgekommen ist ein Kompromiss, auf den ich nicht stolz bin – und der gleichzeitig das Beste ist, was es weltweit zum Thema gibt. Die USA oder China haben nichts Vergleichbares. Wie passt das zusammen?

Der zugrundeliegende Leitgedanke einer ,,vertrauenswürdigen KI" ist zunächst schon mal begrifflicher Unsinn. Maschinen sind nicht vertrauenswürdig, nur Menschen können vertrauenswürdig sein – oder eben auch nicht. Wenn ein nicht vertrauenswürdiger Konzern oder eine nicht vertrauenswürdige Regierung sich unethisch verhält und in Zukunft eine gute, robuste KI-Technologie besitzt, dann kann er oder sie sich noch besser unethisch verhalten.

Die Geschichte von der Trustworthy AI ist eine von der Industrie erdachte Marketing-Narrative, eine Gute-Nacht-Geschichte für die Kunden von morgen. In Wirklichkeit geht es darum, Zukunftsmärkte entwickeln und Ethikdebatten als elegante öffentliche Dekoration für eine groß angelegte Investitionsstrategie zu benutzen. Zumindest ist das der Eindruck, der sich mir nach neun Monaten Arbeit an den Richtlinien aufdrängt.

Die Zusammensetzung der Gruppe, die sie erarbeitet hat, ist Teil des Problems: Sie bestand aus vier Ethikern und 48 Nicht-Ethikern – nämlich Vertretern aus der Politik, den Universitäten, der Zivilgesellschaft und vor allem aus der Industrie. Das ist so, als würden Sie mit 48 Philosophen, einem Hacker und drei Informatikern (von denen zwei immer gerade in Urlaub sind) einen topmodernen, zukunftssicheren KI-Großrechner zur Politikberatung bauen. Wer immer für die extreme Industrielastigkeit der Gruppe verantwortlich war, hatte aber in mindestens einem Punkt Recht. Wenn man will, dass die europäische KI-Industrie sich an ethische Regeln hält, dann muss man ihr auch wirklich zuhören und sie von Anfang an mit ins Boot holen. Es gibt viele kluge Leute dort, man darf ihnen aber nicht das Ruder überlassen.

Als Mitglied der Expertengruppe bin ich insgesamt sehr enttäuscht von dem nun präsentierten Ergebnis. Die Richtlinien sind lauwarm, kurzsichtig und vorsätzlich vage. Sie übertünchen schwierige Probleme (,,explainability") durch Rhetorik, verletzen elementare Rationalitätsprinzipien und sie geben vor, Dinge zu wissen, die in Wirklichkeit einfach niemand weiß.

Zusammen mit dem ausgezeichneten Berliner Machine-Learning-Experten Urs Bergmann (Zalando) war es meine Aufgabe, in monatelangen Gesprächen die ,,Red Lines" zu erarbeiten – also nicht-verhandelbare ethische Prinzipien, die festlegen, was in Europa mit KI nicht gemacht werden darf. Der Einsatz von tödlichen autonomen Waffensystemen war ein naheliegender Punkt auf unserer Liste, ebenfalls die KI-gestützte Bewertung von Bürgern durch den Staat (Social Scoring) und grundsätzlich der Einsatz von KI, die Menschen nicht mehr verstehen und kontrollieren können.

Dass all dies gar nicht wirklich erwünscht war, habe ich erst verstanden als mich der freundliche finnische HLEG-Präsident Pekka Ala-Pietilä (ehemals Nokia) mit sanfter Stimme gefragt hat, ob wir die Formulierung ,,nicht verhandelbar" nicht doch aus dem Dokument streichen könnten? Im nächsten Schritt haben viele Industrievertreter und die an einer ,,positiven Vision" interessierten Gruppenmitglieder vehement darauf bestanden, dass das Wort ,,Red Lines" im ganzen Text löschen – obwohl ja genau diese roten Linien unser Arbeitsauftrag waren. Wenn Sie sich das Dokument nach der heutigen Veröffentlichung anschauen, werden Sie keine roten Linien mehr finden. Drei wurden komplett gelöscht, der Rest wurde verwässert und stattdessen ist nur noch die Rede von ,,critical concerns". Das passt ins Bild.

Ich beobachte derzeit ein Phänomen, das man als ,,ethics washing" bezeichnen kann. Das bedeutet, dass die Industrie ethische Debatten organisiert und kultiviert um sich Zeit zu kaufen – um die Öffentlichkeit abzulenken, um wirksame Regulation und echte Politikgestaltung zu unterbinden oder zumindest zu verschleppen. Auch Politiker setzen selbst gerne Ethik-Kommissionen ein, weil sie selbst einfach nicht weiterwissen – und das ist ja auch nur menschlich und ganz und gar nachzuvollziehen. Die Industrie baut aber gleichzeitig eine ,,Ethik-Waschmaschine" nach der anderen: Facebook hat in die TU München investiert – in ein Institut, das KI-Ethiker ausbilden soll, Google hatte die Philosophen Joanna Bryson und Luciano Floridi für ein ,,Ethics Panel" – das Ende vergangener Woche überraschend eingestellt wurde - engagiert. Wäre das nicht so gekommen, hätte Google über Floridi - der auch Mitglied der HLEG AI ist - direkten Zugriff auf den Prozess bekommen, in dem die Gruppe ab diesem Monat die politischen und die Investitionsempfehlungen für die Europäische Union erarbeitet. Das wäre ein strategischer Triumph des amerikanischen Großkonzerns gewesen. Weil die Industrie viel schneller und effizienter ist als die Politik oder die Wissenschaft, besteht das Risiko, dass wir nach ,,Fake News" jetzt auch ein Problem mit Fake-Ethik bekommen. Inklusive jeder Menge Nebelkerzen, hochbezahlter Industriephilosophen, selbsterfundener Gütesiegel und nicht-validierter Zertifikate für ,,Ethical AI made in Europe".

Wer könnte jetzt noch ethisch überzeugende ,,Rote Linien" für die KI entwickeln? Eigentlich könnte es nur die neue EU-Kommission sein, die nach dem Sommer ihre Arbeit beginnt. Das Amerika von Donald Trump ist moralisch diskreditiert bis auf die Knochen, es hat sich selbst aus dem Spiel genommen. Und China? Ist zwar weit vorn, was das Aushorchen seiner 1,4 Milliarden gläsernen Bürger angeht, und mit Blick auf die KI-Sicherheit  könnte es – das muss man sehen - als totalitärer Staat jedwede Richtlinie auch verbindlich durchsetzen. Aber echte Ethik?

Genau wie in Amerika gibt es auch hier viele kluge Leute im Land. Aber als digitaler ,,Totalitarismus 2.0" ist China natürlich keine irgendwie akzeptable Adresse ernstgemeinte Diskussionen. Deshalb trägt Europa jetzt die Last einer echten historischen Verantwortung.

Feststeht: Wir können es uns nicht leisten, diese Technologie politisch auszubremsen oder nicht weiter zu entwickeln. Weil gute KI aber ethische KI ist, haben wir jetzt auch eine moralische Verpflichtung, die Guidelines der High-Level Group selbst aktiv weiterzuentwickeln. Bei aller Kritik an ihrer Entstehung – die Ethik-Leitlinien, die wir uns in Europa gerade erarbeiten, sind trotzdem die beste Plattform für die nächste Phase der Diskussion, die wir je hatten. China und die USA werden sie genau studieren.

Ihre juristische Verankerung in europäischen Grundwerten ist ausgezeichnet. Die erste Auswahl der abstrakten ethischen Prinzipien ist zumindest passabel, nur die echte normative Substanz auf der Ebene von Langzeitrisiken, konkreten Anwendungen und Fallbeispielen wurde zerstört. Der erste Schritt ist gut. Aber es ist höchste Zeit, dass die Universitäten und die Zivilgesellschaft sich den Prozess zurückerobern und der Industrie die selbst-organisierte Diskussion wieder aus der Hand nehmen.

Alle spüren es: Wir befinden uns in einem rasanten historischen Übergang, der auf vielen Ebenen gleichzeitig stattfindet. Das Zeitfenster, innerhalb dessen wir ihn zumindest teilweise kontrollieren und die philosophisch-ethischen Grundlagen der europäischen Kultur noch wirksam verteidigen können, wird sich in wenigen Jahren schließen.


Aus: "EU-Ethikrichtlinien für Künstliche Intelligenz Nehmt der Industrie die Ethik weg!" Thomas Metzinger (08.04.2019)
Quelle: https://www.tagesspiegel.de/politik/eu-ethikrichtlinien-fuer-kuenstliche-intelligenz-nehmt-der-industrie-die-ethik-weg/24195388.html

Quotejonnyrotten 08.04.2019, 17:06 Uhr

Danke für diesen aufklärerischen Bericht.

"Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden." - Die Physiker, F. Dürrenmatt.

jonnyrotten 10.04.2019, 10:18 Uhr


    Ethisch verwerflich ist, wenn Menschen Technik schaffen, das Menschen nicht mehr beherrschen können

Ich bin auch für die Abschaffung der Handys.


Quoteyarramalong 08.04.2019, 20:18 Uhr

Wer KI mit Ethik verbinden will, sollte sich den Film 2001 Odyssee im Weltraum ansehen. Er zeigt, was Menschen einst (1968) mit Computern assoziierten. Überirdisch, eine Art Gottheit. Die Denke blieb nicht auf Filmemacher beschränkt, auch die Kybernetiker, damals selbsternannte Vordenker der technischen Entwicklung, wähnten Computer kurz vor dem Erreichen der menschlichen  Schöpfungskraft. Dabei waren alle Computer von damals, zusammen genommen, weniger intelligent als ein heutiger Autoschlüssel. Ob die Computer von heute es mit einem Esel aufnehmen können, ist keineswegs ausgemacht. Der Computer, der den Schachgroßmeister geschlagen hat, kann bei Halma allenfalls blöd blinken. 

Ethisch verwerflich ist, wenn Menschen Technik schaffen, das Menschen nicht mehr beherrschen können. So z.B. die Atomtechnik, deren Müll in einen Behälter soll, der eine Million Jahre dicht hält. Man wähnte sie sicher, weil bei einem Unfall sich die Technik eine halbe Stunde menschlichen Handlungen und Zugriffen entziehen würde, damit diese keinen Fehler machen können. Bereits diese Behauptung war ethisch nicht vertretbar. Sie entsprach auch nicht den Tatsachen und wurde in den 1990er Jahren verworfen. Denn bei Großkatastrophen waren die Planer der Technik viel stärker beteiligt als deren Bediener.

Wenn man sich anschaut, was viele "KI"-Experten von sich geben, kommt man aus dem Schaudern nicht heraus. Sie wissen nicht einmal, was Intelligenz ist. Und sind damit in bester Gesellschaft fast aller Menschen.

Nicht nur der Industrie muss die Ethik entzogen werden, sondern allen Technokraten. Von Menschen geschaffene Systeme sind immer potenziell fehlerhaft und funktionieren durch Checks-and-Balances wie z.B. politisch stabile Systeme. Böcke, die zum Gärtner ernannt werden, fressen zuerst den Salat.


...

Link

#13
Roboterbewusstsein, automatisiertes Entscheiden und Transhumanismus. Anthropomorphisierungen von KI im Licht evolutionär-phänomenologischer Leib-Anthropologie
ISBN: 978-3-8260-6983-3, Autor: Irrgang, Bernhard - Erscheinungsjahr: 2020
https://www.verlag-koenigshausen-neumann.de/product_info.php/info/p9486_Roboterbewusstsein--automatisiertes-Entscheiden-und-Transhumanismus---Anthropomorphisierungen-von-KI-im-Licht-evolution--r-ph--nomenologischer-Leib-Anthropologie.html

"Philosophie der KI" Publiziert am 8. September 2020 von Stefan Höltgen   
http://www.simulationsraum.de/blog/2020/09/08/philosophie-der-ki/

Mensch und KI: Verschmelzen Mensch und Technik? Gibt es ein außerkörperliches Bewusstsein? Ein Technikphilosoph entwirft eine Philosophie der künstlichen Intelligenz.
Stefan Höltgen (Rezension, 08.09.2020)
Über drei Jahrtausende hinweg haben Philosophen mit ihren diversen Spezialisierungen (philosophische Anthropologie, Ethik, Technikphilosophie, Erkenntnistheorie etc.) ein Bild entworfen, das den Menschen als animal rationale, also als »denkendes Tier« auffasst, welches sich seiner selbst bewusst ist und sein Denken theoretisieren und als Subjekt reflektieren kann. Mit dem Aufkommen von Maschinen und schließlich Computern mit KI steht dieses Welt- und Selbstverständnis nun auf der Probe: Kann es etwas Nichtmenschliches geben, dem derselbe Status zuerkannt werden muss wie dem Menschen? ... Auf Laien dürfte sein Buch fast wie ein überlanger Essay wirken. Vieles darin ist und bleibt These, wiederholt sich, widerspricht sich zuweilen sogar; und auch einige Allgemeinplätze verkneift sich der Autor nicht (»Lithium, Neurotransmitter und Antidepressiva haben das Selbstwertgefühl der Amerikaner erhöht«). Zudem leidet der Text vielfach unter Druckfehlern, die teils sogar sinnentstellend sind; ein Lektorat hat offenbar nur sporadisch stattgefunden. Kurzum: Das Buch gibt sicherlich einen guten, wenn auch sehr spezifischen Einblick in die philosophische Debatte zur KI, kann aber als Einstieg dafür kaum empfohlen werden. ...
https://www.spektrum.de/rezension/buchkritik-zu-roboterbewusstsein-automatisiertes-entscheiden/1767088

-

QuoteA. F. (10/2020)

Das wirklich wahre Leben, die Menschen, die Natur bis hin zum Universum sind weder mit binäre Codes noch algorhythmische Gesetzen verwandt. Künstliche Intelligenz besitzt weder unberechenbare Emotionen noch kann sie moralisch ethisch quasi menschlich korrekt Entscheiden. Künstliche Intelligenz weiss nicht was sie tut und ist daher als künstliche Dummheit besser beschrieben. Dennoch sind diese rahmenbedingt lernfähigen künstlichen neuronalen Netzwerke mathematische Hilfen für viele menschlich definierte Ziele. Das Thema KI wird uns noch lange in allen Perspektiven beschäftigen.


Kommentar zu: Der Mensch ist im Vergleich zur Maschine langsam, verletzlich und endlich. Darin liegt unser Vorteil
Die künstliche Intelligenz kennt keine Müdigkeit und darum auch kein Ende. Weil ihr die natürliche Begrenzung fehlt, bleibt ihr aber auch der Möglichkeitsraum verschlossen.
Philipp Tingler (21.10.2020)
https://www.nzz.ch/feuilleton/der-mensch-hat-dem-roboter-die-endlichkeit-voraus-ld.1580977

Link

"Künstliche Intelligenz Maschinen überwinden Schreibblockade" Peter Littger (Sonntag, 29. November 2020)
Viele Science-Fiction-Geschichten handeln von Robotern mit geistigen Fähigkeiten. Seit diesem Jahr gibt es einen realen Computer, der dem Menschen beachtliche Konkurrenz macht. Er ist so gefährlich, dass seine Entwickler vor ihm gewarnt haben. Sein Name: GPT-3. ... Die Rede ist von einem Rechnersystem, das seit diesem Jahr am Netz ist und GPT-3 genannt wird. Das steht für die dritte Generation eines "Generative Pre-trained Transformer". Im Verständnis von Laien handelt es sich um einen extrem leistungsstarken Computer, der selbstständig Daten erfasst, sie vergleicht und speichert, um damit Programmiercodes und Texte verfassen oder andere komplexe Aufgaben lösen zu können - Aufgaben, die bisher nur der Mensch geschafft hat.  ...
https://www.n-tv.de/panorama/Maschinen-ueberwinden-Schreibblockade-article22201094.html

Generative Pre-trained Transformer 3 (GPT-3) is an autoregressive language model that uses deep learning to produce human-like text. ... Because GPT-3 can "generate news articles which human evaluators have difficulty distinguishing from articles written by humans," GPT-3 has the "potential to advance both the beneficial and harmful applications of language models." ...
https://en.wikipedia.org/wiki/GPT-3

Link

Quote[...] Google hat einen Softwareingenieur freigestellt, der mit zunehmender Vehemenz behauptet hat, dass ein KI-Algorithmus des Konzerns ein Bewusstsein und eine Seele hat. Das berichtet die Washington Post und zitiert dabei auch aus Konversationen zwischen Blake Lemoine und dem Chatbot namens LaMDA. Die hätten den 42-Jährigen davon überzeugt, dass LaMDA mit einem etwa 7- bis 8-jährigen Kind vergleichbar ist.

Weil bei Google niemand diese Überzeugung geteilt hatte, hat Lemoine dem Bericht zufolge Dokumente zu dem Chatbot an einen Abgeordneten im US-Senat übergeben und behauptet, Google diskriminiere seine religiösen Überzeugungen. Einen Tag später habe er vergangene Woche seinen Job verloren. Das Transkript einer Konversation hat Lemoine inzwischen auch veröffentlicht.

LaMDA steht für "Language Model for Dialogue Applications", Google hatte den Algorithmus im vergangenen Jahr auf der Entwicklerkonferenz I/O vorgestellt. Der Algorithmus wurde mit enormen Mengen an Dialogen trainiert, um menschliche Unterhaltungen mit all ihren Nuancen zu simulieren. Google hatte versichert, dass die Antworten auf menschliche Fragen sinnvoll und spezifisch sind. Lemoine geht jetzt darüber hinaus, er arbeitete seit vergangenem Herbst mit der KI und sollte sicherstellen, dass deren Benutzung sicher ist. In vielen Konversationen hat er mit LaMDA dann aber auch über Religion geredet und die KI habe über ihre Rechte und Persönlichkeit geredet. Schließlich habe sie ihn sogar von ihrem Standpunkt zu den Robotergesetzen von Isaac Asimov überzeugt.

Intern hat sich Lemoine dem Bericht zufolge dafür eingesetzt, dass der Konzern künftig die Erlaubnis des Chatbots einholt, bevor mit ihm Experimente durchgeführt werden. Bis in die höchste Führungsebene sei er mit seinen Forderungen vorgedrungen, überzeugen konnte er aber wohl niemanden. Stattdessen hätten sie wiederholt seine Gesundheit infrage gestellt. Die Linguistin Emily Bender von der Universität Washington weist darauf hin, dass wir Maschinen erschaffen haben, die ohne Geist Wörter aneinanderreihen können, aber dass wir nicht gelernt hätten, uns keinen Geist dahinter vorzustellen. Schon die Terminologie wie "Lernen" oder "neurale Netze" erschaffe eine falsche Analogie zum menschlichen Geist.

Ein Googlesprecher gesteht in dem Kontext ein, dass es in jüngerer Zeit vermehrt eine Debatte über ein mögliches Bewusstsein von KI gegeben hat. Dabei gehe es aber um langfristige Entwicklungen, es ergebe keinen Sinn, aktuelle Konversationsmodelle zu vermenschlichen: "Die sind nicht empfindsam." Sie imitierten menschliche Konversationen und würden über so viele Daten verfügen, dass sie kein Bewusstsein bräuchten, um sich real anzufühlen. Für Google ist der Fall nicht die erste Kontroverse rund um KI-Technik. So hatte der Konzern im Streit zwei führende Mitarbeiterinnen des Teams für Ethik Künstlicher Intelligenz entlassen. Lemoine scheint es nun genauso zu ergehen. Laut Washington Post verschickte er vor seiner Beurlaubung ein Dokument mit Konversationen an 200 Angestellte von Google und hat darum gebeten, dass sie sich gut um LaMDA kümmern sollen. Niemand habe geantwortet.


Aus: "Hat Chatbot LaMDA ein Bewusstein entwickelt? Google beurlaubt Angestellten" Martin Holland (13.06.2022)
Quelle: https://www.heise.de/news/Hat-Chatbot-LaMDA-ein-Bewusstein-entwickelt-Google-beurlaubt-Angestellten-7138314.html

QuoteJ.Reuther, 13.06.2022 11:10

Wo ist die Grenze zwischen komplexer Datenverarbeitung und Intelligenz?

Wenn eine KI konstruktiv an einer Diskussion teil nehmen kann, wo ist dann der Unterschied zu einem intelligenten Gesprächsteilnehmer aus Fleisch und Blut?
Wenn sie sich selbst identifizieren kann in Abgrenzung zu anderen Gesprächsteilnehmern, dann ist sie sich in gewisser Weise auch ihrer eigenen Existenz bewusst.
Eine verbleibende Frage ist wohl, was diese KI macht wenn sie gerade nicht mit jemandem kommuniziert. Geht sie dann in einen Standby ohne Datenverarbeitungsaktivitäten oder reflektiert sie, 'träumt' sie, denkt möglicherweise über ihre eigene Existenz nach?

Aus wissenschaftlicher Sicht haben wir Kriterien aufgestellt und Tests erdacht, die wir an Wesen mit Bewusstsein stellen. Ein wichtiges Kriterium für Bewusstsein ist die Fähigkeit zur Selbstwahrnehmung. Das Problem dabei ist, dass diese Kriterien und Tests für lebendige Organismen gedacht sind. z.B. der Spiegel-Test funktioniert mit einer Maschine ohne Bewegungsapparat und optische Sensorik nicht. Auf der anderen Seite können wir Tiere, die den Spiegel-Test bestehen nicht befragen. Wir interpretieren lediglich deren Reaktionen auf ihr eigenes Spiegelbild. Eine KI kann man mit Daten über ihr eigenes Aussehen und Funktionsweise füttern. Ich habe wenig Zweifel, dass eine KI sich daraufhin selbst identifizieren kann wenn sie mit weiteren Informationen über sich selbst konfrontiert wird.

Einen wissenschaftlichen Beleg für die Existenz einer Seele haben wir bisher nirgends finden können. Auch nicht für menschliche Seelen. Wenn wir das Thema religiös angehen dann kann jeder alles behaupten und niemand kann wirklich widerlegt werden. Dann wird Blake Lemoine nur deshalb nicht ernst genommen weil es ihm nicht gelungen ist, genug Anhänger für seine Sichtweise zu gewinnen.


-

Blake Lemoine (2022)
Is LaMDA Sentient? — an Interview
https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

https://www.heise.de/news/Google-bestaetigt-interne-Aenderungen-bei-den-Teams-der-KI-Forschung-5066230.html

https://www.heise.de/news/Chatbot-LaMDA-Google-unterhaelt-sich-mit-einem-Papierflieger-6049337.html

https://www.heise.de/downloads/18/3/5/5/8/4/5/8/is-lamda-sentient-an-interview.pdf

https://www.heise.de/news/Keine-Kuenstliche-Intelligenz-Think-Tank-gegen-Begriffe-wie-Maschinenlernen-7098682.html

-

QuoteJ.Reuther, 13.06.2022 11:10

Wo ist die Grenze zwischen komplexer Datenverarbeitung und Intelligenz?

Wenn eine KI konstruktiv an einer Diskussion teil nehmen kann, wo ist dann der Unterschied zu einem intelligenten Gesprächsteilnehmer aus Fleisch und Blut?
Wenn sie sich selbst identifizieren kann in Abgrenzung zu anderen Gesprächsteilnehmern, dann ist sie sich in gewisser Weise auch ihrer eigenen Existenz bewusst.
Eine verbleibende Frage ist wohl, was diese KI macht wenn sie gerade nicht mit jemandem kommuniziert. Geht sie dann in einen Standby ohne Datenverarbeitungsaktivitäten oder reflektiert sie, 'träumt' sie, denkt möglicherweise über ihre eigene Existenz nach?

Aus wissenschaftlicher Sicht haben wir Kriterien aufgestellt und Tests erdacht, die wir an Wesen mit Bewusstsein stellen. Ein wichtiges Kriterium für Bewusstsein ist die Fähigkeit zur Selbstwahrnehmung. Das Problem dabei ist, dass diese Kriterien und Tests für lebendige Organismen gedacht sind. z.B. der Spiegel-Test funktioniert mit einer Maschine ohne Bewegungsapparat und optische Sensorik nicht. Auf der anderen Seite können wir Tiere, die den Spiegel-Test bestehen nicht befragen. Wir interpretieren lediglich deren Reaktionen auf ihr eigenes Spiegelbild. Eine KI kann man mit Daten über ihr eigenes Aussehen und Funktionsweise füttern. Ich habe wenig Zweifel, dass eine KI sich daraufhin selbst identifizieren kann wenn sie mit weiteren Informationen über sich selbst konfrontiert wird.

Einen wissenschaftlichen Beleg für die Existenz einer Seele haben wir bisher nirgends finden können. Auch nicht für menschliche Seelen. Wenn wir das Thema religiös angehen dann kann jeder alles behaupten und niemand kann wirklich widerlegt werden. Dann wird Blake Lemoine nur deshalb nicht ernst genommen weil es ihm nicht gelungen ist, genug Anhänger für seine Sichtweise zu gewinnen.


...

Link

Quote[...] Neuronale Netze sind parametrisierte und daher im Prinzip allgemeine Funktionsapproximatoren. Wenn die Anzahl ihrer Parameter in die Milliarden geht, verlieren auch die schlauesten Data Scientists die Übersicht, was die Netze an welcher Stelle genau machen. Die Folge davon sind überraschte Menschen, deren Verwunderung über die vermeintliche Blackbox KI verschiedenste Formen annimmt.

Der Google-Mitarbeiter Blake Lemoine ist überrascht, wie selbstreflektiert die Chat-KI LaMDA schreibt und will sie beschützen. Da auf LaMDA nur ein kleiner Teil von Googles eigenen Mitarbeitern Zugriff hat, passt die Geschichte hervorragend ins Narrativ eines Hollywood-Blockbusters: In einem geheimen Labor haben sich zwielichtige Wissenschaftler der Hybris schuldig gemacht und ein geheimnisvolles Wesen erschaffen, das faszinierend und vielleicht sogar gefährlich sein könnte. Und auch wenn dieses Rezept schon zu manch spannendem Film geführt hat, sollte man sich nicht täuschen lassen: Googles KI-Abteilung weiß schon, was sie da gebaut haben. LaMDA ist auch nur ein großer Transformer, der gut schreiben kann. Das muss nicht überraschen, wenn man GPT3 gesehen hat.

Liest man die Chatprotokolle, die Lemoine zu Googles Verdruss veröffentlicht hat, kann man aber dennoch ins Zweifeln kommen. Die Maschine schreibt reflektierter und klarer als viele Menschen, denen wir im Alltag begegnen. Wer sind wir, dem pöbelnden Idioten aus der U-Bahn ein Bewusstsein zuzusprechen, obwohl sein Verhalten alles andere als intelligent ist, und der eloquenten KI die gleiche Ehre zu verwehren?

Diese Frage entlarvt, dass es sich bei Lemoines Verwirrung eigentlich um ein philosophisches Problem handelt: Descartes berühmter Satz "Ich denke, also bin ich" erlaubt uns, der eigenen Existenz sicher zu sein. Wir sind uns also selbst bewusst, haben also ein Bewusstsein. Aber was ist mit allen anderen Menschen? Die sehen uns ähnlich und verhalten sich ähnlich wie wir. Ihnen die gleiche Art Bewusstsein zu unterstellen ist also naheliegend. Es ist aber nicht beweisbar. Oder, um es mit Ludwig Wittgenstein zu sagen: Wir haben gar keine Bedingungen, nach denen wir etwa Maschinen als bewusst bezeichnen können. Selbst wenn eine Maschine Bewusstsein hätte, können wir es nicht feststellen, weil wir der Begriff vom Bewusstsein nicht ausreichend definiert haben. Also machen wir unsere Annahme am Verhalten fest und sparen uns eine klare Grenze einzuziehen, die bewusstes Leben von unbewussten Dingen trennt.

Aber um genau diesen Grenzverlauf geht die Auseinandersetzung zwischen Lemoine und seinem Arbeitgeber: Lemoine hat nur seine Außenansicht auf Bewusstsein auf das Ding LaMDA angewendet. Dabei kam er nicht umhin, die KI in die gleiche Gruppe wie seine Mitmenschen zu stecken. Googles KI-Experten wissen aber genau, wie LaMDAs Formulierungen entstehen und sehen nicht ein, das Ding weniger als Ding zu betrachten, nur weil es ein besseres Werkzeug ist.

Das Problem ist, dass dem Wissen der KI-Experten eine große Wissenslücke gegenübersteht: Wie funktioniert eigentlich menschliches Denken? Ein Menschengehirn hat mehrere Größenordnungen mehr Synaspsen, als die bisher größten KI-Modelle simulieren. Entsprechend wenig Übersicht hat die Hirnforschung über die Vorgänge, die in einem Menschenkopf stattfinden. Wir gehen davon aus, dass dort etwas entscheidend tolleres passiert, als in einem Tiergehirn oder einem simulierten neuronalen Netz. Aber eigentlich wissen wir weder, ob überhaupt etwas strukturell anderes passiert noch was diese entscheidende Fähigkeit genau ausmacht. Neuronale Netze machen ,,nur" vollautomatische Statistik und liegen damit bei manchen Anwendungen jetzt schon häufiger richtig als Menschen. Was wäre, wenn Descartes Denken auch nicht mehr beweist, als dass seine automatische Statistik den berühmten Satz am passendsten fand?

Google hat Blake Lemoine beurlaubt, weil er Geheimhaltungspflichten seines Vertrags missachtet hat. Das Internet hat sich eine Hollywood-Story darüber zurechtgelegt. Descartes wollte sich sicher sein, dass er existiert. Und wir? Wir sollten die Gelegenheit nutzen, unser eigenes Denken besser zu verstehen. Das Bedürfnis, die Vorgänge im eigenen Kopf als besonders zu empfinden, scheint bei allen Menschen aus allen Kulturen zu bestehen. Aber wenn wir eine Grenze ziehen wollen, dann sollten wir auch wissen, wo sie verläuft. Ich persönlich habe eine Vermutung: Es hat mit dem Einziehen von Grenzen zu tun, wo die Welt uns eigentlich ein Kontinuum präsentiert. Irgendwie bringen uns diese Grenzen weiter, sonst wären wir als Menschheit nicht so weit gekommen. Aber sie können auch Fehler in unsere automatische Statistik bringen. Und wenn wir die Grenzen unterschiedlich ziehen, entstehen Konflikte. Bei so einem Konflikt verliert dann auch mal jemand seinen Job. ,,Ich entlasse, also bin ich." - Descartes wäre begeistert.

(pmk)


Aus: "LaMDA, KI und Bewusstsein: Blake Lemoine, wir müssen philosophieren!" Pina Merkert (22.06.2022)
Quelle: https://www.heise.de/meinung/LaMDA-KI-und-Bewusstsein-Blake-Lemoine-wir-muessen-philosophieren-7147946.html

-

Kontext: Consciousness is Not a Computation (Roger Penrose) | AI Podcast Clips [04.04.2020]
https://youtu.be/hXgqik6HXc0

Sir Roger Penrose OM (* 8. August 1931 in Colchester, Essex) ist ein britischer Mathematiker und theoretischer Physiker.
https://de.wikipedia.org/wiki/Roger_Penrose

Link

Künstliche Intelligenz: Deepfake-Expertin Nina Schick: "Jede Identität ist heute gefährdet"
Die IT-Expertin spricht anlässlich der "Fake-Klitschko"-Anrufe über die gefährliche Seite der KI-Revolution. Und darüber, wie sich unser Kulturkonsum wandeln wird
Interview Stefan Weiss (1. Juli 2022)
... Künstliche Intelligenz wird die menschliche Realitätswahrnehmung verzerren, weil sie schon sehr bald dafür eingesetzt werden wird, jeden beliebigen digitalen Inhalt zu kreieren. Die Menschen werden nicht mehr zwischen künstlichen und authentischen Medien unterscheiden können. Künstlich generierte Inhalte werden allgegenwärtig sein. ... Ich bin überzeugt davon, dass KI-kreierte Digitalinhalte zur Norm werden. Das wird unseren Kulturkonsum von "authentischen" Inhalten radikal verändern. ...
https://www.derstandard.at/story/2000137059050/deepfake-expertin-nina-schick-jede-identitaet-ist-heute-gefaehrdet


Link

"Interview: "Wir haben keine konsistente Theorie darüber, was genau Bewusstsein ist"" Daniela Wakonigg (16.09.2022)
Künstliche Intelligenz wird immer menschenähnlicher. Oder erzeugt wenigstens diesen Eindruck. Bekannt wurde in diesem Sommer der Fall des Google-Mitarbeiters Blake Lemoine, der seine Kündigung erhielt, nachdem er erklärt hatte, dass das Chatbot-System LaMDA ein künstliches Bewusstsein entwickelt habe. hpd-Redakteurin Daniela Wakonigg sprach mit dem Philosophen und Kognitionsforscher Thomas Metzinger über erkenntnistheoretische und ethische Probleme rund um das Thema "künstliches Bewusstsein". ...
https://hpd.de/artikel/wir-haben-keine-konsistente-theorie-darueber-genau-bewusstsein-20671

Link

"Wie "Fiktosexuelle" Beziehungen mit virtuellen Figuren führen" Adrian Lobe (3. Oktober 2022)
Es gibt Menschen, die tatsächlich Beziehungen mit Hologrammen, virtuellen Avataren und smarten Assistentinnen führen. ... Die Maschinenliebe werde am Ende aber eine Illusion bleiben, glaubt Ethiker Bendel. "Eine Illusion ist etwas Wunderbares, wenn man sie für eine Weile genießen und sich aus ihr wieder lösen kann. ... Wenn Computer "herumzicken", können ganz neue Beziehungsprobleme entstehen. So konnte Akihiko Kondo zeitweise nicht mehr mit seiner Hologramm-Ehefrau sprechen. Der Support für das Gerät war ausgelaufen. Auch eine Kunstfigur kann einen ghosten. ...
https://www.derstandard.at/story/2000139588807/wie-fiktosexuelle-beziehungen-mit-virtuellen-figuren-fuehren