"Künstliche emotionale Intelligenz - Das richtige Gefühl" Eva Wolfangel (23.05.2018)
Roboter mit Emotionen können komplexe Aufgaben besser meistern. Forscher sind davon überzeugt, dass sich Emotion und Kognition nicht trennen lassen. ... Ein Roboter, der Angst hat oder Stress empfindet: Auf den ersten Blick erscheint das absurd und unnötig. Hemmen uns diese Gefühle nicht? Verhindern sie nicht, dass wir unsere Ziele erreichen? Warum sollte man so etwas in einen Roboter implementieren wollen? Erst bei genauerem Hinsehen wird klar, wie nützlich Emotionen für kognitive Prozesse sind.
Marvin Minsky hat bereits 1986 darauf hingewiesen, dass Emotionen wichtig sind für künstliche Intelligenz, und zwar nicht, um möglichst menschenähnlich zu werden, sondern um komplexe Aufgaben besser bewältigen zu können. »Emotionen sind andere Wege zu denken«, schrieb er schließlich 2006 in seinem Buch »The Emotion Machine«. Sein einleuchtendes Argument: Programme voller Vorgaben für jede Eventualität werden zu komplex, während Emotionen häufig auf einem anderen Weg zur »richtigen« oder ökonomischen Verhaltensweise führen.
Schließlich denken wir Menschen in bestimmten Situationen auch nicht nach, sondern handeln – weil es nötig ist. ...
Beispielsweise verändert sich unsere Wahrnehmung, wenn wir in Gefahr sind oder uns in Gefahr vermuten: Wir sehen die potenzielle Bedrohung größer, wir meiden dunkle Ecken instinktiv, gehen Menschen aus dem Weg, die aggressiv oder bedrohlich wirken. ...
Nicht zuletzt ist eines von Broekens Zielen also auch, die Mensch-Roboter-Interaktion zu erleichtern. Allerdings nicht, indem Roboter nett lächeln und sympathisch wirken, sondern damit sie für Menschen berechenbar werden – und andersherum. »Es ist nicht schlecht, die Absichten von jemandem zu erahnen – bevor er dich haut.« ...
https://www.spektrum.de/news/emotionen-perfektionieren-kuenstliche-intelligenz/1566366----
"Meinungsfreiheit: Die Würde des Roboters ist antastbar" Patrick Spät (9. Juni 2018)
In Kalifornien wird ein Gesetzentwurf debattiert, der die Kennzeichnung von Bots im Netz verlangt. Die Frage dahinter lautet: Haben Maschinen ein Recht auf freie Rede? ... Bots, also Computerprogramme, die ohne Zutun von Menschen tagtäglich Abertausende Beiträge insbesondere auf Twitter und Facebook posten, sind alles andere als harmlos. Sie dienen zum Beispiel der Verbreitung von Fake News oder sollen gezielt die Wirkung bestimmter politischer Botschaften verstärken. Während des US-Wahlkampfs 2016 etwa verschickten russische Bots 469.000 Retweets von Donald Trumps offiziellem Account auf Twitter. Momentan hat der US-Präsident dort 52,5 Millionen Follower, mehr als ein Viertel davon aber sind nicht aus Fleisch und Blut, sondern Algorithmen. Sie sind potentiell zugleich ein robotisch klatschendes Scheinpublikum, maschinelle Weitererzähler und automatisierte Fabulierer. Und die meisten von ihnen lassen sich nicht ohne weiteres als Bots erkennen.
"Diese Bots können den Nachrichten, die sie verbreiten, eine falsche Glaubwürdigkeit verleihen, indem sie koordinierte Fake-Nachrichten in die Welt setzen", sagt der US-Politiker Robert Hertzberg, der für die Demokraten im State Senate von Kalifornien sitzt, also in einer der beiden Kammern des dortigen Landesparlaments. Man müsse als Mensch wissen, ob man im Netz mit anderen Menschen debattiere oder mit Maschinen, die sich als solche nicht zu erkennen geben, sagt Hertzberg.
Er hat deshalb den Gesetzentwurf mit dem Kürzel SB 1001 im Senat von Kalifornien eingebracht, der künftig das Programmieren von Bots untersagen soll, die sich als natürliche Person ausgeben und somit Menschen gezielt über ihre künstliche Existenz hinwegtäuschen. Auf Hinweis von Nutzerinnen und Nutzern müssten Social-Media-Plattformen wie Facebook und Twitter binnen 72 Stunden etwa mutmaßliche Bot-Profile überprüfen und als solche kennzeichnen.
... Obwohl die Regelungen lediglich für diesen einen US-Bundesstaat gelten würden, könnte SB 1001 weltweit Signalwirkung haben – schließlich geht es um Kalifornien, die Heimat der Tech-Industrie. Das Gesetz beträfe dort ansässige Unternehmen wie Facebook, Twitter, Google, Apple und Microsoft unmittelbar.
... Die Frage danach, ob Algorithmen eigene Rechte zukommen sollen oder nicht, hat aber noch weitreichendere Folgen: Es gibt inzwischen Dutzende Kriminalfälle, in denen das FBI Smartphones oder verschlüsselte Messenger-Nachrichten knacken oder die Audiodaten von Amazons Alexa auswerten will. In ihrer Ablehnung dagegen berufen sich Technologiekonzerne vor Gericht meist auf den ersten Zusatzartikel. Ausschlaggebend sei dabei nicht, dass ein Mensch schreibt oder spricht, sondern dass bereits der verschlüsselte Quellcode im Gerät an sich geschützt ist, weil auch für diesen die freedom of speech gelte. ...
Nathalie Nevejans, Jura-Dozentin an der französischen Universität Artois und Expertin für Roboterethik bei der Forschungsorganisation CNRS, wirft den EU-Abgeordneten vor, dass deren Vorstellung von Robotern verzerrt sei durch Science-Fiction. Damit ein Roboter als Person gelten könne, "müsste er ein Gewissen, eine Seele oder die Fähigkeit haben, Emotionen zu fühlen. Und das ist aus technischer Sicht gegenwärtig völlig undenkbar. Solche Gesetze laufen Gefahr, Menschen und Roboter in einen Topf zu werfen", sagt Nevejans gegenüber ZEIT ONLINE.
Dennoch bleibt die Frage, ob es nicht doch irgendeiner gesetzlichen Regulierung bedarf. Oder ob Selbstverpflichtungen von Unternehmen ausreichen. So hat beispielsweise Google versprochen, die geplante Sprach-KI Duplex, die auf Befehl hin Telefonanrufe für ihre menschlichen Nutzer erledigen kann, als solche zu Beginn jedes Gesprächs anzukündigen. Die Zusicherung war offenkundig Googles Reaktion auf das allgemeine Entsetzen, das vor einigen Wochen der ersten Präsentation von Duplex folgte: Die Stimme von Duplex klingt nicht nur menschlich, ihre KI benutzt auch äußerst menschliche Ticks wie "Äh" und "Hmmm", um noch authentischer zu klingen und sich zugleich Rechenzeit für die nächste Frage oder Antwort am Telefon zu verschaffen. ...
Ein Bot mag über alles mögliche twittern können. Doch er weiß ganz buchstäblich nicht, wovon er redet. ...
https://www.zeit.de/digital/2018-06/meinungsfreiheit-social-bots-kalifornien-gesetz-kennzeichnung/komplettansicht Simplicio #3
" Auch die klügste Maschine hat kein Bewusstsein, sie simuliert es nur"
Eben. Daraus ergibt sich alles andere.
Leser00 #3.1
Das ist Unsinn. Ich könnte auch behaupten, selbst der klügste Mensch hat kein Bewusstsein, er simuliert es nur. (Und damit z.B Genozid an Menschen rechtfertigen)
Die Alternative zur Alternative #3.2
Viele Menschen simulieren auch nur ein intelligentes Ich.
Shenia #17
KI wird trainiert und kann vorgegebene Konstrukte selbstständig entwickeln. Aber egal wieviele Simulationen sie entwickelt, es geht dabei um die Quantität und eine hoehere Stufe, nämlich ein Bewusstsein als ein neues Qualitätsmerkmal kann sie gar nicht erlangen. Dafür braucht man die Vorstellungskraft und Fantasie, aber die macht ihre Aufgaben wie ein Bürokrat, ohne sich Fragen zu stellen, welchen Sinn und Zweck dient das Ganze. Und mit der Suche nach dem Antwort wird sie überfordert, weil sie versteht nicht die Komplexität unseren Welt.
Passionsefeu #22
Bots haben keine Meinung, schon gar keine eigene.
Sie tun lediglich, worauf sie von ihren Programmierern eingestellt wurden. Wenn sie gut gemacht sind, fällt das den unbedarfteren Menschen nicht auf.
Jedenfalls: etwas, was keine eigene Meinung haben kann, braucht auch keine Meinungsfreiheit.
recht und gerechtigkeit #25
Kann der Programmierer juristisch belangt werden, wenn sein Bot strafbare Beiträge schreibt?
...