Problematisch wird es spätestens an dem Punkt, wo die KI in einer (eigenen) Sprache kommuniziert, die vom Menschen nicht mehr verstanden bzw. nachvollzogen werden und somit auch ausser Kontrolle geraten kann.

Das dann die Abschaltung des Computersystems auch keine Lösung mehr bietet, lässt aufhorchen und sollte mehr als nachdenklich stimmen.

Die rasant fortschreitende Transhumanisierung und die sich parallel dazu entwickelnde KI in kombinierter Form ist so erschreckend wie faszinierend gleichermassen und es wird sich zeigen, wie es die künftigen Generationen des Homo digitalis gestalten und beeinflussen und wie es von diesem eingesetzt wird.

Der Aufruf zu einer minimalen Regulierung diesbezüglich ist durchaus mehr als gerechtfertigt.
Wenn wir über KI sprechen, so reden wir über „Intelligenz“. Was aber ist Intelligenz eigentlich? Da es hierfür keine anerkannte Definition gibt, gilt gewöhnlich: Intelligenz ist das, was ein Intelligenztest misst (der in der Regel auf weiße Nordeuropäer/Nordamerikaner zugeschnitten ist). Beim Menschen also wissen wir schon nicht wovon wir eigentlich reden und durch die Übertragung auf Computer wird es nicht besser sondern noch komplexer.
Wie gehen wir also mit der Frage in Bezug auf Computer um? Ein weitestgehend anerkanntes Verfahren ist der Turing-Test. Was wird damit getestet? Es wird NICHT getestet, ob die Denkfähigkeit einer Maschine mit der des Menschen vergleichbar ist. Das Ergebnis lautet: Kann eine Maschine in einem Frage-Antwort-Spiel mit einem Menschen diesen darüber täuschen, dass sie kein Mensch ist? Kann sie also erfolgreich „Mensch“ spielen? Wenn eine Maschine dies könne, dann sei sie – so die Ansicht von A. Turing – zumindest für den Menschen, den sie täuschen konnte, nicht unterscheidbar von einem denkenden Wesen.
Grundlage für den Test war das sogenannte „Imitation-Game“. In diesem Spiel ging es darum, dass eine Person eine andere Person über ihre Geschlechtszugehörigkeit zu täuschen versucht. Die Regeln des Spiels lauten folgendermaßen: Mitspielende Personen sind:
• 1 FragestellerIn (Person C),
• 1 Person (Person A), die den/die FragestellerIn zu täuschen versucht,
• 1 Person (Person B), die den/die FragestellerIn unterstützt.
Person C sieht, hört usw. die Personen A und B nicht. A und B sind verschiedenen Geschlechts. Sagen wir, Person A sei eine Frau, Person B ein Mann. C weiß nicht, wer die Frau und wer der Mann ist. C soll dies durch Fragen herausbekommen. Beide Personen versuchen nun, C davon zu überzeugen, dass sie der Mann (oder die Frau) sind. Das heißt: A lügt und B sagt die Wahrheit (bzw. umgekehrt, wenn es darum geht, herauszubekommen, wer die Frau ist). Die Kommunikation zwischen C auf der einen sowie A und B auf der anderen Seite muss so erfolgen, dass C aus nichts anderem als aus dem Inhalt der Antworten seine Rückschlüsse auf die Identität der Antwortenden ziehen kann. Am besten sitzen C und A/B in getrennten Räumen, die Antworten werden schriftlich formuliert und durch eine vierte Person übermittelt. Das Geschlecht von C soll nach Turings Angaben keine Rolle spielen. Turing hat dieses Spiel, in dem es um die Frage geht: Welche der beiden Personen A und B ist die Frau, welche der Mann. Übertragen auf den Test: Welcher der beiden Kommunikationspartner ist der Mensch, welcher der Computer? Bisher hat diesen Test noch kein Computer bestanden!
Selbstverständlich gibt es eine weitgefächerte Diskussion zum Test bzgl. Fragestellung, Bedeutung des Ergebnisses etc. Eine genauere Betrachtung führt hier zu weit. Ein vieldiskutierter Ansatz in diesem Kontext ist „Das Chinesische Zimmer“. Damit soll dargestellt werden, dass ein „Zimmer“ den Turing-Test bestehen kann. Kann es dann ebenso gut denken wie ein Mensch? Eine kurze Beschreibung des „Zimmers“ und ein Video
http://www.informatik.uni-oldenburg.de/ ... _Room.html
https://youtu.be/D0MD4sRHj1M

Die größte Gefahr der KI ist sicherlich die fehlgeleitete Nutzung – damit ist nicht allein das Militär gemeint. Ein weiteres Gefährdungspotential ist im sozialen Bereich der Gesellschaft zu finden: die Entmenschlichung der Intelligenz.
Schauen wir uns um in unserer Gesellschaft: Der Leistung gilt das Interesse, nicht dem Menschen, der sie erbringt. Überall, vor allem im Berufsleben, werden Menschen doch danach beurteilt und behandelt, als wie leistungsfähig sie sich erweisen im Hinblick auf Leistungsnormen, die man ganz bewusst aufstellt „ohne Ansehen der Person“. Dementsprechend wird in zunehmendem Maße die intellektuelle Leistungsfähigkeit von Menschen mit der von Computern verglichen. Die Ersetzung geistiger Arbeit durch die „Künstliche Intelligenz“ von Maschinen wird sicher weiter voranschreiten. Damit wird auch die „Intelligenz“ von Maschinen zunehmend zum Maß für die Beurteilung menschlicher Intelligenz, und der menschliche Intellekt wird in zunehmendem Maße als „defizitär“, als mangelhaft eingestuft werden. Und wie für leistungsschwache Personen im Vergleich mit „normal“ leistungsfähigen Mitbewerbern ihre Individualität einzig als Quelle von Zurückgebliebenheit in Betracht genommen wird, so droht im Vergleich mit der Künstlichen Intelligenz das Menschliche im allgemeinen nur noch als Quelle von Intelligenzdefiziten zu erscheinen. Die Gefahr einer Entmenschlichung der Intelligenz geht natürlich nicht von den Computersystemen selbst aus, sondern von den Menschen. Sie vergessen über dem Leistungsprinzip, dass Leistung den Menschen zugutekommen muss und dass deshalb niemals die Leistung höher bewertet werden darf als der Mensch, der sie erbringt.
@Adimus - sehe ich genauso
Das dann die Abschaltung des Computersystems auch keine Lösung mehr bietet, lässt aufhorchen und sollte mehr als nachdenklich stimmen.

Im März 2017 veröffentlichte das Start-up OpenAI (Non-Profit-Organisation, die sich mit der Erforschung von künstlicher Intelligenz beschäftigt) eine Studie, in der sie eine KI dazu bringen wollten, eine eigene Sprache zu lernen, damit sollte sie effektiver arbeiten.
Ziel sollte sein, dass sie eines Tages mit einem menschlichen Gegenüber verhandelt. Die Forscher beendeten das Experiment vorfristig, nicht aus Angst, sondern wegen ihrer fehlerhaften Anweisungen. Die Forscher hatten es versäumt, die KI zu belohnen, wenn sie reguläre englische Sätze benutzt, also begann sie, davon abzuweichen.
Beunruhigend war aber eine ganz andere Entdeckung. Es gelang der KI, die eigenen Ziele zu verschleiern, indem sie dem Gesprächspartner vorgab, an einem Objekt nicht interessiert zu sein, nur um es später doch zu bekommen. Die KI hatte gelernt zu lügen.
Aber.......wer lügen kann, kann sich bald auch Dinge einbilden und wer sich Dinge einbilden kann, kann Illusionen verfallen. Wer Illusionen verfällt, kann sich für Mensch und Gott halten. Eine spannende Sache, also mal der philosophische Aspekt dahinter gesehen. :wink:
Und noch eins, bei der Arbeit an neurolanen Netzwerken gibt es ein weiteres interessantes Dilemmata, wird sie nur auf Effizienz erzogen und wird einer KI der Befehl gegeben,
Spam zu reduzieren. Dann wird für sie die effizienteste Lösung sein, die spamverursachende Variablen auszuschalten - effizienteste Lösung dieses Problem ist in diesem Fall der Mensch.
Solche Denkweisen sind durchaus auch bei Menschen vorgekommen und haben bereits Millionen Menschenleben gekostet.
Insofern ist es kein Problem von KI, sondern von Macht und Kontrolle.

@Dick
Wenn wir über KI sprechen, so reden wir über „Intelligenz“. Was aber ist Intelligenz eigentlich?

Intelligenz ist ein weiter Begriff, besonders die menschliche Intelligenz zeichnet sich dadurch aus, dass sie von emotionaler Intelligenz bis zur Logik sehr breit aufgestellt ist.

Die Frage scheint derzeit eher zu sein, was unseren Alltag früher erreichen wird: Maschinen, die ohne Bewusstsein furchteinflössend clevere Entscheidungen treffen können oder solche, die ziemlich dumm, aber so niedlich sind, dass wir sie als liebenswerte Mitbewohner akzeptieren.

Der Philosoph Rene Descartes überlegte bereits vor 400 Jahren in seinem "Discours de la Methode“, wie man Maschinen mit menschlichen Äußerem von einem echten Menschen unterscheiden könnte. Descartes nannte zwei Methoden, den Sprachtest und den
Handlungstest,wobei die den Maschinen fehlende Vernunft der Grund für das Nichtbestehen des Tests sei.
Und auch Turing meinte, ob eine Maschine denken kann oder nicht, müssten wir auf der Ebene sprachlicher Äußerungen entscheiden. Wenn eine Testperson einem unbekannten Gesprächspartner X Fragen stellt und nicht entscheiden kann, ob die Antworten von einer Maschine oder einem Menschen kommen, dann müsse man X eigentlich Denkfähigkeit zubilligen. :wink:
Das heißt natürlich nicht, dass Maschinen im menschlichen Sinn denken können, dass heißt lediglich, dass sie ein Verhalten zeigen, das sich auf der Ebene textueller Interaktion von menschlichem Verhalten kaum mehr unterscheiden lässt.

Eins ist klar, die Entwicklung der KI macht rasante Fortschritte dank lernender Algorithmen und neuronaler Netze. Manche Forscher glauben, die richtige KI nur noch Jahrzehnte entfernt. 
In der Tat unterscheidet auch die Forschung zwischen „Starker KI“, dies ist die Form der künstlichen Intelligenz, die die gleichen intellektuellen Fertigkeiten wie der Mensch haben soll (oder ihn gar übertreffen), und „Schwacher KI“, die sich in bestimmten Anwendungsdomänen wie Expertensystemen, Mustererkennung etc. bewegt. Dies mag für eine unserer Folgegenerationen auch einmal ein großes Problem werden. Aber was trifft uns jetzt?
Es gibt viele sehr nützliche und hilfreiche Anwendungen. Aber es gibt auch große ganz konkret existierende Gefahren. Hierzu zwei Beispiele:

1. Industrielle Automatisierung:
Studien zeigen, dass ca. 40% der Arbeitsplätze automatisierbar sind, branchenspezifisch noch deutlich mehr.
https://www.haufe.de/personal/hr-manage ... 07926.html
Automatisierung heißt hier, unter Einsatz von KI; die „einfache“ computergesteuerte Automatisierung ist schon Standard. In den USA wurde konkret nachgezählt für 1990 – 2007. Pro Roboter verlieren 6,2 Arbeiter ihren Arbeitsplatz. Die Stellenverluste betreffen vor allem eine Gruppe: mittelmäßig gebildete Männer. Bisher gehörten die Menschen ohne Ausbildung zu den „Dauerarbeitslosen“, nun ist die nächste Schicht an der Reihe. (Nebenbemerkung: Das sind genau die Arbeiter, die in Amerika immer unzufriedener wurden und entscheidend dafür waren, dass Donald Trump Präsident wurde. Bei uns ist das Potential noch nicht wirklich kanalisiert – wir dürfen aber guter Hoffnung sein, die schönsten Ansätze sehen wir ja schon.).

2. Autonome Waffensysteme
Neben den Profiteuren in der Industrie ist der militärisch-industrielle Komplex einer der Hauptnutznießer der KI-Entwicklung. Die Öffentlichkeit diskutiert noch über die Zulassung gesteuerter Drohnen – das war doch gestern! Das Militär baut doch schon die KI-Geschwader; wir dürfen ohnehin nur noch zustimmen!
https://www.heise.de/newsticker/meldung ... 92802.html

Und natürlich die Roboter:
https://www.youtube.com/watch?v=xtE9hpwrDg4
Der militärische Bruder SGR-A1 steht schon an der Grenz wacht, dieser geht bald in die Massenproduktion. Die Spitzenmodelle zeigen sie uns nicht.
Demnächst werden WIR also Maschinen über Leben und Tod unserer Mitmenschen entscheiden lassen!
Die Entwicklung birgt erhebliche soziale Sprengkraft. Der Mensch muss ja konkurrenzfähig mit der Maschine bleiben. Das schafft er nur, wenn er ähnlich produktiv ist, also entweder schneller und / oder billiger wird. Daher drückt die höhere Produktivität von Maschinen / Robotern natürlich die Löhne oder verdrängt den Menschen komplett.
Eigentlich müsste man sich mit diesen Auswirkungen mehr befassen. Statt dessen sieht man Herrn Lindner im Werbespott in treuherziger Naivität mit Amazons Alexa plaudern. Die aktuelle, sich beschleunigende Entwicklung ist in der Tat atemberaubend und sehr gefährlich. Uns geht es einfach noch zu gut. Ohne den Abgrund direkt ins Auge zu schauen, bewegt sich hierzulande niemand.

Eigentlich gibt es nur einen Ausweg - und das ist die Bildung. Seit Jahren wird darüber debattiert, aber man hängt immer noch am alten Bildungssystem und misst mit den untauglichen PISA-Zahlen nur einen kleinen Teil der Bildung. Dabei wird diese industrielle Bildung, welche sich ausschließlich auf fachliche Aspekte fokussiert, immer weniger wichtig.
Mal reinschauen, Bildung der Zukunft oder Kopfreform? von Gunter Dueck, welchen er im Rahmen der SWR Tele-Akademie 2016 gehalten hat. Ein rein fachliches Wissen reicht nicht mehr aus. Man muss viele Dinge lernen, die heute weder in der Schule, noch im Studium vorkommen. es darf nicht sein, dass wir uns in den wichtigen Bereichen, z.B. Empathie, Kreativität und Selbstverantwortung auf die wenigen Naturtalente verlassen.
https://www.youtube.com/watch?v=gI_zKqodcP0

An Waffensysteme arbeitet jedes Land, man hat den Eindruck es findet ein Wettrüsten von Kampfmaschinen statt.
Ein Video zeigt die neueste Schöpfung aus russischen Militärlaboren. Doch laut Kreml gibt es keinen Grund zur Sorge, denn der kleine Terminator kann noch so viel mehr als ballern.
Der Clip zeigt die neueste KI-Kreation aus den Forschungslaboren der Kreml-Armee, die am 13. April der Weltöffentlichkeit auf Twitter vorgestellt wurde.
https://twitter.com/twitter/statuses/928331509936910342
(beim Video den Lautsprecher einschalten)

Um 2060 ist dann die posthumane Phase erreicht. Dann werden Menschen zu Wesen, „deren Fähigkeiten die von uns Heutigen so radikal übersteigen, dass sie, gemessen an unseren gegenwärtigen Standards, nicht länger eindeutig Menschen sind“, prognostiziert der schwedische Philosoph Nick Bostrom.
Mit Computerchip im Hirn von Mensch zu Cyborg. In den USA forscht man an Implantaten, die mit dem zentralen Nervensystem verbunden sind.
Ziel ist die Behandlung zahlreicher Krankheiten...........wirklich nur Krankheiten .
Ein ähnliches Szenario entwarf auch der Ingenieur Hans Moravec. Der gebürtige Österreicher leitete das Mobile Robot Laboratory der Carnegie Mellon University in Pittsburgh. In den 90-er Jahren machten seine Thesen über das Ende der Menschheit Schlagzeilen. Sie soll durch intelligente Roboter abgelöst werden, die sie selbst geschaffen hat. Diese Maschinen, glaubt Moravec, könnten eine eigene Evolution starten und sich dabei selbst vervollkommnen.
Horror - Science-Fiction oder Zukunft 8)
@Sumsum
Hollywoods Star Wars lässt grüssen… 8) Vielleicht gucken die Cyborgs zur Entspannung dann 'nostalgische' Naturfilme um der digitalen 'Wirklichkeit' zu entfliehen? :wink:

Na ja – wenn der Kreml sagt ''kein Grund zur Sorge'', da können wir ja beruhigt (weiter)schlafen...


Sumsum sagt: ''Die Entwicklung birgt erhebliche soziale Sprengkraft. Der Mensch muss ja konkurrenzfähig mit der Maschine bleiben. Das schafft er nur, wenn er ähnlich produktiv ist, also entweder schneller und / oder billiger wird. Daher drückt die höhere Produktivität von Maschinen / Robotern natürlich die Löhne oder verdrängt den Menschen komplett.''

Pizzaservice per Mini-Drohne ans Bett, Haustier-Roboter für Streicheleinheiten, Unterhaltung mit 'Alexa'? Ja – so wird uns der Lebensabend 2.0 schmackhaft gemacht...

In Kalifornien und Japan wird dies und vieles mehr bereits im Alltag erprobt und zeigt den weltweiten Trend der nahen Zukunft auf, hauptsächlich mit der Begründung um u.a. der Ueberalterung der Bevölkerung sowie dem steigenden Personalnotstand zu begegnen:

''Den Mehraufwand für immer mehr Menschen, die immer länger leben und immer häufiger an chronischen Erkrankungen leiden, können weder das bestehende Gesundheitswesen noch der Arbeitsmarkt verkraften. «Automation» heisst das Zauberwort, das Millionen sozialer Roboter wie elektronische Robben und Hunde oder kräftige Roboterpfleger heraufbeschwört, die bettlägerige Senioren heben, baden und umbetten, ohne sich je über Stundenlohn oder Rückenschmerzen zu beklagen.''

http://folio.nzz.ch/2017/november/dienstbare-geister

Dies mag ja alles nützlich und sinnvoll erscheinen – aber wo sind die Grenzen und wer setzt diese?
Nicht übel, ich nehme dann später ein Avatar von Britney Spears als Pflegerin. :lol:
@Adimus
Dies mag ja alles nützlich und sinnvoll erscheinen – aber wo sind die Grenzen und wer setzt diese?

Noch befindet sich die Entwicklung von Robotern in der Pflege ganz am Anfang. Nicht Einsparung von Kosten und Personal sollte das Ziel sein, sondern die Verbesserung der Lebensqualität. Vor allem für Menschen mit Behinderung, die das Bedürfnis nach größerer Unabhängigkeit haben, da kann ich mir den Nutzen von Robotern sehr gut vorstellen.

Der Roboter mit dem Waschlappen in der Hand ist hoffentlich noch ganz weit weg. Ethisch problematisch wird es, wenn die Technik an die Stelle der persönlichen Zuwendung tritt. Technik darf menschliche Zuwendung nicht ersetzen. Ich empfinde den Einsatz von Robotern zur Pflege von Menschen als unwürdig. Sollte es jemals dazu kommen, dass Roboter zur Beaufsichtigung und Befriedigung der körperlichen Bedürfnisse von pflegebedürftigen Menschen eingesetzt werden, dürfte das das Ende unserer Kultur bedeuten.
Wessen Fantasie nicht ausreicht, um sich die vollautomatisierte Pflegeeinrichtung im Jahre X vorzustellen, dem empfehle ich den Film "2030 – Aufbruch der Alten“.
Da geht die Fantasie sogar noch einen Schritt weiter.
https://www.youtube.com/watch?v=48Bw7veUQo4

Das Gefühl von Glück und Sinn des Lebens stellt sich durch ganz andere Dinge ein, die meist gerade nicht durch Geld zu bekommen sind. Echte menschliche warme Beziehungen z. B. Liebe, Verlässlichkeit, auch: das Quentchen Bereitschaft, zugunsten des Schwächeren zu verzichten statt für sich zu verlangen.
Die Zukunft könnte im Anwachsen von Selbsthilfe liegen. Das klingt zwar romantischer, als es ist, erfordert das Glück, dass man sich findet, aber das alles gibt es bereits und ist menschlich überzeugender als die Helferindustrie mit ihren Angeboten, die ja, meist unerwähnt, Rendite bringen soll, als Nebenprodukt eines riesigen Marktes.
roadrunner27 hat geschrieben: Nicht übel, ich nehme dann später ein Avatar von Britney Spears als Pflegerin. :lol:

:lol: :lol: ...also mir wäre das Original dann doch lieber :lol:



@Sumsum

Der 'Aufstand der Alten' wird ja hoffentlich Fiktion bleiben, aber so wie es derzeitig aussieht, können solche und ähnliche Szenarien durchaus bald eintreffen und wir sind schon erschreckend nahe daran, wenn man die gegenwärtige Wirklichkeit betrachtet.

Der Mensch wird ja schon heute lediglich als 'Human Resource' gehandelt, 'gemanaged' und letztendlich 'outgesourced'. Es gab mal Zeiten da hiess das 'Human Resource Management' noch 'Personaldienst'. Ein kleiner aber feiner Unterschied.

Ganz wird man sich dieser Entwicklung wohl kaum entziehen können, da die politischen und wirtschaftlichen Interessen dahinter viel zu gross sind.

''Das Gefühl von Glück und Sinn des Lebens stellt sich durch ganz andere Dinge ein, die meist gerade nicht durch Geld zu bekommen sind. Echte menschliche warme Beziehungen z. B. Liebe, Verlässlichkeit, auch: das Quentchen Bereitschaft, zugunsten des Schwächeren zu verzichten statt für sich zu verlangen.
Die Zukunft könnte im Anwachsen von Selbsthilfe liegen. Das klingt zwar romantischer, als es ist, erfordert das Glück, dass man sich findet, aber das alles gibt es bereits und ist menschlich überzeugender als die Helferindustrie mit ihren Angeboten, die ja, meist unerwähnt, Rendite bringen soll, als Nebenprodukt eines riesigen Marktes.''

Das sehe ich auch so und es gibt zum Glück auch bereits viele gute Ansätze wie z.Bsp. KISS etc.
Es tut sich auch einiges in dieser Richtung und birgt ebenfalls ein riesiges Potential in sich.
Dieses zu fördern und zu nutzen liegt jedenfalls letztendlich auch wieder in der Hand des (einzelnen) Menschen.
jede technische Entwicklung hat mindestens zwei Seiten.

Wenn mich die KI im Verkehrswesen davor beschützt dass mich der SUV/Kleintransporter/LKW beim Abbiegen vom Fahrrad holt dann bin ich froh :D

Wenn mich die KI der "Terrorbekämpfung" ausknipst weil ich 2013 für die Piraten kandidiert habe dann wäre das schade :(

In der Pflege ist mir technische Hilfe lieber als Sklavenarbeit durch Frauen ohne bessere Arbeitsmöglichkeiten.

Grüsse
Buzico
Schöne heile Welt mit 'Robo-Doc' – ein chinesischer Roboter hat weltweit erstmals die Zulassungsprüfung als Arzt bestanden und wird ab nächstem Jahr bei der Ausbildung von Ärzten helfen:
https://www.heise.de/tp/features/Chines ... 94858.html

Chinas Regierung setzt aber nicht nur in der Medizin auf KI-Anwendungen, sondern v.a auch in der Überwachung der Bevölkerung mit vernetzten Videoüberwachungssystemen und befindet sich auf der Überholspur um eine weltweite Dominanz in KI zu erreichen:
Vor wenigen Tagen pries Dong Zhenjiang, der Vorsitzende des Shenzen KI-Industrieverbands und der Vizepräsident der Telekommunikationsfirma ZTE, China, das in der KI führend geworden sei. Die Entwicklung der KI sei eine nationale Strategie, die Regierung "verleiht ihrer Entwicklung größere Bedeutung, als dies die meisten Länder auf der Erde machen".
China steht mit der Entwicklung der KI ganz weit vorne.
Selbstfahrende Autos, genauere medizinische Diagnosen, im Hotelgewerbe oder als
Unterstützung bei der Aufklärung von Verbrechen - die Schlüsseltechnologie der
kommenden Jahre.

Wenn Autos autonom fahren, wer haftet, wenn ein Unfall passiert? Wenn Superrechner Ärzte
bei Diagnostik und Therapie unterstützen, wer ist verantwortlich für eine falsche Diagnose?  
Es gibt ja bereits Vorschläge, neben der Verantwortung des Menschen auch die Verantwortung des Roboters zu etablieren. Hochgefährlich würde ich sagen. Wir schaffen mit der KI kein Gegenüber.
Jede noch so intelligente Software hat keine personalen Eigenschaften. Sonst wären nämlich die Menschenrechte auch auf diese anwendbar.
Wir sollten KI einsetzen, um den Mensch in seiner Entscheidungsfindung zu stärken. Die letzte Entscheidung sollte aber immer dem Menschen überlassen bleiben. Maschinen entscheiden nämlich ganz anders, als wir Menschen. Das kann gut aber vielleicht auch gruselig sein.
Ob in dieser Entwicklung der Mensch das Kommando behalten wird? - das bezweifel ich.
Den ersten dedizierten KI Chip "Nervana" wird INTEL wohl noch in diesem Jahr auf den Markt bringen!
https://www.golem.de/news/nervana-neura ... 30692.html
@Sumsum

''Wenn Autos autonom fahren, wer haftet, wenn ein Unfall passiert? Wenn Superrechner Ärzte
bei Diagnostik und Therapie unterstützen, wer ist verantwortlich für eine falsche Diagnose?  
Es gibt ja bereits Vorschläge, neben der Verantwortung des Menschen auch die Verantwortung des Roboters zu etablieren''.


Die Haftungsfrage ist wirklich sehr brisant. Die Verantwortung auf die Roboter abschieben zu wollen, käme ja schon fast einem Schildbürgerstreich gleich, obwohl es sich hierbei lediglich um die gängige Praxis von eigentlichen Verantwortlichen handeln würde.

''Wir sollten KI einsetzen, um den Mensch in seiner Entscheidungsfindung zu stärken. Die letzte Entscheidung sollte aber immer dem Menschen überlassen bleiben. Maschinen entscheiden nämlich ganz anders, als wir Menschen. Das kann gut aber vielleicht auch gruselig sein.
Ob in dieser Entwicklung der Mensch das Kommando behalten wird? - das bezweifel ich''.


Da wird wohl vieles davon abhängen, welche Menschen mit welcher Gesinnung darüber befinden werden. Aufgrund bisherigen Erfahrungen lässt sich aber auch da tatsächlich nicht allzuviel Gutes erahnen, wenn nicht die not-wendigsten Regulierungen gesetzt werden.
Die Zweifel scheinen sehr wohl angebracht; zumal Entscheidungsfreiheiten des Individums in unserer Gesellschaft (von bestimmten Interessensgruppen) bereits jetzt schon immer stärker eingeschränkt werden.

Wie auch immer, die Weichen der nahen (KI-) Zukunft werden jedenfalls schon heute gestellt...
Eins steht doch schon jetzt fest, im selbstfahrenden Auto wird die KI über Leben und Tod von Menschen entscheiden, denn KI wird vornehmlich zum Eliminieren eingesetzt, etwa wie bei Spammails.
Die Müllbeseitigung war das erste Übungsfeld der KI, hier lernt die Software Objekte zu klassifizieren, hier trifft sie Entscheidungen mal unter Aufsicht und dann auch ohne menschliche Kontrolle.
Der jüngere Bruder des "SpamAssistenten" heißt "Death Algorithm". Er entscheidet in selbstfahrenden Autos im Notfall darüber, ob das Fahrzeug in eine Gruppe von Fußgängern, Mutter mit Kind oder gegen eine Hauswand fährt.
Über diesen Todesalgorithmus gibt es zurzeit hitzige philosophische und auch schon juristische Debatten, denn es steht fest, so fest wie das Amen in der Kirche, das autonome Auto kommt.
Da es ebenso sicher ist, dass es auch weiterhin Unfallsituationen geben wird, bei denen Todesopfer nicht vermeidbar, nur wählbar sein werden, ergibt sich die Frage, mit welcher Entscheidungsethik man die entsprechenden Algorithmen ausstattet.
Philosophie wird so zum wichtigen Element in der Produktionskette eines Automobils.

"Im vielleicht berühmtesten einer Reihe unautorisierter Werbeclips fährt ein Auto durch eine Landschaft, die deutlich in der Vergangenheit liegt. Alle Menschen halten in der Arbeit inne und richten den Blick ehrfürchtig auf etwas, das sich schließlich als ein Mercedes der Luxusklasse erweist, der kurz darauf vor zwei spielenden Mädchen auf der Straße stoppt. Der Bremsvorgang geht offenbar auf einen Sensor zurück, der Objekte vor dem Fahrzeug wahrnimmt. Als das Auto weiterfährt, kommt ein rennender Junge mit einem Drachen ins Bild und eine junge Frau, die ihm beim Wäscheaufhängen glücklich hinterherschaut. Das Zusammentreffen des Jungen mit dem Mercedes überrascht nicht, wohl aber der Zusammenprall. Hat diesmal der Sensor versagt?

Die Antwort kommt rasant und in kleinen Stücken: Kurz vor dem Aufprall sieht man für eine Millisekunde ein Bild von Hitler, dann ruft die Frau mit dem Wäschekorb erschrocken "Adolf?"; auf dem Ortseingangsschild steht "Braunau am Inn", aus der Vogelperspektive formen sich die Glieder des überfahrenen Jungen auf der Straße zu einem Hakenkreuz, der eingeblendete Werbesatz für Mercedes' Bremssystem lautet: "Erkennt Gefahren, bevor sie entstehen."

Dieses Video aus dem Jahr 2013
https://www.youtube.com/watch?v=MZGPz4a2mCA
hat Jahre später über 5 Millionen Views; mehr als 21.000 finden es gut, knapp 2.000 finden es schlecht, die rund 2.500 Kommentare verteilen sich entsprechend. Der Hinweis, dass es sich nicht um einen autorisierten Mercedes-Werbespot handelt, sondern um die Abschlussarbeit von Studenten der Filmakademie Ludwigsburg, verringert so wenig wie der Hinweis auf den völlig fiktionalen Rahmen das philosophische Problem, das hier aufgerufen wird: Unter welchen Umständen darf man töten, um Leben zu retten?"

(Medienwerbung/Filmakademie)