Auch der befürchtete Einsatz von KI im militärischen Bereich nimmt immer rasanter an Fahrt zu und hat wahrscheinlich schon längst alle 'Erwartungen' übertroffen.

Hier ein informativer Link über den selbst von Wissenschaftlern höchst umstrittenen Einsatz von autonomen Waffensystemen und Killerrobotern.
https://netzpolitik.org/2017/killer-rob ... ensysteme/
Mann stelle sich nur mal vor, wenn solche Waffen in die Hände von Terroristen geraten, dann ist das eine Sache, die nicht mehr zu kontrollieren wäre.

Bis jetzt lehnt Deutschland den Einsatz solcher Waffensysteme ab, gemeinsam mit Frankreich macht sich die Bundesrepublik stark für einen Verhaltenskodex.Viele Staaten vermieden es sich klar zu positionieren, für ein weltweites völkerrechtlich verbindliches Verbot solcher Waffensysteme findet sich bislang keine Mehrheit.

Der einzige akzeptable Verhaltenskodex, um Waffeneinsatz gegen Menschen in jeglicher Art von Kriegen zu unterbinden, wäre das totale Verbot zur Herstellung von Waffen überhaupt. Ich weis, ein unerfüllbarer Traum. Die Menschheit wird einfach nicht klug aus ihren Fehlern. Übrigens: über einen Jules Verne hat man auch mal müde gelächelt...Heute sind U - Boote die mobilsten nklearen Abschussrampen.
Motto: Heute noch Hollywood und morgen die ganze Welt.
Ein spannender Kurzfilm ist der aufwendig (mit finanzieller Unterstützung durch Elon Musk) produzierte Film Slaughterbots, der mit den Stilmitteln des Hollywoodkinos und moderner Fernsehserien die Bedrohung spürbar werden lässt: Stolz präsentiert da der Vertreter einer Rüstungsfirma eine Minidrohne, die mit Gesichtserkennung gezielt Menschen töten kann, indem sie sich auf deren Stirn heftet und eine kleine Sprengladung zündet. Bald darauf sorgen ganze Schwärme solcher Drohnen für Unruhe, ohne dass jemand sagen könnte, wer oder was dahinter steckt.
https://youtu.be/HipTO_7mUOw


Atombomben kann heute schon jeder Depp wie Kim Jong Un bauen (lassen) und mit dem nächsten Depp diskutieren wer die (den?) größere hat. Im Wortlaut:
North Korean Leader Kim Jong Un just stated that the “Nuclear Button is on his desk at all times.” Will someone from his depleted and food starved regime please inform him that I too have a Nuclear Button, but it is a much bigger & more powerful one than his, and my Button works!

Aber: der Einsatz von Atombomben vernichtet all das, woraus sich finanzieller Profit ziehen lässt und wird daher nicht erfolgen. Wie sagte schon der große Vorsitzende in seiner unermesslichen Weisheit: „Der Imperialismus und alle Reaktionäre sind Papiertiger.“ (一切反动派都是纸老虎.) "

Aber sie sind auch wirkliche Tiger und künftige kriegerische Auseinandersetzungen zur Sicherung und zum Ausbau der Profite werden nur mit KI-Waffensystemen gewonnen werden. Somit wird der Kampf gegen KI-gestützte Waffensysteme ein ehrenhafter aber auch ein vergeblicher Kampf sein!
Die Menschheit bekommt keines ihrer Probleme in den Griff - Hunger, Armut, Klimawandel, Umweltzerstörung, Überbevölkerung, Terrorismus, Kriege. Aber es wird munter an neuen Waffensystemen gearbeitet.
Irgendwann sind die Drohnen dann so groß wie Mücken oder Essigfliegen, dank Nanotechnologie. Ausgerüstet mit einem todbringenden Gift, kann man dann sorglos ohne großes Aufsehen unliebsame Menschen töten. Dank künstlicher Intelligenz muss nicht einmal mehr irgend ein Soldat den entscheidenden Knopf drücken. Technisch wahrscheinlich in den nächsten Jahren machbar.
Schöne neue Welt. 8)

Die nächsten klugen Köpfe werden die Antischwärme entwickeln. Dann kann man die bequem aufeinander loslassen während sich die Soldaten im Kaffeehaus oder einer Bar treffen.
Wer verliert, zahlt die Rechnung. 8)
Homo oder Hetero, Terrorist oder Pädophil, Verbrecher oder Opfer, algorithmenbasierte sozio-psychologische Kategorisierung – die KI, dein Freund und Hellseher...

''Künstliche Intelligenz wird auch dazu benutzt, intimere Charakteristika wie Persönlichkeit, Geschlecht und Alter durch Sprachgebrauch auf diversen sozialen Medien zu analysieren. Zusätzlich wird eine Gesichtsbildanalyse durchgeführt, um die Wahrscheinlichkeit zu bestimmen, ob jemand ein Verbrechen begehen wird oder ob er ein Terrorist oder pädophiler Verbrecher sein könnte. Erst neulich hat eine Gruppe von Forschern der Universität Stanford künstliche Intelligenz dazu benutzt, die sexuelle Orientierung durch Fotos von unterschiedlichen Gesichtern vorherzusagen. Natürlich hat die Entwicklung solcher Methoden, bei denen persönliche Informationen über die Probanden gewonnen wurden, enorme Auswirkungen für die Privatsphäre.

Noch problematischer wird es, wenn es um die algorithmenbasierte vereinfachte Kategorisierung von Personen geht. Um künstliche Intelligenz für die Kategorisierung von Menschen auszubilden, müssen einzelne, definierte Zielkategorien vorgegeben werden und große Mengen vorklassifizierter Daten. So wird der Mensch auf einzelne sozio-psychologische Klassen reduziert.''
https://www.freitag.de/autoren/netzpilo ... stereotype

Precrime – Trailer (absolut sehenswert)
https://www.youtube.com/watch?v=DXoSMmlLtWU

Tja, wie es scheint hat uns die Zukunft wohl schon eingeholt
Treffen sich zwei Planeten zum Gespräch: Sagt der eine: "Du, mir geht es nicht gut. Ich habe jetzt homo sapiens !".
Antwortet der andere: "Mach dir nichts daraus. Das geht auch vorbei".
adimus hat geschrieben:
Noch problematischer wird es, wenn es um die algorithmenbasierte vereinfachte Kategorisierung von Personen geht. Um künstliche Intelligenz für die Kategorisierung von Menschen auszubilden, müssen einzelne, definierte Zielkategorien vorgegeben werden und große Mengen vorklassifizierter Daten. So wird der Mensch auf einzelne sozio-psychologische Klassen reduziert.''
https://www.freitag.de/autoren/netzpilo ... stereotype

Precrime – Trailer (absolut sehenswert)
https://www.youtube.com/watch?v=DXoSMmlLtWU

Tja, wie es scheint hat uns die Zukunft wohl schon eingeholt


Die  Algorithmen, die besonders kriminalitätsbelastete Orte prognostizieren sollen, erkennen soziale Muster. Solche Muster sind aber beweglich und man sollte nicht beginnen, sie wie Naturgesetze zu betrachten, man könnte auch die ökonomischen und sozialen Bedingungen ändern, dann besteht die Wahrscheinlichkeit, Kriminalität zu senken.
Die Firma Kreditech verwendet auch solchen Algorithmus, der anhand der Daten aus Twitter und Facebook und der Schriftart und das Tippverhalten der Antragsteller über die jeweilige Kreditwürdigkeit entscheidet. Dieses Szenario erinnert an eine Zeit vor der Aufklärung: Weil der Computer es sagt, mache ich das so. Für mich bedeutet dies eine zunehmende Abkehr von der Welt des selbstständigen Verstehens und Denkens.

Die Überwachung von Telefongesprächen, SMS, E-Mails, die Erstellung von Bewegungsprofilen Dank GPS und das Tracking von Verhaltensmustern mit technikunterstützter Observation sind bekannt und es scheint, man hat sich daran gewöhnt. Spotify zeigt uns was wir mögen und erstellt unsere Musikliste mit Songs, die wir demnächst hören wollen werden.....wie schön.
Der Weg zum Überwachungsstaat ist also nicht mehr so weit und da ergibt sich die Frage, wann konkret eine Grenze erreicht ist.
@Sumsum hat geschrieben: Der Weg zum Überwachungsstaat ist also nicht mehr so weit und da ergibt sich die Frage, wann konkret eine Grenze erreicht ist.

Nun ja, da scheinen wohl einige Gott spielen zu wollen, welche noch nicht einmal gelernt haben, echte Menschen zu werden. Da wo es um grenzenlose Macht und Gier geht, stellt sich generell die Frage, ob überhaupt Grenzen (an)erkannt und akzeptiert werden. Die müssen gesetzt werden, bevor sie überschritten werden...

Unsere tolle Wissenschaft kennt schon längst keine Tabus mehr und lässt nichts mehr unangetastet.
Der Überwachungsstaat ist mittlerweile bereits nackte Realität, die der breiten Masse als erstrebenswerte Verbesserung verkauft wird, alles nur eine Frage des richtigen Marketings.
Das lässt sich über angebliche Sicherheit und als Prävention gg. Kriminalität, Terrorismus etc. bestens bewerkstelligen, wie Du ja bereits schon angemerkt hast.
Von der hörigen politischen Kaste werden die Menschen ja auch zunehmend schonend bzw. beschönigend darauf eingestimmt und vorbereitet. Der Gewöhnungseffekt wird erfahrungsgemäss nicht lange auf sich warten lassen. Willkommen in der digitalen Zukunft.

Der Film ''Minority Report'' (2002) von Steven Spielberg mit Tom Cruise in der Hauptrolle, basierend auf der Kurzgeschichte des amerikanischen Autors Philip K. Dick aus dem Jahre 1956, hatte bereits schon damals das brisante Thema über die Unfehlbarkeit von Precrime angesprochen:
https://www.youtube.com/watch?v=yzilZ33mk44
Tja, liebe Leute, dann unterstützt mal Organisationen wie "Digitalcourage"
Die zeigen auch auf, wie man "digitale Selbstverteidigung" praktizieren kann, welche Alternativen es z.B. zu Google und seinen Produkten gibt u.s.w.
Da hast du recht, eine Möglichkeit. Aber es gibt keine 100%-ige Sicherheit, doch diese Wahrheit wird den meisten Menschen vorenthalten.

Gerade weil die absolute Sicherheit nicht erreicht werden kann, werden immer neue und vermeintlich bessere Methoden erwogen, um sie eben doch zu erreichen. So begibt sich der Mensch immer weiter in ein System hinein, dass ihn letztlich vor sich selbst schützen soll. Fortan bestimmt nicht mehr der Mensch, in was für einem System er leben möchte, sondern das System bestimmt, wie der Mensch lebt.
Nebst 'Precrime' wird nun auch 'Presuicide' zu einer immer schöneren schönen neuen Welt beitragen. Die Zukunft ist bereits Vergangenheit geworden und soll weltweit realisiert werden.

Facebook (und vielleicht bald andere Konzerne) machen sich Sorgen um die geistige Gesundheit der Nutzer und selbst künftige Suizide bleiben dank der KI nicht verborgen:

''Der Internetkonzern hat ein automatisiertes Frühwarnsystem für Nutzer geschaffen, die traurige und depressive Statusmeldungen schreiben. Facebook will damit Selbstmorde verhindern, sorgt aber für Bedenken wegen mangelnder Transparenz und möglichem Missbrauch des Systems.''

''Facebook setzt seit einigen Wochen systematisch künstliche Intelligenz ein, um die mentale Stabilität seiner Nutzer zu kontrollieren. Der kalifornische Internetkonzern kündigte im November des Vorjahres an, die Technologie künftig überall auf der Welt zu verwenden, um damitSelbstmorde von Nutzern zu verhindern. Ausnahme ist bisher Europa, wo Facebook Datenschutzbedenken fürchtet.''

''Nach eigenen Angaben hat Facebook bereits im ersten Monat des Einsatzes der Technologie mehr als hundert Mal Rettungskräfte in möglichen Selbstmordfällen verständigt und den Helfern die Standortdaten der Nutzer bekanntgegeben.''

''Aus dem Selbstmord-Frühwarnsystem ist kein Ausstieg möglich. Sogar im gewohnt technologiefreundlichen Silicon Valley sorgen die Möglichkeiten der eingesetzten Technologie für besorgte Töne.''

''Bedenken gibt es nicht nur wegen dem Einsatz automatisierter Systeme, sondern auch wegen Facebooks wenig transparentem Zugang zu der durchaus komplexen Frage, wie psychische Gesundheit sich eigentlich messen lässt.''

''Unklar sei auch, wer alles Zugang zu Informationen über den Gesundheitszustand der Nutzer habe und ob eine Zuschreibung als „suizidgefährdet“ für immer mit einem einzelnen Nutzer verknüpft bleibe, sagte der Rechtswissenschafter Frank Pasquale, der zu datengestützten Gesundheitssystemen forscht.''

''Mit seinem Selbstmord-Frühwarnsystem schaltet sich Facebook direkt in die psychische Gesundheit seiner Nutzer ein. Im Dezember hatte das Unternehmen unter Berufung auf eine Studie eingeräumt, dass viel passive Nutzung seines sozialen Netzwerkes das Wohlbefinden der Nutzer verschlechtere.''

Für Interessierte hier der Link zum vollständigen Original-Text
https://netzpolitik.org/2018/facebook-d ... er-nutzer/
Philip K. Dick war einer der besten Science-Fiction-Autoren aller Zeiten. Seine Idee von "Precrime" aus der Kurzgeschichte "Minority Report", in der eine Polizeieinheit die Aufgabe hat, Personen zu identifizieren und festzunehmen, die in der Zukunft Straftaten begehen werden, soll nun also verwirklicht werden . Erst einmal mit dem politisch korrekten Ziel, bevorstehende Selbstmorde zu verhindern, aber die hierzu eingesetzten Algorithmen werden auch über diese Ziele hinaus gut funktionieren, Algorithmen haben die unangenehme Eigenschaft, vollkommen wertneutral auch in Bereichen zu funktionieren, wo man ihnen gern Zügel angelegt hätte. Mit der wachsenden Rechen- und Überwachungsleistung moderner Datenverarbeitungssysteme wird die Gedankenfreiheit bald der Vergangenheit angehören. Wir wissen, was Du denkst. 8)
Vorerst ... wird also der Algorithmus die Suizidgefahr zuerst erkennen. "Wenn Sie ein Problem haben und darüber sprechen möchten, drücken Sie bitte die 1". :|
''Mit der wachsenden Rechen- und Überwachungsleistung moderner Datenverarbeitungssysteme wird die Gedankenfreiheit bald der Vergangenheit angehören. Wir wissen, was Du denkst.'' 8)

Wie hiess es doch gleich noch damals? https://www.youtube.com/watch?v=MKSJ56odw5E
Ist das Lied überhaupt noch politisch Korrekt oder sollte es gar vom Wahrheitsministerium überprüft und umgeschrieben werden? Nicht das die Kinder noch auf dumme Gedanken kommen...

"Wenn Sie ein Problem haben und darüber sprechen möchten, drücken Sie bitte die 1"
Früher hätte ich dazu gesagt: Wenn es nicht so traurig wäre, würde ich darüber lachen. Aber ich lass das jetzt lieber, will ja nicht den Rettungsdienst vergeblich bemühen. :wink:

Was Orwell noch 'Gedankenpolizei' nannte, ist heute im Gewand der 'political Correctness' anzutreffen, welche vorwiegend das (un)erwünschte Weltbild steuert und kontrolliert, was in verschiedensten Bereichen der Politik, Medizin, Umwelt, Religion etc. deutlich zum Ausdruck kommt.

Zum Thema 'Precrime' hier ein Auszug aus der 'politisch korrekten' Wikipedia:
''Ein Gedankenverbrechen ist eine juristische Konstruktion, die den bloßen Gedanken an eine mögliche Straftat oder den Wunsch (geäußert oder nur empfunden) nach einer Straftat selbst zu einer Straftat erklärt. Auch Handlungen, die theoretisch einer Straftat dienen können, könnten entsprechend zur Straftat erklärt werden.
Entsprechende Gesetze würden die Möglichkeit einer Verurteilung ohne Voraussetzung eines bestimmten Handelns geben. Sie widersprechen dem Menschenrecht auf Gedankenfreiheit und sind mit einem Rechtsstaat nicht zu vereinbaren.
Neben der Frage der Rechtmäßigkeit einer Verurteilung für Gedanken steht das Problem, dass bisher weder rechtlich noch wissenschaftlich nachweisbar ist, ob jemand an etwas gedacht hat oder nicht. Die in manchen Staaten eingesetzten Lügendedektoren können lediglich den aktuellen Stress messen, der durch bewusste Falschaussagen während eines Verhörs entstehen kann.
Da sich die Möglichkeiten des Messens und Auswertens von Gehirnströmen inzwischen weiterentwickelt haben, warnen bereits erste Forscher vor den damit verbundenen Möglichkeiten, Menschen anhand der Auswertung der Hirnscans in bestimmte Kategorien einzuordnen. So fragt etwa die Neurologin Judy Illes von der Stanford University: „Wie werden wir mit Informationen umgehen, die eine Neigung zu Soziopathie, Suizid oder Aggression vorhersagen?“.
Zur Abwägung und Entscheidungsfindung müssen wir Menschen Gedanken durchspielen dürfen. Ein „Gehirnscanner“ müsste also Gedankenspiele und Absicht unterscheiden können. Aber auch die Absicht genügt nicht zwangsläufig für die Durchführung einer Tat. Man stelle sich vor, man beabsichtigt bei Rot über die Ampel zu gehen. Während man bereits den Fuß auf die Straße setzt, erblickt man ein Kind und erinnert sich an seine Vorbildfunktion. Statt die Ordnungswidrigkeit zu begehen, entscheidet man sich in allerletzter Sekunde anders und wartet auf Grün. Wie man an diesem Beispiel ersehen kann, können wir bis zum Eintreten des eigentlichen Ereignisses, auf Grund der Komplexität der Welt, nicht absehen wie wir uns im entscheidenden Moment wirklich verhalten werden. Das Konzept des Gedankenverbrechens beraubt uns also der häufig genutzten Chance, es uns im letzten Moment anders zu überlegen.
https://de.wikipedia.org/wiki/Gedankenverbrechen
Mir ist kein Objekt, Verfahren oder anderes bekannt, das in den Händen eines Menschen potenziell NICHT Dual-Use ist. Alles was wir in die Griffel bekommen wird nahezu zwangsläufig für böse Aktivitäten benutzt.
Noch ein ganz schlimmes Beispiel, das mir wirklich die Schuhe ausgezogen hat. Beim neuen iPhone kann man sich per Gesichtsverifikation einloggen, was natürlich toll ist. Nun gibt es aber aus Israel eine Software, die nur aufgrund des Gesichts sagen kann, ob man homosexuell ist oder nicht. Auch hier bleibt uns also nichts anderes übrig, als zu hoffen, dass Apple eine anständige Firma bleibt. Aber die Information ist natürlich trotzdem in der Welt.
Aufschlussreich ist auch, unter welchem Label diese Forschungen in Israel stattfinden......unter Terrorbekämpfung.
Die Intelligenz der Zukunft ist maschinell. Das ist nicht mehr nur ein mögliches Szenario, sondern Wirklichkeit.

Wolf Ingomar Faecks, einer der führenden Köpfe der deutschen Agenturszene, meldet sich zu Wort - und schlägt sich auf die Seite von Elon Musk.
"Wir sprechen von selbstlernenden Algorithmen und sich selbst-optimierenden Systemen. Ich bin auch überzeugt, dass die Entwicklung schon viel weiter fortgeschritten ist, als wir alle ahnen. Musk sagt ziemlich deutlich: Ich habe Zugang zu KI-Systemen, die der Öffentlichkeit noch nicht bekannt sind und die mir Angst machen.
Das ist ja der Grund, warum er so laut Alarm schlägt und warnt. Ich wette mit Ihnen, dass im Pentagon Sachen entwickelt werden, von denen wir alle nichts wissen wollen. Und nicht nur im Pentagon."
Hihi, Sumsum, hab mich gekringelt vor Lachen ob Deiner Aussage: ''Noch ein ganz schlimmes Beispiel, das mir wirklich die Schuhe ausgezogen hat''. Na dann pass mal schön auf, dass es Dich nicht auch noch aus den Socken haut, denn zur Zeit ist alles andere als Barfusswetter, trotz des meteorologischen Frühlings. :wink:

Aber jetzt mal im Ernst; da warten wohl noch einige Überraschungen im Nähkästchen, wie Du bereits mit dem Zitat von W.I. Faecks schon sehr anschaulich verdeutlicht hast: ''Ich habe Zugang zu KI-Systemen, die der Öffentlichkeit noch nicht bekannt sind und die mir Angst machen. Ich wette mit Ihnen, dass im Pentagon Sachen entwickelt werden, von denen wir alle nichts wissen wollen. Und nicht nur im Pentagon."
Ja aber sicher, wetten dass…

Es ist ja nicht nur die Geschwindigkeit solcher Entwicklungen sowie die Verwendung damit, die äusserst fragwürdig und bedenklich sind, sondern auch der gleichgültige Umgang und das Desinteresse an den Auswirkungen dieser Entwicklungen. Für die Masse ist es lediglich willkommene Abwechslung und Spielerei. Ab und an befindet sich ja auch Nützliches und Hilfreiches darunter. Mag ja für manche verlockend klingen, im Supermarkt aus den Regalen persönlich angesprochen zu werden und das massgeschneiderte Angebot angepriesen zu bekommen. Es darf ja durchaus auch Unterhaltsames dabei sein und Spass machen, letztendlich stellt sich aber doch immer wieder die Frage, wo der 'Spass' aufhört.

Hab kürzlich so ein neues i-Phone mit Gesichtserkennung vorgezeigt bekommen. Und was, wenn dich das Gerät partout nicht mehr erkennen will? Und was passiert jetzt genau mit diesen Daten??
''Auch hier bleibt uns also nichts anderes übrig, als zu hoffen, dass Apple eine anständige Firma bleibt.'' Jep, die Hoffnung stirbt zuletzt.

Fingerabdrücke sind da ja mittlerweile schon ein alter Hut – Iris-scanning wird wohl nicht mehr lange auf sich warten lassen. Die Nutzer geben nur allzu leichtfertig ihre biometrische Daten preis, ist ja alles so praktisch und bequem. Und wer das nicht tut, macht sich ja eh schon mal verdächtig und könnte was zu verbergen haben.

Trotzdem kann das Ganze nicht so recht überzeugen, da die Fehlerquellen und das Risiko einer fälschlichen Anklage gross sind. Das alles erinnert an einen Vorfall in den VSA, wo der Computer ein 3-monatiges Baby aufgrund der Datenlage als terrorismusverdächtig einstufte und Mutter / Kind das abflugbereite Flugzeug wieder verlassen mussten. Pech gehabt, Fehlalarm, aber Sicherheit geht vor. Solche und andere Vorfälle werden sich wohl noch häufen und es kann durchaus auch passieren, dass die Polizei vor der Haustüre steht, weil man das 'passende' Gesicht hat… ''Im Namen der Gerechtigkeit, wir verhaften Sie wegen des zukünftigen Verbrechens……. Sie haben das Recht zu schweigen, wir scannen eh ihr Gehirn. 8)