Künstliche Intelligenz ist doch auch nur ein Programm

Künstliche Intelligenz, neuronales Netz, selbstlernendes System – ohne diese Wörter kommt kein aktuelles Produkt mehr aus. KI ist ein Hype, aber ein etwas verrückter.
Ganz einfach: Künstliche Intelligenz ist nichts anderes als ein Computerprogramm. Sofern ich mich zurückerinnern kann fingen ähnliche Programme in Navigationssystemen an. Die TomTom Geräte mit „selbstlernender Streckenführung“ – fährst du an einer Kreuzung immer in die 30er Zone, weil diese Verkehrsärmer ist als die 50er Straße nebenan, leitet dich das Navi halt irgendwann immer durch die 30er Zone. Auch wenn du in der 50er Zone vielleicht etwas schneller und spritsparender wärst.

https://commons.wikimedia.org/wiki/File:Artificial-intelligence-elon-musk-hawking.jpg

Warum also jetzt auf einmal KI?

Genau diese Systeme sind natürlich weiterentwickelt worden. Das Konzept lässt sich nicht nur auf Navigation anwenden, sondern auf fast alles.
Nehmen wir mal ein Ticketsystem eines IT-Dienstleisters. Lässt man eine Software sich durch alle Vorgänge wühlen wird sie ziemlich sicher eine vergangene Lösung finden, die zum aktuellen Vorfall passt und die eventuell schneller funktioniert als die, die der Consultant gerade im Kopf hat.
Google schlägt mit Programmen Weltmeister im Go-Spiel. Andere Software ent-pixelt verpixelte Bilder und die amerikanische Polizei lässt nun „Latino-Vorurteile“ von einem Programm machen (Archivlink), weil das Programm gelernt hat, dass Polizisten in den USA eben so denken.

KI ist also eine einfache Weiterentwicklung von einer speziellen Kategorie von Programmen. So wie jedes Programm über die Jahre hinweg immer besser wird, je mehr sich die Entwickler anstrengen.
Künstliche Intelligenz ist also ein Trendwort – entweder um die Systeme besser im Bewusstsein der Menschen zu verankern, oder weil man einen nächsten Hype wollte.
Dabei hat KI – zumindest auf Endanwenderseite – nur einen großen Nachteil. Es soll den Menschen das Denken abnehmen, da es besser im Denken ist als die Menschen. Das kann von Vorteil sein, da die Menschen dann effektiver arbeiten, aber es hat eben einen entscheidenden Nachteil. Das Nachdenken verschiebt sich auf die Maschinen, einen Anreiz zu Lernen wird es im nun schlechteren menschlichen Kopf nicht mehr geben.

KI richtig nutzen

Das Problem ist die Menschheit, Programme fahren inzwischen Autos. Ein Tesla stur einem vorher fahrenden Auto hinterher, Google autonom ohne Lenkrad.
Die Menschen wollen aufhören zu denken, genau das schadet den Menschen aber mehr. Klar gibt es ohne autonome Autos die sich untereinander absprechen immer wieder Staus, aber ein Fahrer der viel fährt, lernt sich sicher im Straßenverkehr zu bewegen.
Genau das gleiche kann man auch auf fast alle Bereiche in denen KI inzwischen aktiv ist anwenden.
Das Vertrauen in eine KI sollte nie zu groß werden. Sie gibt Menschen Mittel um zu Lernen. Gegenstände um daran sein eigenes Wissen zu verbessern oder zu perfektionieren.
Das alles rein ein Programm machen zu lassen dass sich perfekt durch alte Daten wühlen kann wäre ein fataler Fehler.

Im Blick auf die Unfälle mit Tesla-Wägen im Autopilot-Modus zeigt sich deutlich dass die Menschen beim Auto fahren abschalten wollen. Kein Tesla-Fahrer möchte, dass der Autopilot abgeschaltet wird, das bedeutet im Umkehrschluss aber, dass niemand sich die Mühe machen will in einem Autopilot-Notfall einzugreifen, sondern ad hoc erwartet dass ein Unfall autonom vermieden wird.
Man traut den Systemen also nicht zu perfekt zu werden, sie sollen bereits perfekt sein. Dabei beweist aber jede KI, dass sie nicht unfehlbar ist, sogar Googles AlphaGo musste sich einmal geschlagen geben – alleine weil der Spieler einen fehlerhaften Zug erkannte und darauf akkurat reagierte.

Vertrauen ist gut, Kontrolle ist besser. So kann ein Wagen zwar bereits autonom über den Nürburgring pesen, ohne Überwachung der eigentlichen Systeme und Prozesse werden solche Systeme aber immer wieder Fehler erzeugen – wenn auch immer seltener.

Googles Auto bekommt selbstreinigende Sensoren

Die Sensoren am Google-Auto sind überlebenswichtig. Sind diese verdreckt, kann es natürlich vorkommen dass der autonome Wagen etwas völlig falsch einschätzt und demnach auch fehlerhafte Fahraktionen ausführt.

This image provided by Google shows a very early version of Google's prototype self-driving car. The two-seater won't be sold publicly, but Google on Tuesday, May 27, 2014 said it hopes by this time next year, 100 prototypes will be on public roads. (AP Photo/Google)
Prototyp des Google-Autos (AP Photo/Google)

Ein neues Patent für Google beschreibt nun eine Art Scheibenwischersystem für die Sensoren, die einerseits erkennt wann das System verdreckt ist und sich dann mittels Reinigungsflüssigkeit und Scheibenwischer selbst reinigt.
Gerade für die kommenden Autos von Chrysler die mit Googles autonom-Technik ausgestattet werden ist dies wichtig. Hier wird das Google-System auch die ersten Übungen an deutlich größeren, in den USA weiter verbreiteten Autos machen können und das System ein wenig mehr auf andere Autos anpassen können.

Googles autonom fahrende Autos evtl. von Fiat Chrysler

Dass Google an autonom fahrenden Autos arbeitet ist hinlänglich bekannt. Die Vorbereitungen und Tests scheinen soweit fertig zu sein und man sucht nach Partnern, die diese Autos in Serie produzieren könnten.

autonom fahrende Google Autos von Fiat Chrysler?

Hier scheint sich Fiat Chrysler gefunden zu haben, mit diesem ist man bereits in Vertragsverhandlungen. Zumindest wenn man der Aussage vom Wall Street Journal glauben schenken will. Die Rede hier ist von einer „technischen Partnerschaft“ was wohl wie bei den Nexus-Smartphones auch schon nur heißt, dass Hersteller, die die Kompetenz haben Autos auch produzieren zu können vollständig nach Googles Nase tanzen müssen, um überhaupt irgendwas machen zu dürfen.
Man darf gespannt sein, wann sich solche Autos auch durchsetzen werden. Mit dem Tesla Model S und den anderen Wägen von Tesla gibt es bereits einige halbautonom fahrende Autos, die auch hierzulande erlaubt wären. Ich schätze malp dass die deutsche Straßenverkehrsordnung autonome Autos behindern wenn nicht gar ganz verhindern wird, sofern sich Google hierzulande nicht massiv in Lobbyarbeit stürzt.

via

Volvo will Haftung für selbstfahrende Autos übernehmen

Die Haftungsfrage bei einem selbstfahrenden Auto ist immer so eine Sache. Deutsche Gesetzesentwürfe schreiben hier bei Unfällen die Hersteller in die Pflicht, da deren Software ja das Auto letztendlich gesteuert hat. Knackpunkt ist weiterhin die „Übergangszeit“ – wer haftet also, wenn ein Auto in dem Moment einen Unfall baut in dem der Fahrer den Autopilot einschaltet?

Zumindest einen Hersteller gibt es nun, der nicht zu einer Haftung gezwungen werden muss. Volvo hat angekündigt dies explizit zu wollen und übernimmt für künftige selbstfahrende Autos die Haftung sofern das autonome Fahren zum Unfallzeitpunkt aktiv gewesen ist.

Cookie-Einwilligung mit Real Cookie Banner