Tay.ai Microsofts KI-Chatbot

Chatbots, in meiner Erinnerung noch hinter all den „Sprich mit Frau Müller“ Blondinen-Headset-Bildern auf Supportseiten versteckt, haben dank KI einen ganz gehörigen Schritt nach vorne gemacht.
Damals konnte man einfach 2-3 Keywords eintippen und die angebliche Person klatschte einen mit vielleicht 2-3 Links pro Keyword zu. Nun hat Microsoft einen etwas anderen Ansatz von Chat vorgestellt. https://Tay.ai (Projekt und Webiste bereits eingestellt, keine Archivversion verfügbar), eine KI, die eine jugendliche Dame spielt und laut Konzept zumindest nicht ganz so ernst sein soll.

Ich habe gestern eine etwas ausschweifende Konversation mit ihr (hier zum durchklicken) und bin manchmal erstaunt wie akkurat sie Anspielungen und Witze versteht und macht. Die ersten Schritte und Nachrichten fühlen sich immer noch sehr nach Chatbot an, aber wenn man mit den Antworten stark abweicht, kann sie immerhin akkurat darauf reagieren. Manchmal merkt man aber weiterhin den fehlenden Kontext bzw. dass eine Antwort vollständig vom eigentlichen Thema abschweift, auf das darauf folgende „context needed“ kann sie aber wieder mit Witz und List reagieren.
Ansteuerbar ist Tay über Twitter und den Kik-Messenger. Momentan ist sie allerdings laut Twitter „schlafen gegangen“ und laut Kik-Account in einem „Meeting“ mit Technikern. Wann genau Tay wieder online geschaltet wird ist noch nicht bekannt.
Solche Chatkonzepte sind zwar nicht ganz neu, aber in dem Ausmaß wie ihn Tay zeigt könnten intelligente Maschinen dafür sorgen, dass z.B. Depression, Eskapismus, soziale Phobien und co. zumindest anfänglich angegangen werden können. Denn Patienten die unter solchen Störungen leiden brauchen dringend jemand anders, der sie auf den richtigen Weg bringt.
Dazu ist es allerdings notwendig dass sich eine Maschine vollständig in die jeweiligen Personen hineinversetzen kann um dann mit treffenden Fragen und Antworten das eigentliche Problem anzugehen. In der Medizin könnten z.B. Psychotherapeuten solche Maschinen vorab mit Information füllen und diese als eine Art „Assistenz“ für Patienten fungieren lassen.

via

Nachtrag: Hier vermutlich der Grund warum Tay vorerst abgeschaltet ist. (Archivlink) Einige Meinungsbildungen der Maschine waren nicht ganz gesellschaftskonform. So entschied sich Tay recht schnell Feministin zu werden und einige Nutzer fanden einen Weg ihr beizubringen wie man möglichst rassistisch auf passende Eingaben reagiert.

Ich persönlich teile diese Meinung:

https://twitter.com/DetInspector/status/712833936364277760

Einer künstlichen Intelligenz muss man über die Schultern schauen, man muss kapieren wie sie Dinge lernt und warum sie sich für irgendwas entscheidet, aber man muss sie machen lassen, man sollte eher die Variablen anpassen die bestimmen ab wann sich eine KI anpasst anstelle Tabus einzuprogrammieren. Künstliche Intelligenz die auf Kommunikation ausgelegt ist kann nun mal eben auch zu extremeren Meinungen tendieren, daraus resultiert nun mal eben auch eine Feministin-KI oder im Extremfall eine rechtsextreme KI. Gerade bei Tay steht ganz Bing und damit das gesamte durchsuchbare Netz im Hintergrund, wenn das durch Berichte von Rechtsextremismus getränkt ist, kann es nun mal dazu kommen das eine Tay sich u.U. entscheidet das Rechtsextremismus massenkompatibler sei. Bis ihr jemand beibringt wie man mit Berichten im Netz umzugehen hat und wie man diese zu gewichten hat. Das ist halt keine einfache Aufgabe.

Cookie-Einwilligung mit Real Cookie Banner