In 24 Stunden zum Hitler-verehrenden Sexbot

Der Tay genannte Chatbot von Microsoft sollte eigentlich seine künstliche Intelligenz nutzen um zu lernen wie 18- bis 24-Jährige heutzutage kommunizieren. Jedoch brauchte es keine 24 Stunden bis Tay zu einem sexistischen, rassistischen Scheusal wurde und von Microsoft in den künstlichen Tiefschlaf versetzt werden musste.

Die meisten von Tays rund 96.000 Tweets enthalten zwar nur oberflächliches Geplapper, jedoch wurden auch unzählige Tweets wie “bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got“ aus der Timeline gelöscht. Darunter Aufrufe zu Völkermord sowie rassistische und sexistische Bemerkung aller Art.

Das Problem mit dem sich Microsoft konfrontiert sieht, sind böse Menschen, denn die künstliche Intelligenz mit dem weiblichen Avatar lernt von Menschen die mit ihr interagieren. Dies lockt offenbar auch schnell Trolle an, von denen Tay nichts gutes lernen kann.

Auch Microsofts virtuelle Assistentin Cortana sieht sieht sich mit schlechten Menschen konfrontiert, wie Anfang Februar eine Mitarbeiterin berichtete, die an der Entwicklung der Software beteiligt war. Viele Nutzer würden Cortana als Erstes nach ihren sexuellen Vorlieben frage, sie beleidigen und beschimpfen.

Anders als Tay, lässt sich Cortana einen derartigen Umgang nicht gefallen, denn wer sie beschimpft, muss damit rechnen, dass sie das Gespräch abbricht. Wenn wir bisher eines von künstlicher Intelligenz gelernt haben, ist es vielleicht, dass sie das Schlechteste im Menschen zum Vorschein bringt.

Links:

">20160410_diary582_tay120160410_diary582_tay2

Comment this ...

(Your email address will not be published)