Im August haben wir darüber berichtet, wie schnell es geht, dass der menschliche Geist wahrgenommenen Dingen eine Bedeutung zuweist. Erstaunlich ist, dass auch manche state-of-the-art-Algorithmen der automatisierten Bilderkennung über diese Eigenheit verfügen.
Moderne Bilderkennungsprogramme arbeiten mit künstlichen, neuronalen Netzen, sind also prinzipiell der Funktionsweise von organischen Nervensystemen nachempfunden. Bei CNNs arbeiten unterschiedliche Ebenen and unterschiedlichen Problemen. So könnte beispielsweise die erste Ebene nach Ecken und Kanten Ausschau halten, während die nächtse Ebene, die das Problem weiter bearbeitet, nach bestimmten Formen sucht. Diese Prozedur zieht sich über 10 bis 30 Ebenen, bis die oberste Ebene eine „Antwort“ abliefert. Die Ebenen sind dabei mit verschiedenen Aufgaben betraut und verfügen teils über unterschiedliches „Wissen“ aus diversen Datenbanken oder Quellen, aus denen sie „gelernt“ haben.
Fragt man diesen Algorithmus nach dezidierten Mustern, die im zu interpretierenden Bild enthalten sein könnten, kann er dazu neigen, die Bildinhalte relativ „phantasievoll“ zu interpretieren, also Dinge zu sehen, die vielleicht gar nicht da sind. Ganz spannend ist, dass sich diese Verarbeitungsschritte auch visualisieren lassen. So berichten bei Google tätgige Wissenschaftler davon, dass sogar eine eigene Kunstrichtung definiert haben. Unter dem Label „Inceptionism“ speichern sie Bilder von den Resultaten ab, die entstanden, nachdem Sie die hochtrainierten Algorithmen dazu angewiesen hatten, mehr von dem zu zeigen, was sie glauben auf einem Bild erkennen zu können. Die Ergebnisse sind in der Tat erstaunlich und erinnern an Werke psychedelischer Kunst.
Update: Das ganze anhand eines Videoausschnitts aus Fear and Loathing in Las Vegas
Quellen / Weiterführende Links
- Inceptionism: Going Deeper Into Neural Networks auf googleresearch.blogspot.co.at
- Inceptionism Bilder von Michael Tyka auf google photos
- Convolutional neural networks auf en.wikipedia