Die zeitraubende Nachbearbeitung von Handy-Schnappschüssen in einer speziellen App oder am PC könnte bald ein Relikt der Vergangenheit sein. Google stellt nämlich eine Technik vor, die es dank neuronalen Netzen erlaubt, Fotos ohne jegliches Zutun des Nutzers zu optimieren.
Zusammen mit der Abteilung Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT entwickelte Google einen Algorithmus, der genau dies ermöglicht: Die Bilder werden schnell und unkompliziert aufgehübscht, Farben werden optimal wiedergegeben und Fehler werden automatisch behoben. Künstliche Intelligenz lässt grüßen. So weit, so gut klingend.
Noch steht dieses Konzept allerdings nur auf dem Papier. Wann Endanwender davon profitieren und wie sich diese Technologie in der Praxis präsentiert, kann derzeit nur spekuliert werden. Das Procedere wird ähnlich ablaufen, wie bei vielen anderen beliebten Filter-Apps: Die Bilddateien werden auf die Server der Anbieter hochgeladen (die Leistungsfähigkeit der Smartphones reicht dafür bei weitem nicht aus), dort bearbeitet und dann auf das Gerät des Nutzers wieder zurückgespielt. Die Ergebnisse könnten verblüffend sein, die von Google bereits bereitsgestellten Beispiele (siehe Abbildung oben) können überzeugen.
Da inzwischen alle großen Hersteller an ähnlichen Lösungen arbeiten (etwa Apple oder Microsoft) können wir davon ausgehen, dass sich Google selbst nicht übertrieben viel Zeit für einen Marktstart lässt.
Quelle: ZDNet