Grafikkarten und Monitore 26.021 Themen, 113.633 Beiträge

News: Neue Algorithmen

Aus gewöhnlichen Smartphone-Fotos werden realistische 3D-Welten

Michael Nickles / 0 Antworten / Baumansicht Nickles
3D-Modell zusammengesetzt aus 3D-Scanner Daten und Photos. (Foto: TU Wien)

Realistische 3D-Projekte sind generell aufwändig und bedürfen ausgiebiger Planung. Es braucht 3D-Scanner um Gesichter, Gebäude oder ganze Landschaften abzutasten und aus den Daten ein 3D-Modell zu  generieren.

Im Rahmen des Forschungsprojekts  "Harvest4D" der TU Wien wurden jetzt spezielle Algorithmen entwickelt, mit denen dreidimensionale Welten viel einfacher entstehen können.

Und zwar braucht es dabei nur bestehende Bilddaten, die gar nicht unbedingt für diesen Zweck gesammelt wurden.

3D-Welten aus 2D-Bildmaterial berechnen

(Originaltext) "Bisher erstellte man 3D-Abbilder der Wirklichkeit meist auf recht komplizierte Weise, zum Beispiel mit Laser-Scannern", erklärt Professor Michael Wimmer. "Fachleute müssen eine Scan-Kampagne sorgfältig planen, hochauflösende Bilder machen und die Daten am Ende noch mühsam nachbearbeiten."  Nur so kann man aus einer dreidimensionalen Punktwolke schöne, glatte Flächen und klare Formen erzeugen.

"Uns schwebt in diesem Bereich ein radikaler Paradigmenwechsel vor", sagt Michael Wimmer. "Uns steht heute so umfangreiches Datenmaterial zur Verfügung wie noch nie zuvor – mit den passenden Algorithmen kann man diese Bilddaten nutzen." Geräte, die hochqualitative Bilder aufnehmen können, werden immer alltäglicher. Schon heute hat fast jeder ein Fotohandy mit dabei. Quadcopter mit Webcam waren vor einigen Jahren noch teures High-Tech-Equipment, heute sind sie eine erschwingliche Spielerei.

Aus großen Sammlungen von Bilddaten lassen sich mit den passenden Rechenmethoden dreidimensionale Welten generieren. "Am Computer werden die Bilder dann nicht einfach nur zusammengestückelt, sondern wir errechnen aus ihnen ein vollständiges 3D-Modell", sagt Reinhold Preiner, Projektmitarbeiter. Man kann sich also am Bildschirm frei um ein Objekt herumbewegen und kann es aus beliebigen Blickwinkeln ansehen – auch aus solchen, die auf den Bildern gar nicht vorkamen. Ausgrabungen können virtuell studiert und analysiert werden, man kann sie sogar für den User zuhause virtuell in hoher Qualität zugänglich machen.

Fehlertolerante Bildanalyse

Um das zu erreichen muss man Programme entwickeln, die Fehler tolerieren - denn die Daten sind nie perfekt. Bilder sind manchmal unscharf, sie zeigen Objekte bei sehr unterschiedlichen Lichtverhältnissen, und Scans können Artefakte enthalten, die die Rekonstruktion stören. Trotzdem gelingt es mit den Rechenmethoden, die nun im Forschungsprojekt "Harvest4D"“ entwickelt wurden, solche Bilddaten automatisiert aufzubereiten.

So wurden etwa archäologische Ausgrabungen dreidimensional visualisiert – die Ausgangsdaten waren ganz gewöhnliche Fotos, zusätzlich wurde in diesem Fall die grobe Struktur mit einem Laserscan gemessen. Die Detailtiefe der Visualisierung muss nicht überall gleich sein: Bei gewöhnlichem Mauerwerk genügt eine eher grobe Darstellung, wertvolle Fresken an der Wand möchte man sich aber vielleicht genauer ansehen. Hochauflösende Bilder der Fresken können daher zusätzlich in das 3D-Modell eingebaut werden.

Wenn man die Daten nicht für wissenschaftliche Zwecke braucht, dann muss man nicht unbedingt die maximale Detailtiefe nutzen. Gibt man sich mit etwas weniger Genauigkeit zufrieden, dann können auch Endgeräte wie Laptops oder Smartphones die 3D-Modelle flüssig darstellen. Am Computergraphik-Institut an der TU Wien wurde eigens dafür der "potree viewer" entwickelt. Er verwendet spezielle Techniken zu Darstellung großer Punktewolken, die nicht in den Speicher leistungsschwacher Endgeräte passen.

Veränderungen in 4D

Wenn man weiß, zu welchem Zeitpunkt die Bilder aufgenommen wurden, kann man den drei Raumdimensionen noch eine zeitliche Dimension hinzufügen und untersuchen, wie sich die beobachtete 3D-Welt verändert. Auch das ist für den Computer eine schwierige Aufgabe: Haben sich die abgebildeten Objekte tatsächlich verändert, oder sehen die Bilder nur unterschiedlich aus, weil sie bei unterschiedlichen Lichtverhältnissen, aus unterschiedlichen Winkeln oder mit unterschiedlichen Geräten aufgenommen wurden?

Menschen fällt es normalerweise recht leicht, solche Fragen zu beantworten – diese Fähigkeit einem Computer beizubringen, ist eine große Herausforderung. Solche Algorithmen können sogar für die Hochwasserforschung interessant sein. "Anwendungsmöglichkeiten für unsere Algorithmen gibt es praktisch überall – und ständig kommen neue dazu", sagt Stefan Ohrhallinger, Projektmitarbeiter.

Michael Nickles meint:

Die Meldungen über VR-Systeme werden immer häufiger, kommen aus allen Branchen von Erotik bis Wissenschaft. Jüngst hat Google eine VR-Initiative namens Daydream gestartet, die bereits ab Herbst VR für den Massenmarkt bezahlbar machen soll.

Die unmittelbare Konkurrenz zu teueren Systemen wie Oculus Rift und Co setzt (wie schon Googles Cardboard) auf Smartphone-Technik und günstiger Kopfhalterung sowie Controller. Nie nötigen Entwicklungswerkzeuge packt Google direkt in das neue Android N rein. Die Zusatzkosten zu einem geeigneten zertifizierten Smartphone werden auf unter 100 Euro geschätzt.

bei Antwort benachrichtigen