Mit ihrer Software sollen künftig Fahrzeuge und Roboter sehen lernen und damit autonom in vernetzten Städten navigieren. In einem Pilotprojekt in Berlin stellt das Start-up Artisense seine Technologie gemeinsam mit Partnern derzeit dem Praxistest - und will damit einen Standard in der Branche setzen. Dank ausgeklügelter Algorithmen erstellt die Software neuartige 3D-Karten mit einem vergleichsweise geringen Aufwand. Aufwendige und fotorealistische 3D-Aufnahmen brauche es dazu nicht, auch auf teure Hardware könne verzichtet werden. "Wir wollen dabei helfen, Mobilität neu zu denken, und uns an die Spitze der Entwicklung setzen", sagt Till Kaestner, Mitgründer von Artisense.
Das Ziel sei es, Maschinen in die Lage zu versetzen, wie Menschen zu sehen, sagt Kaestner. Und: "Was wir können, können die Großen nicht." Anders als Konzepte, die auf fotorealistische Darstellungen für das menschliche Auge setzen, erstellt die Software der Artisense-Tüftler während der Fahrt ein komplettes Straßenbild quasi in einer 3D-Wolke aus einzelnen Punkten. Große Bilddateien sind damit passé. Künstliche Intelligenz ermögliche dabei eine dynamische 3D-Kartierung und Lokalisierung in der Karte in Echtzeit, erklärte Kaestner. Dabei könnten die Berechnungen in einem herkömmlichen Rechner im Auto erfolgen, ein GPS-Signal sei nicht erforderlich - auch nicht der Einsatz teurer Sensoren wie etwa Lidar-Systeme.
Wie können sich Fahrzeuge überhaupt autonom im dichten Verkehr in den Städten bewegen? An den Grundlagen dafür arbeitet derzeit intensiv eine ganze Reihe von Unternehmen. Für die Vermessung der Welt erstellen etwa Branchengrößen wie Here, TomTom oder Google seit Jahren umfangreiches Kartenmaterial. Dafür lassen sie mit Laser-Radaren (Lidar), anderen leistungsfähigen Sensoren und Kameras ausgestattete Fahrzeuge durch die Straßen fahren.