Roborace: Autorennen mit autonomen Fahrzeugen

Hartmut Schumacher 6. April 2016 0 Kommentar(e)

Selbstfahrende Autos werden voraussichtlich bis zum Jahr 2040 eine Selbstverständlichkeit auf unseren Straßen sein. Auf Rennstrecken dagegen ist es bereits dieses Jahr so weit.

Auch interessant: Report: So werden die Autos der Zukunft aussehen

Der Entwurf für die Roborace-Rennwagen stammt vom deutschen Automobil-Designer Daniel Simon. (Foto: Roborace / Daniel Simon)

Der Entwurf für die Roborace-Rennwagen stammt vom deutschen Automobil-Designer Daniel Simon. (Foto: Roborace / Daniel Simon)

In der Saison 2016/17 der Formel-E-Meisterschaft (einer Rennserie für Elektromotorautos) wird im Rahmenprogramm zum ersten Mal das Roborace stattfinden: eine Serie von Rennen für selbstfahrende Autos.

Diese Rennen verwenden dieselben Strecken wie die regulären Rennen – also Pisten in Großstädten rund um die Welt, darunter Berlin, Paris, London, Moskau, Long Beach, Buenos Aires und Peking.

Jedes Rennen dauert eine Stunde lang. Antreten werden zehn Teams, die jeweils über zwei autonome Rennwagen verfügen. Die Besonderheit dabei: Alle Teams benutzen dasselbe Fahrzeugmodell. Entscheidend sind also die unterschiedlichen Künstliche-Intelligenz-Programme, die die verschiedenen Teams einsetzen.

Deutscher Automobil-Designer mit Hollywood-Erfahrung

Entworfen hat das Aussehen des Wagens der deutsche Automobil-Designer Daniel Simon, der vor allem durch seine Fahrzeugentwürfe für den Kinofilm „Tron: Legacy“ bekannt wurde.

Der autonome Rennwagen ist 4,8 Meter lang und 2 Meter breit und wiegt 1000 Kilogramm. Damit ist er etwas kürzer, breiter und schwerer als ein herkömmliches Formel-E-Fahrzeug

Nvidia-Plattform für künstliche Intelligenz in Autos

Als Computer-Hardware für die Künstliche-Intelligenz-Systeme der Autos dient die „Drive PX2“-Plattform von Nvidia. Dieses Hardware-Modul ist imstande, eintreffende Daten von zwölf HD-Kameras sowie von Radar-, Lidar- und Ultraschall-Sensoren zu verarbeiten. Dies erlaubt es den Algorithmen der Steuerungs-Software, sich ein zuverlässiges 360-Grad-Bild der Umgebung zu verschaffen. Das Modul enthält zwei Tegra-Prozessoren und zwei Pascal-Grafikprozessoren. Integriert ist die „Cuda“-Bibliothek, die den Software-Entwicklern Neuronale-Netzwerk-Funktionen zum Erkennen von Objekten zur Verfügung stellt.

Das „Drive PX2“-Hardware-Modul von Nvidia fügt die Daten von Kameras sowie von Radar-, Lidar- und Ultraschall-Sensoren zu einem 360-Grad-Bild der Umgebung zusammen. (Foto: Nvidia)

Das „Drive PX2“-Hardware-Modul von Nvidia fügt die Daten von Kameras sowie von Radar-, Lidar- und Ultraschall-Sensoren zu einem 360-Grad-Bild der Umgebung zusammen. (Foto: Nvidia)

Quellen: Roborace, FIA Formula E, Nvidia

auf Facebook teilen auf Google+ teilen auf Twitter teilen
pic_HS

Hartmut Schumacher   Redakteur

Hartmut ist ganz vernarrt in Smartphones und Tablets. Allerdings hielt er auch schon Digitaluhren für eine ziemlich tolle Erfindung. Er betrachtet Gedankenstriche als nützliche Strukturierungsmittel – und schreibt nur gelegentlich in der dritten Person über sich selbst.