GTC 2018: Von selbstfahrenden Autos und Zukunftsvisionen

Technologie ist wie ein Puzzle. Viele kleine Teile müssen zusammenkommen und übereinstimmen, damit ein Gesamtbild entsteht. Nvidia Jetson Xavier ist ein solches Puzzlestück. Für sich alleinstehend ist Xavier ein SoC. In Verbindung mit Modulen, Algorithmen und Erweiterungskarten ist Xavier der nächste Schritt in eine autonome, künstlich intelligente Welt.

Wer jetzt an einen klassischen PC denkt, liegt gar nicht so falsch. Nur ist Nvidia Jetson Xavier, SoC samt Entwickler-Board, nur ein klein wenig größer als ein Apfel. Die Rechenleistung, die Nvidia in diese kompakte Größe packt, ist im Stande ganze Produktionsstätten zu automatisieren. Automobilhersteller erhalten mehr Rechenleistung, die für Gefahrenerkennung und Analyse der Umgebung genutzt werden kann. Im Medizinsegment können intelligente Geräte gebaut werden, die Krankheitsbilder erkennen und passende Heilungsmethoden vorschlagen

Der Treiber hinter solchen Szenarien ist AI, also die künstliche Intelligenz, sowie neuronale Netzwerke. AI benötigt eine enorme Rechenleistung, da eine große Menge an Daten gleichzeitig erzeugt wird und verarbeitet werden muss. Die Algorithmen, die für diese Verarbeitung von Daten zuständig sind, wurden vor der Volta V100 durch eine „langsame“ GPU-Architektur limitiert. Xavier erbt die Gene der Volta V100 und bietet eine energieeffiziente (50 Watt) Plattform für die unterschiedlichen Branchen. Die Volta Tensor Core GPU bietet 512 CUDA Tensor Cores mit einer Leistung von 2,8 CUDA TOPS in FP16 Berechnungen.

Abseits der Erkennung und Identifikation von Objekten ist der Umgang mit den ermittelten Informationen und Daten essentiell. Das maschinelle Lernen ist ein wichtiger Bestandteil des „neuen“ HPC Marktes und unterscheidet sich je nach Szenario und einzelne Branche. Trotz unterschiedlicher Anforderungen möchte es Nvidia schaffen, alle Branchen zu bedienen. Möglich macht das ein weiteres Puzzle-Teil: Die Software.

Viele Anwendungen und Lösungen werden heutzutage in der Entwicklungssprache Python geschrieben. 1991 in der ersten Version eingeführt, hat sich die Sprache über die Jahre weiterentwickelt und konnte einen großen Nutzerkreis aufbauen. Python ist DIE am schnellsten wachsende Sprache unserer Zeit. Nvidia hat mit CUDF und CUML eine GPU-Beschleunigung umgesetzt, die zwar die Anpassung des Codes bestehender Anwendungen erfordert, die Verarbeitungszeit der Anwendungen jedoch signifikant erhöht.

Damit gelingt es Nvidia also CUDA in Phyton zu integrieren. Da CUDA bereits seit 2006/2007 Jahren ein fester Bestandteil der Nvidia Grafikkarten ist, profitieren alle Anwender (GPU ab Kepler, also CUDA 3.0 vorausgesetzt) von der Beschleunigung. Alle Bibliotheken stellt Nvidia unter OpenSource-Lizenz zur Verfügung. Wer zu einem Xavier-Entwickler-Kit greift, kann also gleich auf die volle Leistung zugreifen.

Wie bereits in unserem Bericht zum ersten Kongresstag beschrieben, ist eines der großen Ambitionen von Nvidia, die Trennung von AI und Cloud. Autonome Fahrzeuge, Roboter und Maschinen sollen zur Datenberechnung nicht mehr Internet-abhängig sein. Bei der lokalen Datenverarbeitung entfallen Probleme wie hohe Latenzzeiten, die auf eine schlechte Netzabdeckung zurückzuführen sind.

Bevor Systeme wie selbstfahrende Fahrzeuge mit der passenden und „richtigen“ Information gefüttert werden, müssen die Datenmengen zuvor erhoben werden. Eine Möglichkeit ist, wie bereits oben beschrieben, ein Echtzeitbetrieb unter realen Umständen. Blöderweise hängen Menschen- und Tierleben von der richtigen Funktionsweise selbstfahrender Fahrzeuge ab. Es wird schwer werden, Freiwillige zu finden, die sich an- oder überfahren lassen, damit die Daten für die Weiterentwicklung des Erkennungssystems erhoben werden können.

Dieser Herausforderung begegnet Nvidia mit Simulation. Die möglichen Szenarien sind nahezu unbegrenzt. Wetter- und Sichtverhältnisse, Verhalten von anderen Verkehrsteilnehmern sowie provoziertes Fehlverhalten können virtuell dargestellt werden. Kleinste Veränderungen der Simulation produzieren neue, individuelle Daten. Mit der entsprechenden Rechenleistung werden mehr und individuellere Daten produziert, als es unter realen Bedingungen möglich wäre.

Um auch Echtzeitdaten zu erhalten, hat Nvidia das „Nvidia Drive“ vorgestellt. Eine Art Upgrade-Kit für bestehende Fahrzeuge. Damit wird es möglich sein, autonome Fahrsysteme, modellunabhängig nachzurüsten und für Forschungen sowie Feldversuche zu verwenden.

Ebenfalls interessant...