Automatisierte Sicherheit für autonome Fahrzeuge

Sicherheitsforscher arbeiten an Selbstheilungsalgorithmen und Verfahren der automatischen Beweisführung, um alle Beteiligten beim autonomen Fahren zu schützen.

In Pocket speichern vorlesen Druckansicht 43 Kommentare lesen
Automatisierte Sicherheit für autonome Fahrzeuge

(Bild: Dean Burton/Shutterstock.com)

Lesezeit: 4 Min.
Inhaltsverzeichnis

"Sichere Software zu schreiben ist schwierig", betont Suchit Mishra, Sicherheitsforscher bei der Firma Autonomous Intelligent Driving (AID) in München. Um bewährte Praktiken wie Tests, Codeprüfungen oder das Durchspielen von Angriffsmodellen zu beherzigen, brauche man ein recht großes IT-Sicherheitsteam. Doch selbst dann sei es schwer abzuschätzen, "ob wir sicher sind". Selbst Branchengrößen wie Apple und Google zahlten daher jährlich Millionen im Rahmen von Bug-Bounty-Programmen aus, um Schwachstellen per Crowdsourcing auf die Spur zu kommen.

Dabei gingen Sicherheitslücken im Internet oft noch vergleichsweise glimpflich aus, erklärte Mishra am Donnerstag auf der virtuellen VDI-Konferenz "Cyber Security for Vehicles". Meist würden Betroffenen "nur" Login- oder Finanzdaten geklaut. Programmierfehler in der realen Welt etwa beim Softwaredesign für vernetzte und selbstfahrende Autos könnten dagegen "fatal sein" und Menschenleben in Gefahr bringen.

Autonome Fahrzeuge seien im Kern "Datenzentren auf Rädern", führte Mishra aus. Wenn Roboautos aus der Ferne etwa über WLAN- oder andere Funkverbindungen gehackt würden, könne dies gravierende Folgen haben und gegebenenfalls eine ganze Fahrzeugflotte und ihre Insassen in die Bredouille bringen. Es müsse daher auf jeden Fall verhindert werden, dass ein Cyberattacke sicherheitskritische Funktionen wie die Steuerung oder die Bremsfunktionen betreffe. Auch Angriffe auf Hardware wie Kamerasensoren, Lidar- oder GPS-Module sollten ausgeschlossen werden. Es gelte auf alle Fälle, dem Fahrzeug einen "würdevollen Exit" zu erlauben und es sicher am Straßenrand ausrollen zu lassen.

Als verfügbare technische Möglichkeiten, um Hackerangriffen auf autonome Fahrzeuge zuvorzukommen oder diese zu erschweren, sieht der Experte auf der untersten Stufe "sichere Datenverarbeitungspraktiken" wie eine Umgebung zum "vertrauenswürdigen" Ausführen von Programmcode ("Trusted Execution Environment") mit isolierten Hardware- und Speicherkomponenten an. Diese könnten helfen, die Vertraulichkeit und Integrität des Systems zu wahren.

Der Einsatz von "Differential Privacy" stellt zudem laut Mishra sicher, dass die erhobenen Messwerte aus dem Auto und seiner Umgebung nicht von Datenanalysten missbräuchlich verwendbar seien. Dabei werde den Werten "etwas Rauschen" hinzugefügt, was eine Reidentifikation erschwere und die Anonymität stärke.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier eine externe Umfrage (Opinary GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Opinary GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Verfügbar sind laut dem Vertreter der Audi-Tochter mittlerweile zudem aus der Kognitionswissenschaft in den Bereich Maschinenlernen überführte Verfahren zur "automatischen Beweisführung" (Automated reasoning), um die Sicherheitslage in dem System "mathematisch" darlegen zu können. Damit werde es auch möglich, Schwachstellen durch eine "statische Analyse und eine symbolische Codeausführung" automatisch zu beheben. Dafür würden auch "Erfüllbarkeitsmodulotheorien" (Satisfiability Modulo Theories) herangezogen. Darunter versteht man Entscheidungsprobleme für logische Formeln, mit denen Hintergrundtheorien kombiniert werden, die in der klassischen Logik erster Ordnung mit Gleichheit ausgedrückt werden.

Dabei herauskommen soll eine sich selbst verteidigende Software, die etwa typische Probleme und Sicherheitslücken wie Buffer Overflows ohne menschliches Zutun erkennt und abstellt. Ähnlichen Ansätzen auf die Spur kommen wollen auch die Partner des vom Bundesforschungsministeriums geförderten Projekts "Validierung von Safety- und Security-Anforderungen in autonomen Fahrzeugen" (Satisfy), zu denen unter anderem das das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI), die Universität Tübingen, Volkswagen und Bosch gehören.

Daniel Große vom DFKI Bremen brachte hier die zum Aufspüren von Fehlern verwendete Technik Dynamic Information Flow Tracking (DIFT) in einer um virtuelle Prototypen erweiterten Form ins Spiel. Damit ließen sich Sicherheitsregeln bereits entwickeln und validieren, bevor eine Hard- oder Software tatsächlich verfügbar sei.

Für autonome Fahrzeuge adaptieren wollen die Projektbeteiligen laut Große zudem die Methode FDIR (Fault Detection, Isolation, and Recovery), bei der Selbstheilungsalgorithmen automatisiert maschinelles Versagen entdecken, Fehler bestimmen, isolieren und etwa durch Ausweichen auf Ersatzkomponenten oder notfalls einen Systemneustart beheben sollen. Im Rahmen von Satisfy füge man dem noch "Optimierung" hinzu, um die betroffene Anwendungen für künftige Herausforderungen zu rüsten.

Die signalbasierte CAN-Bus-Architektur (Controller Area Network) wollen die Projektpartner durch ein System zum Erkennen von Angriffen (Intrusion Detection) in Echtzeit sicherer machen. Mithilfe eines Virtualisierungsansatzes und dem Einbau von Limits für das Senden und Empfangen von Botschaften sollen hier etwa Denial-of-Service-Angriffe ausgebremst werden. Für die Entwicklungsgemeinschaft Autosar, die eine Middleware für Steuergeräte in vernetzten Autos produziert, kündigte Adrian Baruta von Toyota ebenfalls den Einzug eines Intrusion-Detection-Systems an, um Angriffe einfacher ausfindig machen und erwidern zu können.

(olb)