Dr Siddartha Khastgir ist Head of Verification & Validation of Collaborative Autonomous Vehicles (CAV) in der WMG, University of Warwick, UK. Seine Forschungsgebiete CAV-Bereich umfassen unter anderem die Generierung von Testszenarien, Safety, simulationsbasiertes Testen und sichere KI. Für seine Forschungsbeiträge hat er zahlreiche nationale und internationale Auszeichnungen erhalten, darunter das renommierte UKRI Future Leaders Fellowship, ein siebenjähriges Fellowship, das sich auf die Sicherheitsbewertung von CAVs konzentriert, und ist ein Forbes 30 Under 30 Europe List Maker. Er ist auch Projektleiter für das ASAM-Standardisierungsprojekt - OpenODD und ein aktiver Teilnehmer an ASAM-, SAE-, ISO- und UNECE-Diskussionen.

In dieser Folge haben wir über die Verifikation und Validierung von autonomen Fahrzeugen gesprochen. Dabei ging es unter anderem um die Vorteile und Herausforderungen von Simulationen und wie eine Forschungsfrage mehrere weitere Fragen aufwirft. Außerdem haben wir über das autonome Fahren mit niedriger Geschwindigkeit und über die neue Norm ISO 22737 „Low-Speed Automated Driving (LSAD) systems“ gesprochen. Er war der Hauptautor dieses Standards sowie des Standards ISO 34503 „Taxonomie für ODD“, wobei ODD für Operational Design Domain steht.

Weitere Ressourcen:

  • BSI PAS 1883 - Der PAS (publicly available standard) zu ODDs kann hier heruntergeladen werde
  • ISO 22737:2021 - Der neue Standard fürs autonome Fahrzeuge mit niedriger Geschwindigkeit kann hier gekauft werden
  • Hier kann man mehr über openODD erfahren
  • Besucht Siddarthas website

Entweder gleich hier, auf Spotify oder auf der Plattform der Wahl anhören!

Andreas Gerstinger ist System-Safety-Experte mit Erfahrung in verschiedenen sicherheitskritischen Bereichen, vor allem in der Flugsicherungs- und Bahnindustrie. Er ist bei Frequentis angestellt und zudem Lehrender an der FH Campus Wien und dem FH Technikum Wien .

In dieser Episode haben wir über die Boeing 737 MAX Abstürze im Oktober 2018 und März 2019 gesprochen, bei denen insgesamt mehr als 300 Menschen gestorben sind. Als Ursache wurde ein System ausgemacht, dass die Fluglage eigentlich stabilisieren sollte. Wir haben ausführlich besprochen, welche Umstände zu der Fehlkonstruktion dieses Systems und schlussendlich zum System-Safety-Versagen geführt haben.

Hier sind die im Podcast angesprochenen Dokumente und weiterführende Informationsquellen:

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören!

Mathis Lechner Lechner ist PhD-Student und Machine Learning Forscher am Institute of Science and Technology Austria in Maria Gugging bei Klosterneuburg. Seine Forschungsschwerpunkte sind Machine Learning, Formale Methoden und Robotik. In diesem Zusammenhang kam es zur Zusammenarbeit mit Forscherinnen und Forschern des IST, der TU Wien und dem MIT .

In dieser Episode haben wir darüber gesprochen, welche Aspekte beachtet werden müssen, um Systeme mit neuronalen Netzen in sicherheitskritischen Systemen einsetzen zu können. Spezieller Fokus wurde auf eine Arbeit vom letzten Jahr gelegt. Zusammen mit Ramin Hasani war er Hauptautor einer Arbeit die gezeigt hat, dass mit wenigen Neuronen in autonomen Fahrsituationen teilweise bessere Ergebnisse erzielt werden können, als mit komplexen neuronalen Netzen, wenn man sich an der Natur orientiert.

Hier sind die im Podcast angesprochenen Paper:

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören!

Michael Schmid ist Technology Architect und Loss Prevention Specialist im für autonome Systeme. Seine Forschung konzentriert sich darauf, Unfälle und Verluste im Zusammenhang mit Systemen, die auf künstliche Intelligenz (KI) setzen, zu vermeiden und KI für den Einsatz im Technologiealltag sicher zu machen.

Zuvor hat Michael an automatisierten Funktionen in Autos und Software für autonome Systeme gearbeitet und einen Zertifizierungsansatz für automatisierte Fahrzeuge entwickelt. Michael hat einen Masterabschluss des Massachusetts Institute of Technology (MIT) und ist derzeit Doktorand in der Group for System Safety and Cybersecurity am MIT.

In dieser Folge gab Michael einige Einblicke in seine Forschung und erklärte, warum wir einen systemischen Ansatz brauchen, um viele der heutigen Technologieprobleme zu lösen. Als Beispiel haben Michael und ich einige der Herausforderungen autonomer Autos diskutiert und einen systembasierten Ansatz für deren Zertifizierung skizziert. Michael gab einen kurzen Überblick über seine aktuelle Forschung, um KI-basierte Technologie sicher zu machen, und beschrieb einige seiner Hauptideen. Als Grundlage für seinen Ansatz dient STAMP, ein neues Unfall-Kausalitätsmodell, das von Nancy Leveson, Michaels Supervisorin am MIT, entwickelt wurde.

Weitere Informationsquellen:

  • Um mehr über Michael, seine Projekte und aktuelle Arbeiten zu erfahren oder seine Masterarbeit zur Zertifizierung automatisierter Fahrzeuge herunterzuladen, besuchen Sie seine Webseite: michael.systems
  • Informationen zu STAMP und dem nächsten STAMP-Workshop finden Sie auf: PSAS website

Entweder gleich hier, auf Spotify oder auf der Plattform der Wahl anhören!

Ingo Houben ist Business Development und Account Manager bei AdaCore und verantwortlich für den deutschsprachigen Raum. Er langjährige Berufserfahrung in der EDA-, Embedded- und Automobilindustrie. Dort hat er sich mit Mikroelektronik und Softwaretechnik beschäftigt.

In diesem Podcast haben wir über Ada und Spark gesprochen. Ada ist eine Programmiersprache, die sich aufgrund der strengen Anforderungen an validierte Compiler gut für sicherheitskritische Anwendungen eignet. Spark ist eine Variante von Ada mit zusätzlichen Regeln. Diese Regeln ermöglichen es, Programme automatisch auf Korrektheit zu prüfen.

Die von Ingo erwähnte Studie kann hier heruntergeladen werden: Controlling Costs with Software Language Choice

Bei Fragen kann man sich über LinkedIn an Ingo wenden: Ingo Houben - LinkedIn

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören!