Dr. Holger Flühr ist seit 2003 an der FH Joanneum tätig und seit 2006 ist er dort Professor für Avionik und Flugsicherungstechnik. Zudem agierte er zeitweise auch als Instituts- und Studiengangsleiter. Davor war nach jahrelanger Tätigkeit in der Forschung im Forschungszentrum Karlsruhe (aufgegangen im KIT) und der TU Graz eine Zeit lang auch bei einem Unternehmen beschäftigt, das sich mit der Entwicklung von Hochfrequenz-Bauteilen für Mobilfunkanwendungen beschäftigt. Abschließend wären noch die Mitgliedschaften in Beratungsgremien und Interessensvertretungen zu erwähnen.

In den letzten Wochen war in Zeitungen und Online-Medien vermehrt über den Mobilfunkstandard 5G und mögliche Komplikationen mit Flugzeugen zu lesen. Kurz gesagt besteht die Gefahr, dass die 5G-Mobilfunkwellen Flugzeuge während der Landung stören könnten. Und während die Luftfahrt grundsätzlich als sehr sicher gilt, gehören Start und eben auch Landung zu den kritischeren Phasen eines Flugs. Was hat es nun mit den Berichten auf sich? Auf diese und weitere Fragen ist Herr Flühr im Podcast eingegangen. Am Anfang wurde vor allem das geklärt was die Avionik überhaupt ist und anhand welcher Grundidee man Flugzeuge und deren Systeme sicher gestaltet.

Weitere Ressourcen:

Entweder gleich hier, auf Spotify oder auf der Plattform der Wahl anhören!

Andreas Gerstinger ist System-Safety-Experte mit Erfahrung in verschiedenen sicherheitskritischen Bereichen, vor allem in der Flugsicherungs- und Bahnindustrie. Er ist bei Frequentis angestellt und zudem Lehrender an der FH Campus Wien und dem FH Technikum Wien .

In dieser Episode haben wir über die Boeing 737 MAX Abstürze im Oktober 2018 und März 2019 gesprochen, bei denen insgesamt mehr als 300 Menschen gestorben sind. Als Ursache wurde ein System ausgemacht, dass die Fluglage eigentlich stabilisieren sollte. Wir haben ausführlich besprochen, welche Umstände zu der Fehlkonstruktion dieses Systems und schlussendlich zum System-Safety-Versagen geführt haben.

Hier sind die im Podcast angesprochenen Dokumente und weiterführende Informationsquellen:

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören!

Dr Siddartha Khastgir ist Head of Verification & Validation of Collaborative Autonomous Vehicles (CAV) in der WMG, University of Warwick, UK. Seine Forschungsgebiete CAV-Bereich umfassen unter anderem die Generierung von Testszenarien, Safety, simulationsbasiertes Testen und sichere KI. Für seine Forschungsbeiträge hat er zahlreiche nationale und internationale Auszeichnungen erhalten, darunter das renommierte UKRI Future Leaders Fellowship, ein siebenjähriges Fellowship, das sich auf die Sicherheitsbewertung von CAVs konzentriert, und ist ein Forbes 30 Under 30 Europe List Maker. Er ist auch Projektleiter für das ASAM-Standardisierungsprojekt - OpenODD und ein aktiver Teilnehmer an ASAM-, SAE-, ISO- und UNECE-Diskussionen.

In dieser Folge haben wir über die Verifikation und Validierung von autonomen Fahrzeugen gesprochen. Dabei ging es unter anderem um die Vorteile und Herausforderungen von Simulationen und wie eine Forschungsfrage mehrere weitere Fragen aufwirft. Außerdem haben wir über das autonome Fahren mit niedriger Geschwindigkeit und über die neue Norm ISO 22737 „Low-Speed Automated Driving (LSAD) systems“ gesprochen. Er war der Hauptautor dieses Standards sowie des Standards ISO 34503 „Taxonomie für ODD“, wobei ODD für Operational Design Domain steht.

Weitere Ressourcen:

  • BSI PAS 1883 - Der PAS (publicly available standard) zu ODDs kann hier heruntergeladen werde
  • ISO 22737:2021 - Der neue Standard fürs autonome Fahrzeuge mit niedriger Geschwindigkeit kann hier gekauft werden
  • Hier kann man mehr über openODD erfahren
  • Besucht Siddarthas website

Entweder gleich hier, auf Spotify oder auf der Plattform der Wahl anhören!

Michael Schmid ist Technology Architect und Loss Prevention Specialist im für autonome Systeme. Seine Forschung konzentriert sich darauf, Unfälle und Verluste im Zusammenhang mit Systemen, die auf künstliche Intelligenz (KI) setzen, zu vermeiden und KI für den Einsatz im Technologiealltag sicher zu machen.

Zuvor hat Michael an automatisierten Funktionen in Autos und Software für autonome Systeme gearbeitet und einen Zertifizierungsansatz für automatisierte Fahrzeuge entwickelt. Michael hat einen Masterabschluss des Massachusetts Institute of Technology (MIT) und ist derzeit Doktorand in der Group for System Safety and Cybersecurity am MIT.

In dieser Folge gab Michael einige Einblicke in seine Forschung und erklärte, warum wir einen systemischen Ansatz brauchen, um viele der heutigen Technologieprobleme zu lösen. Als Beispiel haben Michael und ich einige der Herausforderungen autonomer Autos diskutiert und einen systembasierten Ansatz für deren Zertifizierung skizziert. Michael gab einen kurzen Überblick über seine aktuelle Forschung, um KI-basierte Technologie sicher zu machen, und beschrieb einige seiner Hauptideen. Als Grundlage für seinen Ansatz dient STAMP, ein neues Unfall-Kausalitätsmodell, das von Nancy Leveson, Michaels Supervisorin am MIT, entwickelt wurde.

Weitere Informationsquellen:

  • Um mehr über Michael, seine Projekte und aktuelle Arbeiten zu erfahren oder seine Masterarbeit zur Zertifizierung automatisierter Fahrzeuge herunterzuladen, besuchen Sie seine Webseite: michael.systems
  • Informationen zu STAMP und dem nächsten STAMP-Workshop finden Sie auf: PSAS website

Entweder gleich hier, auf Spotify oder auf der Plattform der Wahl anhören!