Andreas Gerstinger ist System-Safety-Experte mit Erfahrung in verschiedenen sicherheitskritischen Bereichen, vor allem in der Flugsicherungs- und Bahnindustrie. Er ist bei Frequentis angestellt und zudem Lehrender an der FH Campus Wien und dem FH Technikum Wien .

In dieser Episode haben wir über die Boeing 737 MAX Abstürze im Oktober 2018 und März 2019 gesprochen, bei denen insgesamt mehr als 300 Menschen gestorben sind. Als Ursache wurde ein System ausgemacht, dass die Fluglage eigentlich stabilisieren sollte. Wir haben ausführlich besprochen, welche Umstände zu der Fehlkonstruktion dieses Systems und schlussendlich zum System-Safety-Versagen geführt haben.

Hier sind die im Podcast angesprochenen Dokumente und weiterführende Informationsquellen:

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören!

Michael Schmid ist Technology Architect und Loss Prevention Specialist im für autonome Systeme. Seine Forschung konzentriert sich darauf, Unfälle und Verluste im Zusammenhang mit Systemen, die auf künstliche Intelligenz (KI) setzen, zu vermeiden und KI für den Einsatz im Technologiealltag sicher zu machen.

Zuvor hat Michael an automatisierten Funktionen in Autos und Software für autonome Systeme gearbeitet und einen Zertifizierungsansatz für automatisierte Fahrzeuge entwickelt. Michael hat einen Masterabschluss des Massachusetts Institute of Technology (MIT) und ist derzeit Doktorand in der Group for System Safety and Cybersecurity am MIT.

In dieser Folge gab Michael einige Einblicke in seine Forschung und erklärte, warum wir einen systemischen Ansatz brauchen, um viele der heutigen Technologieprobleme zu lösen. Als Beispiel haben Michael und ich einige der Herausforderungen autonomer Autos diskutiert und einen systembasierten Ansatz für deren Zertifizierung skizziert. Michael gab einen kurzen Überblick über seine aktuelle Forschung, um KI-basierte Technologie sicher zu machen, und beschrieb einige seiner Hauptideen. Als Grundlage für seinen Ansatz dient STAMP, ein neues Unfall-Kausalitätsmodell, das von Nancy Leveson, Michaels Supervisorin am MIT, entwickelt wurde.

Weitere Informationsquellen:

  • Um mehr über Michael, seine Projekte und aktuelle Arbeiten zu erfahren oder seine Masterarbeit zur Zertifizierung automatisierter Fahrzeuge herunterzuladen, besuchen Sie seine Webseite: michael.systems
  • Informationen zu STAMP und dem nächsten STAMP-Workshop finden Sie auf: PSAS website

Entweder gleich hier, auf Spotify oder auf der Plattform der Wahl anhören!

Ingo Houben ist Business Development und Account Manager bei AdaCore und verantwortlich für den deutschsprachigen Raum. Er langjährige Berufserfahrung in der EDA-, Embedded- und Automobilindustrie. Dort hat er sich mit Mikroelektronik und Softwaretechnik beschäftigt.

In diesem Podcast haben wir über Ada und Spark gesprochen. Ada ist eine Programmiersprache, die sich aufgrund der strengen Anforderungen an validierte Compiler gut für sicherheitskritische Anwendungen eignet. Spark ist eine Variante von Ada mit zusätzlichen Regeln. Diese Regeln ermöglichen es, Programme automatisch auf Korrektheit zu prüfen.

Die von Ingo erwähnte Studie kann hier heruntergeladen werden: Controlling Costs with Software Language Choice

Bei Fragen kann man sich über LinkedIn an Ingo wenden: Ingo Houben - LinkedIn

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören! 

Mathis Lechner Lechner ist PhD-Student und Machine Learning Forscher am Institute of Science and Technology Austria in Maria Gugging bei Klosterneuburg. Seine Forschungsschwerpunkte sind Machine Learning, Formale Methoden und Robotik. In diesem Zusammenhang kam es zur Zusammenarbeit mit Forscherinnen und Forschern des IST, der TU Wien und dem MIT .

In dieser Episode haben wir darüber gesprochen, welche Aspekte beachtet werden müssen, um Systeme mit neuronalen Netzen in sicherheitskritischen Systemen einsetzen zu können. Spezieller Fokus wurde auf eine Arbeit vom letzten Jahr gelegt. Zusammen mit Ramin Hasani war er Hauptautor einer Arbeit die gezeigt hat, dass mit wenigen Neuronen in autonomen Fahrsituationen teilweise bessere Ergebnisse erzielt werden können, als mit komplexen neuronalen Netzen, wenn man sich an der Natur orientiert.

Hier sind die im Podcast angesprochenen Paper:

Entweder gleich hier, auf Spotify oder auf der Plattform Ihrer Wahl anhören!

Sarah Fluchs ist CTO von Admeritia und zudem die Verfasserin der monatlichen Security-Briefing für Hard Hats. In Arbeitsgruppen der ISA und der IEC beschäftigt sie sich zudem mit der Normung.

In dieser Episode haben wir Gemeinsamkeiten und Unterschiede von Safety und Security erörtert. Dabei sind wir auf Themen gestoßen, bei der die eine Disziplin von der anderen lernen kann oder bei denen beide Disziplinen gemeinsam noch dazulernen müssen.

Das Security-Briefing kann hier abonniert werden.

Entweder gleich hier, auf  Spotify  oder auf der Plattform Ihrer Wahl anhören!