Skip to main content

18.6.2024 | Hochschule für Angewandte Psychologie

Künstliche Intelligenz für effizientere Sicherheitskontrollen an Flughäfen

Neueste Gepäckröntgengeräte nutzen Computer-Tomografie und künstliche Intelligenz, um verbotene Gegenstände automatisch zu erkennen. So können Sicherheitskontrollen effizienter ablaufen, da Flüssigkeiten und Laptops im Gepäck bleiben dürfen.

Sicherheit hat an Flughäfen oberste Priorität. Flugreisende müssen deshalb vor dem Einsteigen in ihr Flugzeug eine Sicherheitskontrolle durchlaufen, bei der ihr Gepäck mit Röntgengeräten gescannt wird. Das Sicherheitspersonal begutachtet die Röntgenbilder, damit gewährleistet ist, dass keine verbotenen Gegenstände wie Messer, Schusswaffen oder Bomben enthalten sind. Künftig soll eine künstliche Intelligenz (KI) dabei helfen.

Ein Team um Yanik Sterchi und Adrian Schwaninger an der Hochschule für Angewandte Psychologie FHNW forscht dazu gemeinsam mit Flughäfen, Sicherheitsdienstleistern und Geräteherstellern. Sterchi erklärt: «Seit einigen Jahren wird der Einsatz von sogenannten Automated Prohibited Item Detection Systems, kurz APIDS, vorangetrieben, um Sicherheitskontrollen von Passagiergepäck effizienter zu machen. In unserem angewandten Forschungs- und Entwicklungsprojekt unterstützen wir die Einführung in der Schweiz. Wir untersuchen, wie gut die APIDS funktionieren, wie die Mensch-Technik-Interaktion gestaltet und wie das Sicherheitspersonal für den Einsatz der neuen Technologie geschult werden soll.»

KI-Sicherheitskontrolle_Content_2.jpg
KI soll künftig helfen, verbotene Gegenstände im Gepäck bei der Sicherheitskontrolle an Flughäfen zu erkennen. (Bild: FHNW)

Technik zur Unterstützung des Menschen

Bei jeder Sicherheitskontrolle wird das Gepäck mithilfe von Röntgenstrahlung verschiedener Wellenlängen durchleuchtet. Je nachdem, ob das Material eher dicht oder durchlässig, metallisch oder organisch ist, wird es unterschiedlich stark von den Röntgenstrahlen durchdrungen. Röntgenscanner wandeln diese Information über Dichte und Material automatisch in Farbbilder um, damit die Kontrolleur*innen darin die verschiedenen Objekte besser erkennen können. Auf den Bildern sieht eine geschulte Sicherheitsperson anhand von Form und Farbe der Objekte, ob es sich um Bomben, Messer, Schusswaffen oder andere verbotene Gegenstände handelt.

«Technologie und Menschen sollten gemeinsam weiterentwickelt werden.»

Yanik Sterchi, Professor an der Hochschule für Angewandte Psychologie FHNW

Schon seit vielen Jahren wird das Sicherheitspersonal durch Kontrollsysteme zur Sprengstofferkennung unterstützt. Diese Explosive Detection Systems (EDS) erkennen Sprengstoffe aufgrund von Dichte und Material in Röntgenbildern, was insbesondere mit Computer-Tomografie (CT) sehr zuverlässig funktioniert. APIDS hingegen basieren auf künstlichen tiefen neuronalen Netzen (Deep Neural Networks). Diese verwenden neben dem Material noch weitere Informationen, um verbotene Gegenstände zu erfassen, zum Beispiel deren Form. Moderne Röntgengeräte vereinen die drei Technologien – CT, EDS und APIDS – in einem Gerät. Schwaninger erklärt: «Durch die Kombination dieser Technologien wird das Sicherheitspersonal unterstützt und die Sicherheitskontrollen können effizienter gestaltet werden, weil man Flüssigkeiten und Laptops nicht mehr auspacken muss.»

Tests mit eigener KI

Gemeinsam mit Forschenden der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) hat das Projektteam eigene APIDS-Algorithmen für ihre Versuche entwickelt. Diese haben sie mit Hunderttausenden von Bildern trainiert, damit die KI lernt, wie ein gefährlicher Gegenstand in verschiedensten Gepäckstücken aus unterschiedlichen Perspektiven aussehen kann. Dann forderten die Forschenden ihre Algorithmen in einem Simulator mit verschiedenen Sets von rund 10 000 Röntgenbildern von Gepäckstücken heraus. Sterchi berichtet: «Die Erkennungsrate der KI wird durch verschiedene Faktoren beeinflusst. Das Röntgengerät und die Aufnahmerichtung spielen eine wichtige Rolle, aber auch die Lage sowie das Material der verbotenen Gegenstände und wie stark sie durch andere Gegenstände überdeckt sind.»

Herstellerfirmen von APIDS haben den Forschenden bestätigt, dass diese Faktoren auch für ihre eigenen Algorithmen relevant sind. Die KI der Forschenden war diesbezüglich also mit professionellen Anwendungen vergleichbar. Sterchi sagt: «Wir verstehen jetzt genauer, wie sich APIDS-Algorithmen verbessern lassen und was zu beachten ist, wenn man die Qualität solcher KI-Algorithmen testen möchte.»

KI-Sicherheitskontrolle_Content_1.jpg
Sobald die KI einen verdächtigen Gegenstand entdeckt, alarmiert sie das Sicherheitspersonal, das die Bilder anschliessend überprüft. (Bild: FHNW)

Wie funktioniert die Mensch-Technik Interaktion?

Besonders neugierig waren das Forschungsteam und die Praxispartner auf das Zusammenspiel zwischen Mensch und KI. Dafür haben sie mit Flughafensicherheitspersonal verschiedene Studien an Simulatoren durchgeführt. In einer davon markierte die KI verdächtige Stellen im Röntgenbild mit einem roten Rahmen. «Durch den Einsatz der KI detektierte das Sicherheitspersonal schneller und besser verbotene Gegenstände», sagt Schwaninger. «Diesen positiven Effekt findet man, wie erwartet, nur für verbotene Gegenstände, auf welche die KI trainiert wurde. In unseren bisherigen Studien waren dies Messer, Schusswaffen und scharfe Werkzeuge.»

«Mit Computer-Tomografie und KI können Gepäcksicherheitskontrollen an Flughäfen optimiert werden.»

Adrian Schwaninger, Leiter Institut Mensch in komplexen Systemen an der Hochschule für Angewandte Psychologie FHNW

In einer anderen Studie wollten die Forschenden herausfinden, wie das Sicherheitspersonal bei der Einführung von KI-Systemen geschult werden soll. Beispielsweise konnte das getestete APIDS noch keinen Pfefferspray erkennen. «Es ist sehr wichtig, das Sicherheitspersonal darüber zu informieren, was die KI kann und was nicht», erklärt Sterchi. «Zusätzlich ist ein Training mit Beispielen nützlich, um ein besseres Verständnis für die Fähigkeiten der KI zu entwickeln.» Dies wird das Projektteam in einer Folgestudie detaillierter untersuchen. «Bei der Einführung von KI sollten immer die Mitarbeitenden einbezogen werden», ergänzt Schwaninger. «So wird die neue Technologie leichter akzeptiert und richtig eingesetzt.»

Dieser Beitrag ist zuerst erschienen im FHNW eMagazin.

Diese Seite teilen: