Navigation und Service

Künstliche Intelligenz – Zutritt verweigert!

Wie funktionieren automatisierte Erkennungssysteme?

Martin, 44: Ist ständig unterwegs und mag es, wenn der Alltag durch künstliche Intelligenz einfacher wird. Doch weiß er auch über die Risiken Bescheid? *

Der Smartphone-Wecker klingelt. Ich drücke auf "Snooze". Erschreckt wache ich auf: "Ohje, wann habe ich das Meeting heute Morgen? Hoffentlich habe ich nicht verschlafen." Schnell greife ich zu meinem Smartphone. Ich bin noch sehr müde, doch um das Gerät zu entsperren, genügt glücklicherweise ein Blick auf das Display. Ich prüfe den Termin. Ich habe noch etwas Zeit, muss mich aber beeilen, da ich später auch noch in die Niederlassung nach Frankreich fliege. Ich darf also nichts vergessen. Meinen Pass stecke ich noch vor einem schnellen Frühstück in meine Aktentasche.

Nach dem Termin fahre ich zum Flughafen. Mit meinem Pass, in dem der elektronische Ausweis integriert ist, kann ich zügig durch das Gate. Am Zielort angekommen, passiere ich Dank des elektronischen Ausweises die automatisierte Grenzkontrolle (Smart Border Gateway) ohne Verzögerungen. Damit entfällt das Warten in der Schlange beim Zollbeamten.

Mit dem Taxi geht es zum Termin mit der Leitung der Forschungsabteilung. Dort soll ich einen neuen Prototypen eines Medikaments abholen und persönlich sicher nach Deutschland bringen. Das Projekt ist absolut geheim, da wir uns das Patent noch nicht gesichert haben. Daher ist das Firmengebäude besonders gut gesichert. Ich komme nur mit Gesichtserkennung sowie einem Fingerabdruck ins Labor. Leider sagt mir das System, ich sei bereits im Labor und daher nicht zu identifizieren. Ich verstehe das nicht und rufe den Sicherheitsdienst an. Wie konnte das passieren?

Künstliche Intelligenz: Hypergenau, aber Verwechslung möglich

Auf Dienstreise hat sich Martin mehrmals anhand seiner biometrischen Daten wie Gesicht und Fingerabdruck eindeutig authentisiert. Diese Technologien basieren allesamt auf Künstlicher Intelligenz und zeigen wie genau und hilfreich KI-Systeme im Alltag sein können. Doch was ist, wenn ein KI-System manipuliert wurde? Dies könnte im Fallbeispiel passiert sein:

Wenn sich ein Cyber-Krimineller Zugang auf das Unternehmensnetzwerk verschafft und damit auf das eingesetzte KI-System, kann dieser herausfinden, ob die Künstliche Intelligenz eine Schwachstelle hat (White-Box-Angriff). Bei einem sogenannten Black-Box-Angriff hingegen hat der Kriminelle keinen Zugriff auf das Unternehmensnetzwerk. Vielmehr "übt" er an einem ähnlich funktionierenden biometrischen System, entwickelt anhand von Schwachstellen eine Angriffsstrategie und überträgt diese dann auf das unbekannte System. In beiden Fällen könnte der Kriminelle dann beispielsweise das Erkennungssystem überlisten. Das KI-System erkennt in der Folge nicht, dass sich eine andere Person gerade Zugang zu dem gesperrten Bereich verschafft hat.

Dazu kann eine beliebige andere Person z.B. eine überaus seltsam gemusterte Brille aufsetzen und das KI-System sieht weiterhin "Martin" (siehe exemplarisch dargestellt in der Infografik). Das kann so weit gehen, dass eine Frau als Mann erkannt wird. Der Betrüger findet über die Schwachstelle das genaue Muster heraus, das auf die Brille gedruckt werden muss, sodass das KI-System das "Gesehene" nicht mehr richtig interpretiert. Diese Schwachstelle hat eine US-Forschergruppe im Jahr 2016 herausgefunden.

Infografik KI-Biometrie Schwachstellen Infografik KI-Biometrie Schwachstellen
Quelle: Bundesamt für Sicherheit in der Informationstechnik

Biometrische Erkennungssysteme müssen sicher und überprüfbar sein

Biometrische Eigenschaften wie Fingerabdrücke oder Merkmale des Gesichts sind dauerhaft vorhanden und ermöglichen einen eindeutigen Identitätsnachweis. Anders als Passwörter können diese auch nicht verloren gehen oder vergessen werden. Bereits seit einiger Zeit sind automatisierte Erkennungssysteme biometrischer Identifikationsmerkmale im Einsatz wie beim Smartphone oder digitalen Heimassistenten. Doch erst die Künstliche Intelligenz hat ihnen zum Durchbruch verholfen, weil entsprechende Technologien damit robuster sind und zuverlässiger funktionieren.

Jedoch können auch KI-Systeme Schwachstellen haben, die bei ihrem Training nicht festgestellt wurden. So können KI-Systeme z.B. gezielt in die Irre geleitet werden, wie im Beispiel oben gezeigt. Das kann natürlich verheerende Folgen für betroffene Personen haben. Damit die Stärken von KI-Systemen zum Vorteil der Gesellschaft eingesetzt werden können, müssen sie sicher und nachvollziehbar werden. An diesen Zielen arbeitet das Bundesamt für Sicherheit in der Informationstechnik (BSI) u.a. in einem Kompetenzzentrum für Künstliche Intelligenz.

Lesen Sie dazu auch unser zweites Fallbeispiel zum Thema Autonomes Fahren.

*fiktiver Anwendungsfall