Abbildung 3: Schematische Darstellung eines Poisoning-Angriffs. Durch Einfügen von Datenpunkten mit einem Auslöser (in diesem Fall gelbes Post-It) mit falschem Label in den Trainingsdatensatz kann ein Angreifer im Betrieb gezielt eine Falschklassifikation hervorrufen. Auf Bildern ohne Auslöser funktioniert das KI-Modell normal, sodass die Manipulation durch Testen nur schwer entdeckt werden kann.Quelle: Bundesamt für Sicherheit in der Informationstechnik
Hinweis zur Verwendung von Cookies
Das BSI speichert keine personenbezogenen Daten der Webseitenbesucher. Details in unserer Datenschutzerklärung