Artificial Intelligence

MIT-Forscher tricksen Googles Bilderkennung aus

Sicherheitssysteme, die eine auf künstlicher Intelligenz basierende Bilderkennung nutzen, lassen sich manipulieren. Das haben Wissenschaftler des renommierten Massachusetts Institute of Technology (MIT) nachgewiesen.

15.11.2017
Quelle: labsix
Quelle: labsix

Gegenwärtige Bilderkennungssysteme, deren Leistung auf neuronalen Netzen basiert, sind anfällig für gezielte Manipulationen.

Das ist die Erkenntnis der Forscher des MIT-Teams LabSix , die sich insbesondere mit dem Google-Bilderkennungssystem InceptionV3 beschäftigten. Dabei generierten sie unter anderem ein 3D-Modell einer Schildkröte, die für Menschen unzweifelhaft als solche zu erkennen war, von der künstlichen Intelligenz (KI) hinter Inception V3 jedoch aus nahezu jedem Blickwinkel für eine Schusswaffe gehalten wurde.

Das 2D-Bild einer gescheckten Katze identifizierte die KI zunächst als eine Schale des Avocado-Dips Guacamole; erst nach einer kleinen Änderung des Betrachtungswinkels erkannte die KI die Katze.

Dass KI-basierte Bilderkennung mit Motiven aus der realen Welt mitunter überfordert ist, führt bei üblichen Anwendungen, etwa der automatischen Archivierung und Katalogisierung von Fotos, allenfalls zu Problemen, die etwas menschliche Nacharbeit erfordern.

In sicherheitsrelevanten Bereichen können Kriminelle die Schwächen solcher Systeme aber gezielt ausnutzen, um erheblichen Schaden anzurichten.

Artificial Intelligence Data Analytics & BIResearch & Innovation RSS Feed abonnieren