Am Saarbrückener Max-Planck-Institut ist eine Technik entwickelt worden, um Personenerkennung auch in Bildern durchzuführen zu können, in welchen die Gesichter unkenntlich gemacht worden sind.
Wie unter anderem das englischsprachige Wissneschafts-Magazin »Motherboard« und das deutschsprachige Technologie-Magazin Wired berichten, ist eine Technik entwickelt worden, um Personenerkennung auch in Bildern durchzuführen zu können, in welchen die Gesichter unkenntlich gemacht worden sind. Das Paper(englisch) spricht dabei von Erkennungsraten um die 80%.
Dies betrifft konkret Bilder zu bereits bekannten Personen, welche dann auf anderen Bildern wiedererkannt werden, auch wenn dort das Gesicht mittels schwarzer oder weißer Übermalung unkenntlich gemacht worden ist.
Noch einfacher ist es wenn nur ein Weichzeichner ('Milchglaseffekt') über die Gesichter gelegt worden ist. Verpixelungen von Gesichtern wurden in dem Paper nicht erwähnt, sollten aber wohl noch einfacher zu erkennen sein, mindestens aber so gut wie bei einer kompletten Übermalung.
Als weitere Randnotiz dazu: die Angewandte Mathematik kennt bereits Techniken um mit stochastischen Methoden den Milchglaseffekt wegzurechnen, Gleiches gilt für Verzerrungen/Verschmierungen wie sie mit Grafikprogrammen erreicht oder bei dem Blick durch Glasflaschen o.ä. entstehen können.
So sagt das nichts aus
Man muss solche Ergebnisse immer danach bewerten, wie groß die Vergleichsmenge ist etc. Bei einer Menge von drei Personen sollte jeder Algorithmus mindestens eine 33 % Erfolgswahrscheinlichkeit haben. Das ist dann aber keine Zauberei und 80 % ist ein schlechtes Ergebnis.
Für die Bilderkennung gilt generell, was auch für das menschliche Sehen gilt: Umso mehr Informationen, umso mehr Ähnlichkeit, umso höher die Erkennungsrate. Inzwischen sind die Erkennungsalgorithmen ausgereift, eine deutliche Steigerung von den Ergebnissen, die inzwischen mit Convolutional Neural Networks erzielt werden, wird hier nicht mehr kommen.
Das heißt, in der Zukunft sollte man nicht auf neu präsentierte Algorithmen fokussieren. Die eigentliche Gefahr, besteht in der massenhaften Videoüberwachung mit Kameras in immer höherer Auflösung. Wenn die Kameras selbst einzelne Muttermale in guter Auflösung aufnehmen, stehen so viele Daten zur Verfügung, dass es nicht relevant ist, ob man als Algorithmus jetzt eine Support Vector Machine oder ein Deep Neural Network wählt.
Und für die Zukunft ist absehbar, dass Verfolgungsbehörden auch vermehrt solche Algorithmen nutzen werden. Z. B. könnten vermummte Demonstranten anhand ihrer Statur und ihres Ganges identifiziert werden, wenn man sie vorher auf der Auftaktkundgebung ausreichend gefilmt hat.
Wer lesen tut…
…ist wie immer klar im Vorteil.
Statt wild über eventuell kleine Anzahlen von 3 Testfällen zu rätseln, einfach mal einen Blick ins verlinkte Paper werfen und sehen, dass auf 13.000 Fotos von 600 Leuten (~20 Fotos/Person) getestet worden ist und die Ergebnisse bereits nah an der Erkennung von unverfälschten Gesichtern ist (dort ~90% unter nicht idealen Umständen).
Neue Algorithmen sind technisch zwar für die meisten nicht im Detail interessant, aber was wie leicht zu erkennen ist schadet ja nicht als Teil der Allgemeinbildung, zumal je Person ja relativ wenig Fotos gebraucht wurden (die leicht auf einer einzelnen Veranstaltung oder einem Social Media Account zu sammeln wären) für gute Ergebnisse – nicht die Mengen die Google o.ä. zum Lernen von Objekten zur Verfügung haben.
Schön aber, dass du trotzdem selber siehst, dass solche und weitere Methoden in Zukunft (falls nicht bereits jetzt, vergleiche Paper S.14) von verschiedensten Stellen eingesetzt werden, um Personen-Erkennung (zu egal welchem Zweck) durchzuführen - auch ganz ohne Muttermale, Piercings, etc.
Dito
Das mit den drei Testfällen war als Beispiel gedacht, um zu zeigen, wie sehr es für eine Bewertung auf ein genaues Verständnis der gewonnen Daten ankommt.
Der Blick in das Paper ist sehr erhellend, um zu sehen, dass hier eigentlich kein nennenswertes Ergebnis erzielt wurde! Die genannten Zahlen beziehen sich auf Wiedererkennung auf einem Event, wo Leute also ihre Kleidung nicht gewechselt haben:
Es ist keine große Leistung hier einen Algorithmus mit 80 % Genauigkeit zu entwickeln. Und das Gesicht braucht man dafür auch nicht. Sie haben also im Grunde statt eines Gesichtserkennungsalgorithmus einen Kleidungserkennungsalgorithmus geschrieben. Kann man machen, ist aber keine Meldung wert. Bei wechselnden Events, mit in der Regel anderen Klamotten sinkt die Erkennung auf 10-25 % und ist damit völlig unbrauchbar. Und warum selbst das ein optimistisches Ergebnis ist, sieht man, wenn man die Testmenge betrachtet:
Nimmt man 600 männliche Büroangestellte, die alle blaue Hemden tragen und um die 45 Jahre alt sind, wäre eine 80 % Genauigkeit ohne Gesichtserkennung eine sensationelle Meldung. Nimmt man beliebige 600 Menschen, wie in dem Paper, dann kann man in der ersten Stufe Babys von Erwachsenen, Männer von Frauen, Rentner von Jüngeren durch einen Algorithmus relativ gut unterscheiden. Es bleiben dann 100 Männer mittleren Alters, davon haben 40 dunkle Haare, die auch nach blurren des Gesichts, erahnbar sind. Von diesen 40 tragen 10 ein blaues Hemd, davon 3 eine Krawatte. Jetzt muss der Algorithmus von diesen 3 Männern in 80 % den richtigen anhand der verbleibenden Merkmale auswählen. So kommen diese Zahlen zustande.
Die Testmenge in unserem Kontext wären aber 600 Menschen mit schwarzen Kapuzenpullovern und Tuch vor dem Gesicht. Dafür wird dieser Algorithmus nicht funktionieren. Ein anderes Problem wäre die Wiedererkennung von Personen, bei wechselnden Klamotten. In beiden Fällen sind es nicht Algorithmen, die hier Erfolge für die Sicherheitsbehörden bringen werden, sondern verbesserte Kamerasysteme. Wenn Kameras über dem schwarzen Tuch die Pupillen, Leberflecken und Haaransätze aufzeichnen können oder die Schuhe so gut aufgelöst werden, dass nicht nur die Farbe, sondern das exakte Modell identifizierbar ist, dann ist es sowohl für den Computer wie auch für Menschen einfach, Personen wiederzuerkennen. Wenn die Bullenkamera aber nur eine schwarze Masse ablichtet, dann kann auch kein Algorithmus hier fehlende Details herbeihexen.
Was hast du denn gelesen?
Es ist doch explizit davon die Rede, das unter verschiedenen Settings, in anderer Gegend und mit anderer Kleidung getestet wurde.
Nichts dagegen die 'Allmacht' etwas herunterzuspielen, aber folgen kann ich deiner Denke nicht, zumal du selbst nur von einer Spezialsituation ausgehst :-)
Frage der Zeit
ich hab immer gesagt dass diese ganzen crew-selbstdarstellungen, vermummt in der gruppe posen im "wir kommen" stil den niedergang einer politischen kultur bedeuten. weiter unter werden bewegungsphotographen als problem benannt, angesichts des vorauseilenden gehorsams sich in virtualisierten zeiten marktkonform anzupreisen welcher allerlei gruppen befallen hat ist das nur noch der hohn den man verdient.
in konterrevolutionären zeiten müssen andere konzepte her als der entwicklung hinterherzurennen.
und, beispiel crew-selbstdarstellungen, schlimmer noch: nachzueifern.
Interessiert nicht vermutlich eher nicht.
Die Bewegungsfotografen sind leider beratungsresistent. Sie werden weiter Bilder machen ohne sie anständig zu bearbeiten. Das haben vergangene Diskussionen hier und Face to Face leider immer wieder gezeigt. Schade eigentlich. So macht man Demonstrationen unbesuchbar und das ist den Herrschenden sicher nicht unwilkommen.
Zeit für ein Umdenken bei euch Fotomenschen. Ihr betreibt seit langem die Arbeit der Repressionsbehörden. So diese Meldung stimmt zukünftig noch mehr. Wollt ihr das wirklich?
absolut richtig
Es ist schade, dass die meisten Bewegungsfotografen selbstgefällige "Künstler" sind. Tatsächlich sind sie natürlich ein wesentlicher Teil unserer Strukturen, aber sie sind austauschbar und ihre Selbstgefälligkeit, die ohnehin antiemanzipatorisch ist, damit auch noch absolut unbegündet.
hassistyle
vermummung schützt vor repression
Nicht gelesen?
Dann haste wohl den verlinkten Artikel nicht gelesen...
naja
Solange es keine unvermummten Bilder von dir gibt, hilfts schon, nur erst frei rumrennen und dann vermummen (und das noch, wenn womöglich sogar schon Bilder zu deiner Identität bekannt sind) ist damit theoretisch etwas sinnloser geworden. Mit ein bisschen Füllmaterial in deiner Wendejacke (z.B. deine dünne Überziehhose) ist es vielleicht auch noch etwas zu schwieriger dich zu erkennen? Die unauffällige Perücke vorher macht ja vielleicht auch noch was wett. Und das Ministry of Silly Walks ist ja sooo realitätsfern dabei auch nicht.
Und wenns drauf ankommt macht die letzte wirklich relevante Bild-Erkennung sowieso ein Mensch. Wenns hart auf hart kommt, stellt sich niemand hin und sagt 'wenn wir schwarze Kästchen über die Gesichter legen bist das eindeutig du', und kommt damit durch. Da wirds im Zweifelsfall auch mit Sicherheit immer IT Fuzzis geben, die den Leuten die sowas versuchen klar machen, dass die automatisierten Erkennungsansätze für harte Beweislagen so nicht taugen.
Höchstens taugt es im Vorfeld dazu die womöglich richtigen Bilder aus Datensammlungen rauszufiltern.
Für die automatische Erkennung wer wo wann auftaucht und vor allem wer sich sich mit wem abgibt sind diese ganzen Bilderkennungen damit aber auf jeden Fall geeignet, vor allem wenn jemand hingeht und alle bekannten Erkennungsansätze kombiniert.
Und dass sich das weiterentwickelt ist ja eh klar, die gesichtslose Personenerkennung verwendet ja anscheinend im Hintergrund auch die oben erwähnten Convolutional Neural Networks ('CNN' mit naeil) und baut die Ideen davon aus, falls ich das richtig verstehe.