Schon Mitglied bei Allcrime?
Werde Teil unserer Community und du kannst auf unserer kostenlosen und werbefreien Kriminalplattform Themen erstellen, Beiträge verfassen, chatten und alle Funktionen nutzen. [Mitglied werden]

Gesichtserkennung

Die Technik der Kriminaltechniker.
Benutzeravatar
Diskussionsleitung
Salva
Administrator
Administrator
Beiträge zum Thema: 2
Reaktionen: 186
Beiträge: 6116
Registriert: 05.08.2014
Geschlecht:
Wohnort: Cadolzburg
Alter: 52
Status: Offline

Gesichtserkennung

#1

Ungelesener Beitrag von Salva » Do, 18. Okt. 2018, 21:20

Wer öffentliche Verkehrsmittel nutzt, will sich an Bahnhöfen sicher fühlen. Doch Software, die automatisch piepst, wenn ein bestimmter Mensch den Bahnhof betritt, weckt auch Angst vor einem Überwachungsstaat.

Bild
Der damalige-Bundesinnenminister Thomas de Maiziere war im Dezember 2017 einer der ersten, der sich als Testperson auf dem Berliner Bahnhof "Südkreuz" für die Gesichtserkennung zur Verfügung stellte.
Archivfoto: Markus Schreiber / dpa

Ein Pilotprojekt zur automatischen Gesichtserkennung am Berliner Bahnhof Südkreuz hat gezeigt, dass Computersysteme beim aktuellen Stand der Technik eine Trefferquote von mehr als 80 Prozent erreichen. Nach der Auswertung der Ergebnisse des einjährigen Versuchs teilte das Bundesinnenministerium jetzt mit: "In über 80 Prozent der Fälle wurden die Testpersonen durch die Systeme zuverlässig erkannt." In weniger als 0,1 Prozent der Fälle sei ein Mensch von der Software verwechselt worden.

Bundespolizei-Präsident Dieter Romann sagte: «Die Technik erleichtert es, Straftäter ohne zusätzliche Polizeikontrollen zu erkennen und festzunehmen.» Dies bedeute einen «erheblichen Sicherheitsgewinn». Bundesinnenminister Horst Seehofer (CSU) erklärte: "Die Systeme haben sich in beeindruckender Weise bewährt, so dass eine breite Einführung möglich ist."

Polizisten entscheiden, nicht das System
Das Ministerium wies allerdings darauf hin, nicht das Gesichtserkennungssystem, sondern Polizisten würden im Einzelfall entscheiden, ob der automatisch generierte Treffer ein polizeiliches Einschreiten erfordere und welche Maßnahmen ergriffen werden müssten. Seehofer erklärte, sollte die Einführung beschlossen werden, müsse zunächst eine Rechtsgrundlage im Bundespolizeigesetz geschaffen werden, um die Voraussetzungen und Rahmenbedingungen dafür klar zu regeln.

Datenschützer kritisieren die automatisierte biometrische Gesichtserkennung scharf. Sie sagen, durch die Technik würden Persönlichkeitsrechte von Menschen verletzt, der Überwachungsstaat weite sich aus. Der Test an dem Bahnhof hatte am 1. August 2017 begonnen. Dafür meldeten sich 312 Pendler freiwillig. Fotos der Teilnehmer des Versuchs wurden im Testzeitraum automatisch – bei Tag und Nacht – mit den Aufnahmen von an dem Bahnhof installierten Videokameras abgeglichen.

Polizei auf "automatischen Alarm" angewiesen
In einem zweiten Versuch soll voraussichtlich ab Januar 2019 getestet werden, inwieweit Computerprogramme gefilmte Situationen und Gegenstände analysieren können. Damit will die Deutsche Bahn feststellen, wie gut die Programme seltene oder gefährliche Abweichungen von der Normalität im Bahnhof erkennen können. Dazu zählen beispielsweise hilflose Menschen und Gegenstände, die stehengelassen wurden oder Menschengruppen, die ein auffälliges Verhalten zeigen – etwa indem sie alle schnell zu einer bestimmten Stelle laufen.

Videoüberwachung gibt es zwar jetzt schon an vielen Bahnhöfen. Doch schaffen es die Wachleute und Polizisten nicht, die Aufnahmen ständig aufmerksam live zu beobachten. Bahn und Bundespolizei sind deshalb an Systemen interessiert, die automatisch Alarm schlagen.

Quelle: e110

Kritik an Polizei: Chaos Computer Club nennt Ergebnisse zur Gesichtserkennung "manipuliert"

Bild

Der Chaos Computer Club (CCC), der die biometrische Gesichtserkennung im öffentlichen Raum von Beginn an ablehnte, sieht die Zuverlässigkeit und den Sicherheitsgewinn mit anderen Augen und hat eine vernichtende Kritik veröffentlicht. Die Ergebnisse im Abschlussbericht seien "nicht überzeugend und absichtlich geschönt worden", so die Experten. Risiken und rechtliche Probleme würden gar nicht angesprochen. Die Testergebnisse könnten "nicht als Grund dafür herhalten, Biometrietechnik nun flächendeckend einführen zu wollen."
Die biometrische Videoüberwachung sei mit zahlreichen technischen Problemen behaftet und erweise sich als untauglich. Das hätten auch die wenigen Zahlen aus dem Bericht gezeigt: Der Test habe, anders als behauptet, keine akzeptablen Ergebnisse gebracht. "Zudem erweist sich, dass die Ergebnisse manipuliert wurden, um sie nicht ganz so desaströs aussehen zu lassen", so der CCC. Die Experten forderten daher, das "unnütze und teure Sicherheitstheater unverzüglich einzustellen".

CCC: Die Zahlen entsprechen nicht der Realität
Der CCC kritisierte zum einen die in der Pressemitteilung des Innenministeriums hervorgehobene durchschnittliche Erkennungsrate von "achtzig Prozent". In Wirklichkeit wurden aber am Bahnhof Südkreuz drei Überwachungssysteme parallel getestet und die "positiv verfälschende Zahl" sei das Ergebnis aller drei Systeme. "Praktisch hieße das für die Situation am Bahnhof, dass nicht der beste Anbieter für die biometrische Erkennung zum Einsatz käme, sondern alle drei Systeme zusammen eingesetzt werden müssten, um diesen durchschnittlichen Wert zu erreichen", so die Experten.
Tatsächlich habe Erkennungsrate für das beste der drei Testsysteme bei nur 68,5 Prozent gelegen. Am schlechtesten habe die am Eingang des Bahnhofs positionierte Kamera abgeschnitten, vor allem tagsüber bei Gegenlicht habe das Ergebnis hier bei unter sechzig Prozent gelegen. Das schlechteste der drei Systeme habe sogar nur 18,9 Prozent der Gesichter korrekt erkannt. "Für den geplanten Abgleich mit polizeilichen Datenbanken sind solche Erkennungsraten völlig unbrauchbar", erklärte der CCC. Dabei hab die Polizei sogar dem schlechtesten System ein "hohes Potenzial" beschieden.

Auch an der generellen Wissenschaftlichkeit des Tests übte der Chaos Computer Club Zweifel. So seien zu Beginn des Tests gut ausgeleuchtete Fotos der freiwilligen Probanden in ausgesprochen hoher Qualität in das System eingespeist worden. Im Abschlussbericht werde das beschönigt. Auch sei die Bevölkerung durch die Gruppe der Probanden hinsichtlich Alter, Geschlecht und Ethnie nicht gut repräsentiert und ihre Zahl sei mit 312 Menschen in der ersten Phase und 201 Personen in der zweiten Phase viel zu gering gewesen. Mit "realen Erkennungsleistungen" hab das wenig zu tun.
"Besonders dreist ist das Vorgehen, mit der zweiten Testphase die Ergebnisse nochmals absichtlich zu schönen", schreibt der CCC. Das Innenministerium habe damals erklärt, "realitätsnähere Bilder" wie Fahndungsfotos zu verwenden. In Wirklichkeit seien vor Ort angefertigte Referenzbilder der Probanden verwendet worden, womit "absichtlich und unzulässig die Erkennungsraten manipuliert" wurden. In der Realität müssten so Fotos der Gesuchten an allen Bahnhöfen mit allen verbauten Kameras angefertigt werden, damit das System zuverlässig funktioniert – eine "unsinnige" Annahme.

Untauglichkeit der Systeme in der Praxis
Zuletzt kritisierten die Experten die im Bericht angegebenen Falscherkennungsraten (FAR). "So werden hier nicht etwa alle durch die Kamera erfassten Gesichter der Menschen analysiert, sondern ausweislich des Berichtes nur diejenigen, die zufälligerweise zu dem Zeitpunkt aufgenommen wurden, wenn eine der Testpersonen neben ihnen auf der Rolltreppe stand oder im Bahnhof ging und damit das System durch den Transponder aktivierte", schrieb der CCC. Die realen Zahlen lägen um ein Vielfaches höher und auch bei der ausgewiesenen FAR von 0,67 Prozent würden am Bahnhof Südkreuz täglich 600 Passanten und mehr fälschlich ins Visier der biometrischen Systeme geraten.
Im Praxisbetrieb würden deutlich mehr Vergleichsbilder als die 200 aus Testphase zwei in das System eingespeist – und dementsprechend steige die Zahl der Falschmeldungen, die aussortiert werden müssen. "Wie aufmerksam ein durchschnittlicher PC-Anwender die Hundertste Sicherheitswarnung für Webseiten weg klickt, dürfte ein Gefühl für die Auswirkungen einer solchen Flut von Falscherkennungsmeldungen geben", erklärte der CCC. Der einzige Lichtblick sei die Beschreibung, wie man sich vor der biometrischen Erkennung schützt: "Man drehe einfach das eigene Gesicht um mehr als 15 Grad von der Kamera weg", so die Experten. Damit sei eigentlich alles gesagt.

Quellen: Chip | Chaos Computer Club
0



Benutzeravatar
Diskussionsleitung
Salva
Administrator
Administrator
Beiträge zum Thema: 2
Reaktionen: 186
Beiträge: 6116
Registriert: 05.08.2014
Geschlecht:
Wohnort: Cadolzburg
Alter: 52
Status: Offline

Gesichtserkennung

#2

Ungelesener Beitrag von Salva » Do, 18. Okt. 2018, 21:30

Rechtliche Bewertung

Zunächst bedarf die Maßnahme der Gesichtserkennung wegen des rechtsstaatlichen Grundsatzes des Gesetzesvorbehalts für Eingriffe in Grundrechte der Bürger einer rechtlichen Grundlage. Die Videoaufzeichnung mit Gesichtserkennung stellt einen Eingriff in das grundrechtlich geschützte Persönlichkeitsrecht, insbesondere in dessen Ausprägungen Recht am eigenen Bild und in das Recht auf informationelle Selbstbestimmung, Art 2 Abs. 1 iVm. Art. 1 Abs.1 Grundgesetz, dar. Eine Rechtsgrundlage für die Verarbeitung der Bild- und Videodaten zum Zweck der biometrischen Auswertung gibt es derzeit jedoch noch nicht.

Eine Legitimation könnte sich aus den Landesdatenschutzgesetzen, dem Bundesdatenschutzgesetz (BDSG), der Strafprozessordnung oder aus den Polizeigesetzen der Länder ergeben. Der Einsatz der Gesichtserkennungssoftware könnte auf das BDSG gestützt werden. Bei der Videoüberwachung mit Gesichtserkennung werden Personen anhand ihrer Gesichter identifiziert. Damit werden Angaben zu einer bestimmten Person (Gesicht, Name etc.) ermittelt, mit deren Hilfe weitere Informationen über diese Person bestimmbar sind. Dies sind personenbezogene Daten, die mithilfe der Gesichtserkennungssoftware erhoben, verarbeitet und genutzt werden. Damit findet das BDSG Anwendung. Gemäß § 4 Abs. 1 BDSG ist die Erhebung, Verarbeitung und Nutzung personenbezogener Daten nur dann zulässig, wenn eine Rechtsvorschrift dies erlaubt oder der Betroffene eingewilligt hat. Eine Einwilligung kommt nicht in Betracht, da die Gesichtserkennung ohne Wissen der Personen durchgeführt wird. Auch wenn die Menschen an Bahnhöfen durch Hinweisschilder auf die Videoüberwachung mit Gesichtserkennung hingewiesen werden würden, hätten sie nicht die Möglichkeit zu widersprechen. An Flughäfen und Bahnhöfen, wo die Gesichtserkennung zum Einsatz kommen soll, stellt es für die Betroffenen auch keine hinnehmbare Alternative dar, diese Plätze zu meiden.

Eine Rechtsvorschrift speziell für die Datenverarbeitung im Rahmen der Gesichtserkennungssoftware gibt es nicht. Fraglich ist, ob § 6b BDSG als Rechtsvorschrift in Betracht kommt. § 6b BDSG erlaubt die Videoüberwachung an öffentlich zugänglichen Räumen. Flughäfen und Bahnhöfe sind öffentlich zugängliche Räume. Zweifelhaft ist aber, ob eine Videoüberwachung mit automatisierter Gesichtserkennung noch unter die Videoüberwachung nach § 6b BDSG fällt.

Dagegen spricht der eindeutige Gesetzeswortlaut. § 6b BDSG enthält keine Regelungen zur Gesichtserkennung, welche von einer schlichten Videoüberwachung deutlich abzugrenzen ist. Außerdem hat der Gesetzgeber bei der Schaffung des § 6b BDSG die aktuellen neuesten technischen Standards des Jahres 2016 noch nicht im Blick gehabt. Er wollte lediglich die schlichte Videoüberwachung an öffentlichen Plätzen regeln. Dafür spricht außerdem, dass der Eingriff in die Grundrechte des Betroffenen bei einer Gesichtserkennung viel höher ist, als bei der schlichten Videoüberwachung und deshalb getrennt geregelt hätte werden müssen. Folglich erlaubt § 6b BDSG nicht die Verwendung der Gesichtserkennungssoftware an öffentlichen Plätzen.

Auch wenn man das System der automatisierten Gesichtserkennung noch unter § 6b BDSG fasst, müssten die weiteren Voraussetzungen des § 6b BDSG erfüllt werden. Die Person, deren Daten über die Gesichtserkennung ermittelt werden, müsste gemäß § 6b Abs. 4 BDSG benachrichtigt werden. Die praktische Umsetzbarkeit wäre dabei fraglich. Die Daten müssen auch nach § 6b Abs. 5 BDSG sofort gelöscht werden, wenn sie zur Zweckerreichung nicht mehr notwendig sind. Hier stellt sich wieder das Problem der Kontrolle der Speicherdauer und der Löschung der Daten. Die ohnehin schon umstrittene Vorratsdatenspeicherung soll bei dieser Maßnahme sogar noch ausgedehnt werden, was ebenfalls ein starkes Argument für eine eigene Rechtsgrundlage ist.

Ferner kommen als Rechtsgrundlage allgemeine polizeirechtliche Normen (wie z.B. Datenabgleich § 28 ASOG für Berlin, auch geregelt in § 98c StPO) in Betracht. Fraglich ist jedoch schon, ob die Polizei überhaupt tätig wird bzw. wer die Überwachungsmaßnahme leitet. Der Datenabgleich zur Gefahrenabwehr gestattet es der Polizei, personenbezogene Daten mit den eigenen vorhandenen Datenbeständen zu vergleichen. Voraussetzung ist aber, dass die zum Vergleich verwendeten Daten rechtmäßig erhoben wurden. Für die Datenerhebung selbst stellt dies folglich keine Rechtsgrundlage dar.

Die durch die Polizei durchgeführte Videoüberwachung mit Gesichtserkennung könnte eine Identitätsfeststellung (§ 21 ASOG Berlin) sein. Jedoch erfolgt die Überwachung, im Gegensatz zur Identitätsfeststellung durch einen Polizisten, gerade ohne Kenntnis der Person. Die Person kann sich im Fall der Überwachung nicht wehren. Außerdem muss für eine Identitätsfeststellung ein konkreter Gefahrenverdacht vorliegen. Die kontrollierte Person muss Störer sein, d.h. in irgendeiner Form polizeirechtlich verantwortlich. Deshalb passt auch diese Ermächtigungsgrundlage nicht für die pauschale Gesichtserkennung von Personen an Flughäfen und Bahnhöfen.

Unter den Voraussetzungen des § 100 h StPO sind Maßnahmen außerhalb des Wohnraums auch ohne Wissen der Betroffenen zulässig. Allerdings gelten auch hier enge Grenzen. Nur wenn die Ermittlung des Terrorverdächtigen auf andere Weise wenig erfolgsversprechend wäre, dürfen nach dieser Norm auch andere Personen als der Beschuldigte selbst überwacht werden. Die Maßnahme muss also konkret auf ihre Verhältnismäßigkeit überprüft werden. Eine allgemeine Gesichtserkennung rund um die Uhr kann diese Norm nicht legitimieren, nur bei konkreten Anhaltspunkten für eine Straftat könnten die Gesichtserkennungsmaßnahmen hiernach erlaubt sein.

Auch § 163 b StPO kann als Rechtsgrundlage für die Gesichtserkennungsmaßnahme nicht dienen, denn die Norm lässt lediglich Maßnahmen gegen eine Person zu, die der Straftat verdächtig ist.

Stärkerer Eingriff als bei einer Videoüberwachung?

Die Gesichtserkennung stellt im Vergleich zur normalen Videoüberwachung einen schärferen Grundrechtseingriff dar, denn aus den bestimmbaren Personen werden bestimmte Personen. Gesichter sind eindeutige Identifikationsmerkmale einer Person. Als Ausdruck der Individualität bilden sie einen Bezug zur in Art. 1 Abs.1 GG geschützten Menschenwürde. Durch die Gesichtserkennung erfolgt praktisch eine Identitätsfeststellung, welche einen Eingriff in das Recht auf informationelle Selbstbestimmung darstellt. Dieses gewährt grundsätzlich jedem das Recht selbst zu bestimmen, wer was über ihn weiß oder wissen soll. Deshalb müssen bei der Gesichtserkennung auch strengere Voraussetzungen gelten als für die reine Videoüberwachung. Eine analoge Anwendung der rechtlichen Grundlagen für die Videoüberwachung kommt daher nicht in Betracht. Daraus folgt, dass es an einer Rechtsgrundlage für die von de Maizière geplante Maßnahme zur Gesichtserkennung fehlt. Diese müsste vorerst durch den Gesetzgeber geschaffen werden.

Quelle: mip Consult GmbH
0

Antworten Vorheriges ThemaNächstes Thema
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag
  • Neuer Beitrag Terror mit Technik bekämpfen | Gesichtserkennung an Flughäfen
    von Eagle » Mo, 22. Aug. 2016, 09:29 » in Terrorismus
    1 Antworten
    321 Zugriffe
    Letzter Beitrag von Salva
    Mo, 22. Aug. 2016, 22:39

Zurück zu „Technische Hilfsmittel“

Wer ist online?

0 Mitglieder | 1 Gast