"Maschinen-lesbare" Menschen: Warum wir auf Passfotos nicht mehr lachen dürfen

26. Mai 2013, 18:24
12 Postings

ASSERT will soziale Auswirkungen von Sicherheitsthemen untersuchen

Wien - Seit einigen Jahren sind lachende Gesichter auf Passbildern Tabu. Was früher für ungläubiges Kopfschütteln gesorgt hat, ist heute kaum mehr hinterfragte Realität. Ein neues Projekt, an dem das Institut für Rechts- und Kriminalsoziologie (IRKS) in Wien federführend beteiligt ist, beschäftigt sich mit Phänomenen wie den biometrischen Reisepässen: ASSERT will bis Juli 2014 die sozialen Auswirkungen von Sicherheitskonzepten untersuchen, die maßgeblich auf technischen Errungenschaften basieren. Dieser Tage fand in Wien das Kickoff-Meeting statt.

Dabei ist das Beispiel mit dem Passfoto noch eines der harmlosesten: So will ASSERT beispielsweise hinterfragen, inwieweit Personen mit besonderen Bedürfnissen automatisierte Kontrollsysteme überhaupt nutzen können. Auch die Veränderung der Arbeitsbedingungen für Sicherheitspersonal durch neue Überwachungstechnologien ist für die Projektverantwortlichen interessant, wenn etwa ein Polizist an der Grenze mit einem mobilen Terminal Personenkontrollen durchführt.

"Maschinen-lesbare" Menschen

Als fragwürdig schätzen die beteiligten Experten das sogenannte "Social Sorting" ein, das Aussortieren unter undurchsichtigen Risikokriterien. Problematisch ist laut Reinhard Kreissl, wissenschaftlicher Leiter des IRKS, auch das Zusammenspiel verschiedener Datenbanken - etwa Flugdaten, Mobilphone-Daten, Konsuminformationen aus dem Online-Handel und Ähnliches - unter Sicherheitsgesichtspunkten. ASSERT will nicht zuletzt die zunehmende "Maschinenlesbarkeit" des Menschen untersuchen, bei der es um die staatlicherseits geforderte Form der Identifikation von Personen durch digital lesbare Merkmale, vom biometrischen Pass bis zur e-Card, geht.

Auch die Erstellung von Risikoprofilen soll hinterfragt werden, wenn sie etwa rein auf Gefahrenprognosen von Sicherheitsbehörden basieren. Und letztlich geht es auch um darum, wer Gefährdungsmerkmale festlegt und ob die Zivilgesellschaft überhaupt daran beteiligt ist. ASSERT will auch wissen, ob es eine Schieflage bei der Nutzung von Überwachungstechnologien gibt: Beispielsweise werden Daten über die Kreditwürdigkeit von Konsumenten erhoben. Diese dürften umgekehrt aber kaum Zugriff auf Daten haben, die über die Kundenorientierung und Zuverlässigkeit von Finanzdienstleistern Auskunft geben könnten.

Neben dem IRKS sind die Technische Universität Berlin, das Londoner King's College, die University of Stirling, die Hamburg-Consult Gesellschaft für Verkehrsberatung und das Unternehmen Trilateral Research & Consulting LLP beteiligt. (APA/red, derStandard.at, 26.05.2013)

Share if you care.