FFF? I ALREADY FOLLOWED YOU..
06.04 – 20.04.2019
Echo Can Luo
press release:
DE
Ist die digitale Software ein Aufstand gegen transparente Demokratisierung? Greifbar oder immateriell, die derzeitigen Algorithmen berücksichtigen nicht die Menschenrechte von marginalisierten Personengruppen.
Basierend auf den Algorithmen, einschließlich 3D-Modellierung, 3D-Photogrammetrie und Gesichtsaufzeichnung und -verfolgung, zielt mein Projekt darauf ab, beim Anwenden und Testen der Software auf den voreingenommenen und differenzierten Algorithmus zu achten sowie auf dessen Einfluss auf Diskriminierung und Verzerrung von realen Situationen und situationsbezogenen Daten.
Später in meiner Forschung stieß ich auf Safiya Umoja Noble’s Buch "Algorithms of oppression". Darin diskutiert sie, wie „der nahezu allgegenwärtige Einsatz von algorithmisch betriebener Software, die für den Alltag sichtbar und unsichtbar ist, eine eingehendere Untersuchung erfordert, welche Werte in solchen automatisierten Entscheidungssystemen Priorität haben“, und sie fordert daher, „dass die Fehlinformation und Fehlcharakterisierung aufhören sollte“.
Ich frage mich, ob Ingenieure aufhören würden, voreingenommene Technologien zu entwickeln, wenn ihnen klar würde, dass die Sprachen und Algorithmen in ihren Programmen für uns alle gleichermaßen unparteiisch sein sollten.
EN
Is the digital software an “insurgent” against the transparency and democratization? Tangibly or intangibly, there is a certain disregard of the current algorithms concerning the human rights of the marginalized groups of people.
Based on the algorithms, including 3D modeling, 3D Photogrammetry and face tracking, my project aims to observe the biased and differentiated algorithm in the process of applying and testing the software as well as the influence of discrimination and bias on real-life situations and data.
Later in my research I stumbled across Safiya Umoja Noble’s book ‚algorithms of oppression’. In it, she discusses how „The near-ubiquitous use of algorithmically driven software, both visible and invisible to everyday people, demands a closer inspection of what values are prioritized in such automated-decision-making systems.“ and she requires „that the misinformation and mischaracterization should stop“.
I wonder if engineers might stop building-up biased technologies if they would realize that the languages and algorithms within their programs should be impartial with respect to all of us.