03.05.18

Computer, Gaming, Internet & IT • This is how the world ends: "weil die Menschen Suchmaschinen als vertrauenswürdige öffentliche Güter einstufen"

https://futurezone.at/digital-life/wie- ... /400029886
Das sei besonders problematisch, weil die Menschen Suchmaschinen als vertrauenswürdige öffentliche Güter einstufen, obwohl sie profitorientierte Werbeunternehmen sind, die den Interessen kapitalkräftiger Kunden wie der Pornoindustrie gehorchen. Das führe dazu, dass rassistische Stereotype, die schon immer von Medien transportiert wurden, weiter gestärkt und zur falschen Norm aufgebaut würden.
Ein sehr lesenswerter und imho sehr wichtiger Artikel der Fuzo. Er geht auf diesen Vortrag zurück, bzw das Buch der Vortragenden. (Der Vortrag war wahrscheinlich ein best of).
Die Firmen aus dem Silicon Valley, allen voran der Quasi-Monopolist Google, würden negative Klischees bestärken. So spucke eine Suche nach dem Begriff "Black Girls", genau wie die Eingaben "Asian Girls" oder "Latina Girls", fast ausschließlich Pornoseiten aus. Das sei besonders problematisch, weil die Menschen Suchmaschinen als vertrauenswürdige öffentliche Güter einstufen, obwohl sie profitorientierte Werbeunternehmen sind, die den Interessen kapitalkräftiger Kunden wie der Pornoindustrie gehorchen. Das führe dazu, dass rassistische Stereotype, die schon immer von Medien transportiert wurden, weiter gestärkt und zur falschen Norm aufgebaut würden.

Dabei handle es sich nicht um ein Spiegelbild des Nutzerverhaltens, das durch die Algorithmen analysiert werde, sondern um beinharte Geschäftsinteressen, die von der Fortschreibung solcher Rollenbilder profitieren. So werde eine rassistische Ideologie zur Norm gemacht durch den Einsatz von Technologie. Die Konzerne aus dem Silicon Valley nehmen das offensichtlich in Kauf. "In der Amtszeit von Barack Obama hat eine Google-Suche nach dem N-Wort und Haus zum Weißen Haus geführt. Die Antwort von Google war eine typische Nicht-Entschuldigung: 'Das ist unangebracht, wir arbeiten daran, das zu beheben'", sagt Noble.
So werde vermittelt, dass es sich nur um einen punktuellen Fehler handle, statt um ein systemisches Versagen: "Ich sehe eine koordinierte Delegitimierung demokratischer Entscheidungsfindungsprozesse. Das Abschieben der Verantwortung auf angeblich objektive Systeme ist gerade für die schwächsten Gruppen in einer Gesellschaft gefährlich", sagt Noble. Wenn eine Google-Suche nach "drei schwarze Teenager" nur Polizeifotos liefert, während derselbe Vorgang mit dem Wort "weiß" Agenturfotos von jungen, weißen Jugendlichen beim Sport bringt, habe das durch den enormen Einfluss von Google und Co Auswirkungen auf die Gesellschaft.

Die Bosse bei Google und Co antworten auf entsprechende Kritik oft mit der Aussage, dass sie ihre Ergebnisse nicht editieren, weil das schlechte Technologie-Praxis sei. Gleichzeitig filtern sie ihre Ergebnisse bei entsprechender Gesetzeslage, etwa in Europa, sehr wohl. Das Loblied auf Technologie, das vor allem in den USA oft gesungen werde, lasse wenig Platz für die Missrepräsentation der Afroamerikaner und anderer Minderheiten. Das werde in Zukunft noch weitreichendere Konsequenzen haben, wenn etwa Algorithmen bestimmen, wo Polizeieinheiten hingeschickt werden. "Arme und nicht-weiße Bevölkerungsschichten sind oft die Laborratten für die Einrichtung solcher Systeme. Wir müssen uns fragen, ob wir diese Entwicklungen unterstützen wollen", sagt Noble.
Die Frau untersucht offensichtlich den in den USA vorherrschenden Rassismus, aber ohne es zu testen, gehe ich einmal davon aus, dass es bei "uns" nicht anders wäre.

Das Problem ist eben, dass die Leute glauben, was - vor allem - Google ausspuckt, ist eben irgendwie objektiver als das Werbeprospekt, welches in der Ubahn aufliegt.
Google übernimmt wiederum keine Verantwortung für die Inhalte, die sie liefern (außer den Werbeinhalten, für die werden sie ja auch bezahlt) - wieso sollten sie auch, die machen sie ja nicht, sie reihen sie ja nur.

Statistics: Posted by dejost — 03 May 2018, 15:12




in Kooperation mit Kortz.at: http://www.kortz.at/forum/viewtopic.php?t=284&p=9187#p9187
Dieser Post wurde erstellt durch Unterstützung von IFTTT

Keine Kommentare:

Kommentar veröffentlichen