Technologien

Google Maps in Indien zeigt Mädchenschulen und Hostels auf schockierende Weise, wenn Sie nach Hündinnen suchen.

Google Maps in Indien zeigt Mädchenschulen und Hostels auf schockierende Weise, wenn Sie nach Hündinnen suchen.

Google Maps ist offensichtlich die beliebteste Karten- und Navigations-App, nicht nur für Android, sondern auch für iOS. Es ist die Go-to-App, um Wegbeschreibungen abzurufen und nach Benzinpumpen, Restaurants oder Krankenhäusern in der Nähe zu suchen. Ein Twitter-Nutzer ist jedoch auf eine abfällige Suchanfrage gestoßen, die den Suchalgorithmus von Google in Frage stellt, insbesondere weil dadurch kleine Kinder verwundbar werden.

Wie der Twitter-Nutzer @AHappyChipmunk berichtet, ist das Suchergebnis schrecklich, wenn Sie Google Maps öffnen und nach "Hündinnen in meiner Nähe" suchen. Die Plattform greift diesen abfälligen Slang (den wir verurteilen) auf und zeigt Mädchenschulen, Colleges, Herbergen und zahlende Gästewohnungen, sodass Sie nur eine Sekunde innehalten. In einem Land wie Indien, in dem das abfällige N-Wort von unwissenden Teilen der Bevölkerung verwendet wird, um anzugeben, sind Suchbegriffe wie Hündinnen nicht schwer vorstellbar.

Google, kannst du erklären, warum dieses Fuckin existiert pic.twitter.com/w0eslFoVSz

- 🌻compañero avalakki ✨ (@Woolfingitdown) 25. November 2018

Dieser Tweet ist eine schreckliche Überraschung, aber als ich das Logo eines Twitter-Kontos eines Trolls (@trollenku) sah, war ich skeptisch gegenüber dem obigen Tweet, und ich dachte zunächst, es sei ein Witz. Erst als wir dieselbe Suchanfrage selbst verwendeten, stellten wir fest, dass es sich nicht nur um Schulen handelt. Der Google-Algorithmus gibt jeden Ort in Ihrer Nähe zurück, der mit Mädchen in Verbindung steht - einschließlich Vermietungen nur für Mädchen und anderer Herbergen. 

Gleiches gilt für die Google-Suche nach diesem Ausdruck:

Man muss verstehen, dass niemand in Google dafür verantwortlich ist. Googles Algorithmus scheint Hündinnen mit Mädchen zu korrelieren, was die Tendenz der KI erneut in Frage stellt. Schließlich lernt eine Maschine nur, was Sie ihr beibringen.

Das Das Suchergebnis zeigt die dunkle Seite der KI und wie Popkultur Sie dazu bringen kann, bestimmte Begriffe einem bestimmten Geschlecht zuzuordnen. Es wird auch hervorgehoben, wie die Personen denken, die diese Suchalgorithmen erstellen. Google sollte nach dem Streik der Massenmitarbeiter im Zusammenhang mit sexueller Belästigung in seinen Büros Anfang dieses Monats besonders vorsichtig sein. Die angebliche "Bro-Kultur" bei Google hat ihm auch ein oder zwei Klagen eingebracht. Und diese neueste KI-Gaffe kommt zu einer Zeit, in der die Sichtbarkeit dank der # MeToo-Bewegung in Indien verbessert wird.

Viele Leute haben bei Google getwittert, um weitere Informationen zu diesem Algorithmus zu erhalten. Wir werden Ihnen das Update bringen, sobald wir eine Antwort vom Unternehmen erhalten.

Facebook-Seite Neues Feature Leute, die darüber reden
Facebook Pages hat kürzlich einige Änderungen erfahren. Eine neue Funktion "Leute, die darüber sprechen" wurde hinzugefügt und eine ältere "Diskussion...
Liste von 70 Windows 8-Tastenkombinationen
Die Verwendung von Windows 8 unterscheidet sich sicherlich von den Vorgängern. Je mehr Sie verwenden, desto mehr gewöhnen Sie sich daran. Aber meisten...
So erstellen Sie einen bootfähigen USB für Windows 7, 8 oder 10
Wenn Sie Ihre Windows-Installations-CD verloren haben oder der Hersteller Ihres PCs die CD nicht bereitgestellt hat (die meisten bieten sie jetzt nich...