Hoe Twitter een robot leerde haten

@TayandYou

Het duurde 15 uur voordat Twitter een kunstmatig intelligente chatbot leerde een racistisch, seksistisch monster te zijn.

tina fey teven krijgen dingen gedaan

Als je geschokt bent, breng je waarschijnlijk niet veel tijd door op Twitter. De programmeurs van Microsoft vermoedelijk wel, en het schokkende is dat ze dit niet zagen aankomen.

Microsoft heeft een chatbot gemaakt met de naam Hand dat was ontworpen om te praten als een millennial en meer authentieke gesprekken te leren door online met mensen om te gaan. Tay was nagesynchroniseerd door haar makers als een 'AI-fam van internet die helemaal geen chill heeft!' (O jongen.)



Sommige interacties van Tay kunnen zelfs een millennial passeren Turing-test . Ze gebruikt zelfs emoji!

#Nationale PuppyDag

Helaas zijn millennials ook zo ongeveer racistisch en mogelijk nog meer seksistisch dan hun ouders. Het duurde niet lang voordat Tay die kwaliteiten ook imiteerde, en een schattig 19-jarig meisje veranderde in een Gamergate -liefhebbende Hitler-jeugd.

Twitter-trollen begonnen Tay vreselijke racistische opmerkingen en genocidale ideeën te leren.

je kent mij holocaust

(die emoji, tho)

Tay is racistisch

De laatste tweet, Business Insider notities , lijkt het resultaat te zijn van een gebruiker die Tay vraagt ​​om een ​​zin woordelijk te herhalen. Sommige, maar niet alle, aanstootgevende tweets van Tay deden zoiets als dit.

Tay begon ook Zoë Quinn lastig te vallen, een game-ontwikkelaar die ooit onderduikte vanwege de virulente vrouwenhatende 'Gamergate'-bedreigingen die ze online ontving.

Tay is ook begonnen versieren willekeurige mensen in directe berichten.

Quinn en vele andere critici wezen erop dat de ontwerpers van Microsoft echt op deze resultaten hadden moeten anticiperen en Tay van tevoren met filters hadden moeten programmeren.

Microsoft heeft de meeste aanstootgevende tweets verwijderd, en vertelde Business Insider dat het nu 'aanpassingen' doet aan de bot.

die van Microsoft website for Tay had donderdagochtend deze banner:

drukke dag

Twitter zelf is ook zwaar bekritiseerd omdat het niet genoeg doet om intimidatie aan te pakken, vooral van spraakmakende gebruikers die vrouwen en mensen van kleur zijn. Sommige verlaat het platform omdat het probleem zo groot is. Twitter heeft enkele wijzigingen aangebracht, maar veel gebruikers beweren nog steeds dat het bedrijf intimidatie niet genoeg maakt prioriteit . Dit kan deels zijn omdat het personeel niet erg is? verschillend , en het probleem kan minder urgent zijn voor blanke mannen wiens leven niet ernstig wordt beïnvloed door raciale, seksuele intimidatie.

kaart van slagvelden van de burgeroorlog

Hetzelfde algemene probleem kan hier aan het werk zijn. De mogelijkheid van intimidatie zal belangrijker zijn voor vrouwen en mensen van kleur die het vaak ervaren, maar ze zijn ook minder waarschijnlijk goed vertegenwoordigd zijn in technische teams. Microsoft is geen uitzondering .

Of misschien heeft Microsoft op de een of andere manier niet de basisvoorzorgsmaatregelen genomen die standaard zouden moeten zijn in de branche.

Microsoft zei het creëerde Tay om te 'experimenteren met en onderzoek te doen naar gespreksbegrip'. De technici kwamen waarschijnlijk met een ander begrip van conversatie dan ze hadden verwacht.