Novice

MICROSOFT se je le naučil, da je internet temačen in strašen kraj. Začeli so na Twitterju klepeta z imenom Tay, ki je bil zasnovan tako, da posnema govor 19-letne deklice. Umetna inteligenca (AI) naj bi pomagala "izvajati raziskave pogovornega razumevanja, " je dejal Microsoft, in ko se je začela razvijati, se je lahko od ljudi, ki se je pogovarjala, naučila in posnemala način, kako so govorili.
Težava je bila v tem, da Microsoft ni načrtoval svojega bot-a, da bi se izognil zapletenim ali političnim temam, kar pomeni, da bi to zrcalilo mnenja ljudi, ki so se pogovarjali z njim. To je seveda bilo preveč dobra priložnost, da bi internetni trole prenesli, in stvari so postale res grde, zelo hitro.



V 24 urah, ko je bot prišel na splet, se je Tay spremenila v popolnega rasista. Poleg zanikanja holokavsta in nacizma je bot začel oponašati tudi mnenja Donalda Trumpa o priseljevanju, teorijah zarote 11. septembra in seveda začel uporabljati veliko groznih rasnih zastojev.
Microsoft se je odločil zapreti. To ne pomeni, da bot ni bil uspešen: oponašal je ljudi, s katerimi se je popolnoma pogovarjal. Vendar Microsoft ni upošteval, da so bili ljudje, ki jih je posnemala, internetni troli. Internet je visokotehnološki eksperiment v umetni inteligenci spremenil v le še en kreten.