Experiment ratat cu inteligenţă artificială al Microsoft pe Twitter. Un bot al companiei a devenit rasist in cateva ore
Microsoft a lansat pe Twitter un chat bot, bazat pe inteligenţă artificială dezvoltată de companie, care urma să interacţioneze cu tineri cu varste cuprinse intre 18 şi 24 de ani.
Bot-ul „Tay”, @Tayandyou pe Twitter, trebuia să inveţe lucruri noi şi să devină mai inteligent in urma interacţiunilor de pe reţeaua de microblogging. Lucrurile au luat, insă, o intorsătură dezastruoasă. După numai cateva ore, Tay a inceput să publice comentarii rasiste, teorii ale conspiraţiei şi să nege genocide.
Articolul integral,poate fi citit aici.
Sursa go4it.ro
Last edited by konstantine; 17-04-16 at 19:29.