Tay

chattrobot från Microsoft*. – Tay provkördes på Twitter den 23 mars 2016, men drogs snabbt tillbaka efter att den hade börjat hylla Hitler och trakassera andra twittrare, särskilt kvinnor. Detta anses bero på ett angrepp där många personer bombarderade Tay med nazistiska och kvinnoförnedrande tweetar. Tay har inga egna åsikter eller kunskaper, utan lär sig genom att analysera och ta efter vad andra skriver på Twitter. – Se inlägg på Microsofts blogg. – Läs också om Xiaoice.