Rezultatul nefericit al experimentului lui Microsoft cu Tay-Bot pe Twitter

Pe scurt:
Microsoft a pus pe Twitter un (chat)bot parţial antrenat, care să înveţe + să-şi dezvolte personalitatea, în urma interacţiunii cu userii de pe Twitter:

Rezultatul:
Userii (fără a generaliza) l-au antrenat în aşa fel încât a devenit xenofob şi a aruncat cu declaraţii rasiste, extremiste etc., iar Microsoft a fost nevoit la scurt timp să-l reducă la tăcere şi să-şi exprime părerea de rău:

3 Likes

https://dev.botframework.com
https://www.luis.ai/
Putem construi singuri boti :smiley:

2 Likes

Intrebarea cea grea este “A fost experimentul un esec, sau doar nu ne convine adevarul rezultatului?”

5 Likes

Asta e maxima :slight_smile: “bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.” Nici nu pot sa ma gandesc ce le ‘da prin cap’ lu’ cortana sau siri …

1 Like