Rezultatul nefericit al experimentului lui Microsoft cu Tay-Bot pe Twitter

rasism
microsoft
machine-learning

(Teodor Tite) #1

Pe scurt:
Microsoft a pus pe Twitter un (chat)bot parţial antrenat, care să înveţe + să-şi dezvolte personalitatea, în urma interacţiunii cu userii de pe Twitter:

http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter

Rezultatul:
Userii (fără a generaliza) l-au antrenat în aşa fel încât a devenit xenofob şi a aruncat cu declaraţii rasiste, extremiste etc., iar Microsoft a fost nevoit la scurt timp să-l reducă la tăcere şi să-şi exprime părerea de rău:


(Gabriel Mergea) #2

https://dev.botframework.com
https://www.luis.ai/
Putem construi singuri boti :smiley:


(Patkós Csaba) #3

Intrebarea cea grea este “A fost experimentul un esec, sau doar nu ne convine adevarul rezultatului?”


(John Smith) #4

Asta e maxima :slight_smile: “bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got.” Nici nu pot sa ma gandesc ce le ‘da prin cap’ lu’ cortana sau siri …