I stated that linear algebra was the ‘language in which machine learning was written’. If we can understand the basics of the language, we’ll be in a much better position to grasp the more complex ideas that form the backbone of neural network models.
O carte buna pentru construit intuitii este Linear Algebra Done Right. E foarte bine scrisa si autorul chiar incearca sa faca cititorul sa inteleaga principiile si intuitia din spatele multor rezultate. Nu e doar un theorem dump. OTOH, este doar despre partea teoretica a subiectului. De exemplu, it spune ca o descompunere SVD exista si in ce situatii, dar nu-ti spune neaparat cum s-o calculezi, cum ar face alte carti. Partea computationala este tratata mai light, dar cu intuitiile construite aici poti sa abordezi mult mai usor algoritmii, cat si subiecte care folosec mult algebra lineara, gen PCA.