Dalai: The simplest way to run LLaMA on your local machine

Dădui săptămână trecută peste Dalai - The simplest way to run LLaMA on your local machine /HN thread.

Partea bună e că se instalează extrem de ușor. npx dalai llama install <model/s> și gata.
Partea proastă e că pe cele 2 modele încercate de mine, după cât mi-a permis spațiul pe HDD: 7B (30Gb) și 30B (150Gb) cam aberează.

Eram dacă s-a mai jucat careva, sau ar fi dispus să încerce modelul mai baban ~450Gb (mai nou merge și de pe alte dive-uri)


__
PS. Somewhat related: awesome-totally-open-chatgpt

3 Likes

nu pot decat sa consider foarte interesant ce ai prezentat mai sus. As avea doua intrebari, una legata de licenta(probabil ai vazut discutiile din forum) si a doua legata de eficacitate, adica pot antrena modelul sa raspunda Si la documente personale in cadrul procesului de invatare?

Aici zice ca e MIT

Da aia se referă la dalai, care e toolul / rețeta de instalare / rulare locală a modelului LLaMA (și mai noi văd și Alpaca).
Ref licență LLaMA înțeleg și io c-a scăpat pe net. Alții zic că un model n-ar fi copyrightable - vezi linked HN thread. Vezi și Meta → Github LLaMA DMCA notice. :woman_shrugging:t2: