UE vrea să interzică folosirea Inteligenței Artificiale în supravegherea persoanelor

Na problema: pana acum toti se laudau ca folosesc AI chiar daca era o doar o cautare desteapta. De acum o sa fie invers, “noi nu folosim AI, doar dectectam fetzele”.

1 Like

Poate părea extrem dar nici alternativa nu-i grozava. Până la urmă acum câțiva ani GDPR ni se părea nerealist și exigent și prost gândită. Acuma e ceva natural sa poți avea acces la toate datele tale și să ceri sa fie șterse, etc.

Eu sunt de acord, motivul principal este fiindca se poate abuza la maxim. Cercetatorii de la Google au descoperit ca AI-ul nu functioneaza dupa valori morale si etice si au fost dati afara. Au descoperit ca exista bias-uri si ca un AI e foarte vulnerabil la stereotipuri, rasism, etc. E.g. detectia fetei functioneaza mai bine la cei cu pielea alba sau ca ia decizii in functie de culoarea pielii, de culoarea si modelul unei masini. La momentul actual nu exista o solutie pentru asta. Daca da de cineva cu pielea rosie, cel cu pielea rosie o sa fie discriminat. Daca pontajul se bazeaza pe AI nu vrei sa nu fii pontat la locul de munca daca ai pielea rosie sau verde… Nu vrei sa te puna pe lista suspectilor de furt in magazin si sa ceara o verificare de securitate doar fiindca esti negru si ti-a cazut un produs de pe raft.

Serviciile secrete vor folosi AI indiferent de legi, dar nu cred ca vrem ca angajatii sa fie monitorizati de AI si sa se genereze rapoarte de performanta dupa ce a vazut AI-ul din camere.
Nu vrem nici ca Amazon sau Google sa vanda datele pe care le ia cu asistentii unei firme care creeaza profile politice.
Cred ca intra in incidenta legii si supravegherea datelor criptate pe internet, iar aici e o problema. Fara AI nu poti opri atacurile, nu poti filtra traficul de virusi, de continut care nu trebuie sa fie accesibil, de copyright.

Problema e ca nu vor fi nici magazine non-stop automate cum a facut Amazon.

2 Likes

Nu e extrem deloc. Vezi cum e in China, e chiar un episod din Black Mirror. Chiar era o filmare in care un politist folosea ochelari de tip Google Glass intr-un aeroport, folosind AI de facial recognition ii marca persoanele “rele” in timp real.

Poate nu vi se pare ceva sinistru pe motivatia “Ce treaba am eu, e doar pentru prins infractori”. E ok pana cand ajungi ca opiniile tale politice sa fie o infractiune.

1 Like

Și ăsta e interesant

O alta discutie de pe Reddit

Problema cu supravegherea sunt fals pozitivele.
Daca vrei sa detectezi un terorist, tinand cont ca vasta majoritate a oamenilor nu se ocupa de asa ceva, chiar cu fals pozitive putine vei gasi mult mai mult teroristi falsi decat teroristi pe bune. In loc sa prinzi teroristii, vei teroriza oamenii cinstiti.

Iar AIul e departe de perfectiune.

1 Like

“terorist” tine de definitia statului respectiv

daca esti din Hong Kong si vrei independenta de China esti terrorist si daca pui picior afara te vad baietii rapid cu alea sute de camere amplasate peste tot.

Astfel de tehnologii de urmarire in masa pot fii abuzate extrem de usor. Statul trebuie sa aiba cat mai putine puteri asupra poporului, nu cat mai multe.

Chiar daca nu ai nimic de ascuns nu cred ca ti-ar conveni sa umble cineva dupa tine de fiecare data cand iesi din casa, sa te filmeze, si sa noteze absolut tot ce faci intr-un carnetel.

3 Likes

ue sa faca bn sa interzica rapoartele mcv de cacao la adresa romaniei ca sa intram si noi in cienghen.

macar sa avem o posibilitate de dezvoltare economica in sensul taxarii marfurilor ce ar tranzita tara.

revenind la subiectul discutiei si ducand o inspre latura umana, inainte de toate suntem oameni si ne manifestam prin trairi, emotii.

ca atare orice interzicere sau implementare de spion de intelijentza hartificiala se poate face prin fabricarea unor evenimente tragice cu autori necunoscuti, posesori de parghii social-piramidale.

Eu cred că inventatorii sistemului de Social Credit din China subestimează un pic creativitatea oamenilor și capacitatea lor de a coopera împotriva unui inamic comun.

Dacă acest sistem va fi lansat la scară largă sunt convins că oamenii vor găsi metode de a-l păcăli, de a-l manipula sau profita de el, etc. Pot să-mi pun o mască cu fața cuiva de care nu-mi place și merg să fac prostii cu fața lui.

E corect @anon31094663 rata false positive e o problemă imensă la sistemele astea, pentru că tot oamenii scriu acei parametrii și folosesc aceste sisteme. Pune ceva birocrat prost o descriere prea generală sau o poză de rezoluție mai slabă sau unghi ciudat și te nimerește, te-ai scos.

Se vor creea tot felul de soluții dacă să zicem te trezești că nu mai ai acces la trenuri și du-te și pune-te pe drumuri, fă dosar cu șină, depune cereri, apoi eventual dă statul în judecată, etc. O să fie mai lejer să-ți faci o identitate falsă și îți faci treaba. Iar oameni corupți care să vândă identități se vor găsi odată ce va exista o cerere imensă de la oameni cu social credit mic și cu bani mulți. Și atunci din nou, tot sistemul va deveni inutil. În China unde se pot cumpăra organe nu se vor putea rezolva probleme de genul ăsta?

Și la noi exista Securitatea care până la urmă făcea fix același lucru, urmărea (teoretic) toată populația, dar multe lucruri erau mituri, în realitate mulți informatori dădeau doar informații fără folos, sau chiar false, vecinii te anunțau dacă ‘au întrebat niște domni de tine’ și știai imediat, sau ‘au intrat la tine-n apartament’, etc. Se știa că e vulnerabilă corespondența așa că din start nimeni n-o folosea decât pentru banalități, telefonul la fel, șamd.

Să vedem ce iese.

Teoretic, da. Depinde de AI.
In China se folosea AI pentru a identifica infractiuni in curs.
Dupa gesturile ciorditorilor de buzunare.
Figura nu e de ajuns.

Sunt camere de supraveghere pe piata foarte avansate.
Am inteles ca identifica oamenii, dar am fost surprins sa vad ca ii recunoaste pe proprietari si nu mai trimite alarme cand ii identifica.