Conectează-te cu noi

Tehnologia calculatoarelor

OASI, primul motor de căutare care a găsit algoritmii pe care guvernele și companiile le folosesc pentru cetățeni

ACȚIUNE:

Publicat

on

Folosim înscrierea dvs. pentru a furniza conținut în moduri în care ați consimțit și pentru a ne îmbunătăți înțelegerea. Vă puteți dezabona în orice moment.

  • Creat de Fundația Eticas, Observatorul Algoritmilor cu Impact Social, OASI, colectează informații din zeci de algoritmi utilizați de administrațiile publice și companii din întreaga lume pentru a afla mai multe despre impactul lor social.
  • Obiectivul este de a oferi acces publicului la informații atât asupra guvernelor, cât și asupra algoritmilor companiei și să știe cine le folosește, cine le dezvoltă, ce amenințări reprezintă și dacă au fost auditate, printre alte caracteristici.
  • Particularitatea algoritmului și discriminarea au loc, de obicei, în funcție de vârstă, sex, rasă sau dizabilitate, printre alte valori, dar din cauza lipsei generale de transparență, încă nu este posibil să se cunoască toate consecințele sale asupra grupurilor afectate.

Fundația Eticas, o organizație non-profit care promovează utilizarea responsabilă a algoritmilor și a sistemelor de inteligență artificială (AI), a creat Observatorul Algoritmilor cu Impact Social (OASI). Acest Observator introduce un motor de căutare pentru a afla mai multe despre instrumentele care iau decizii automate importante asupra cetățenilor, consumatorilor și utilizatorilor din întreaga lume.

În prezent, atât companiile, cât și administrațiile publice automatizează deciziile datorită algoritmilor. In orice caz, dezvoltarea și punerea în funcțiune a acesteia nu urmează controalelor externe de calitate și nici nu este la fel de transparentă pe cât ar trebui, ceea ce lasă populația neprotejată. Cu acest motor de căutare, oricine poate afla mai multe despre acești algoritmi: cine le-a dezvoltat, cine le folosește, domeniul lor de aplicare, indiferent dacă au fost auditate, obiectivele lor sau impactul lor social și amenințările pe care le reprezintă.

În momentul de faţă, OASI colectează 57 de algoritmi, dar se așteaptă să ajungă la 100 în următoarele luni. Dintre acestea, 24 sunt deja aplicate în SUA de către guvern și companiile Big Tech. De exemplu, ShotSpotter, un instrument algoritm desfășurat de Departamentul de Poliție din Oakland pentru a combate și reduce violența armelor prin microfoane de monitorizare a sunetului și un algoritm pentru a prezice abuzul și neglijarea potențială a copiilor, utilizat de județul Allegheny, Pennsylvania. Un alt exemplu dintr-o companie este Rekognition, sistemul de recunoaștere facială Amazon, care a fost auditat de MIT Media Lab la începutul anului 2019 și s-a dovedit a avea rezultate substanțial mai slabe la identificarea sexului unei persoane, dacă acestea erau de sex feminin sau cu pielea mai închisă la culoare.

Cea mai frecventă discriminare se bazează pe vârstă, sex, rasă sau handicap, produs neintenționat de dezvoltatori care nu au abilități socioeconomice pentru a înțelege impactul acestei tehnologii. În acest sens, acești ingineri proiectează algoritmii pe baza abilităților tehnice și, deoarece nu există controale externe și se pare că funcționează așa cum era de așteptat, algoritmul continuă să învețe din datele deficitare.

Având în vedere lipsa de transparență cu privire la funcționarea unora dintre acești algoritmi, Fundația Eticas, în afară de lansarea OASI, dezvoltă un proiect de audit extern. Primul este VioGén, algoritmul folosit de Ministerul de Interne spaniol pentru a atribui risc femeilor care caută protecție după ce au suferit cazuri de violență domestică. Eticas va efectua un audit extern prin inginerie inversă și date administrative, interviuri, rapoarte sau scripturi de proiectare, pentru a colecta rezultate la scară. Toate acestea cu scopul de a detecta oportunități de îmbunătățire a protecției acestor femei.

„În ciuda existenței unor metode algoritmice de control și audit pentru a se asigura că tehnologia respectă reglementările și drepturile fundamentale actuale, Administrația și multe companii continuă să dea ascultare cererilor de transparență din partea cetățenilor și instituțiilor”, a declarat Gemma Galdon, fondatoarea Eticas Foundation . „Pe lângă OASI, după câțiva ani în care am dezvoltat mai mult de o duzină de audituri pentru companii precum Alpha Telefónica, Organizația Națiunilor Unite, Koa Health sau Banca Interamericana de Dezvoltare, am publicat și un Ghid pentru Auditul Algoritmic. că oricine le poate efectua. Obiectivul este întotdeauna creșterea gradului de conștientizare, asigurarea transparenței și restabilirea încrederii în tehnologie, care în sine nu trebuie să fie dăunătoare. ”

În acest sens, algoritmii care sunt instruiți cu tehnici de învățare automată folosind o cantitate mare de date istorice pentru a-i „învăța” să aleagă pe baza deciziilor din trecut. De obicei, aceste date nu sunt reprezentative pentru realitatea socioeconomică și culturală pe care sunt aplicate, dar în multe ocazii reflectă o situație nedreaptă care nu se dorește a fi perpetuată. În acest fel, algoritmul ar lua tehnic decizii „corecte” în funcție de pregătirea sa, chiar dacă realitatea este că recomandările sau predicțiile sale sunt părtinitoare sau discriminate.

publicitate

Despre Fundația Eticas

Fundația Eticas lucrează pentru a traduce în specificații tehnice principiile care ghidează societatea, cum ar fi șansele egale, transparența și nediscriminarea, care se află în tehnologiile care iau decizii automatizate despre viața noastră. Se caută un echilibru între valorile sociale în schimbare, posibilitățile tehnice ale ultimelor progrese și cadrul legal. În acest scop, auditează algoritmi, verifică dacă garanțiile legale se aplică lumii digitale, în special inteligenței artificiale și desfășoară o muncă intensă pentru a sensibiliza și a disemina necesitatea unei tehnologii responsabile și de calitate.

Trimiteți acest articol:

EU Reporter publică articole dintr-o varietate de surse externe care exprimă o gamă largă de puncte de vedere. Pozițiile luate în aceste articole nu sunt neapărat cele ale EU Reporter.

Trending