Microsoft intenționează să elimine instrumentele de analiză facială din Push pentru „IA responsabilă”

De ani de zile, activiștii și cadrele universitare s-au îngrijorat că software-ul de analiză facială care pretinde că poate identifica vârsta, sexul și starea emoțională a unei persoane ar putea fi părtinitoarenesigur sau invaziv – și nu ar trebui vândut.

Recunoscând unele dintre aceste critici, Microsoft a declarat marți că intenționează să elimine aceste caracteristici din serviciu de inteligență artificială pentru a detecta, analiza și recunoaște fețele. Acestea vor înceta să fie disponibile pentru utilizatorii noi în această săptămână și vor fi eliminate treptat pentru utilizatorii existenți în cursul unui an.

Schimbările fac parte dintr-un impuls al Microsoft pentru controale mai stricte asupra produselor sale de inteligență artificială. După o analiză de doi ani, o echipă Microsoft a dezvoltat un „Standard AI responsabil”, un document de 27 de pagini care stabilește cerințele pentru sistemele AI pentru a se asigura că nu vor avea un impact dăunător asupra societății.

Cerințele includ asigurarea faptului că sistemele oferă „soluții valide la problemele pe care sunt proiectate să le rezolve” și „o calitate similară a serviciilor pentru grupurile demografice identificate, inclusiv grupurile marginalizate”.

Înainte de lansare, tehnologiile care ar fi folosite pentru a lua decizii importante cu privire la accesul unei persoane la angajare, educație, îngrijire medicală, servicii financiare sau o oportunitate de viață sunt supuse revizuirii de către o echipă condusă de Natasha Crampton, șeful AI la Microsoft. .

Microsoft a devenit din ce în ce mai preocupat de instrumentul de recunoaștere a emoțiilor, care a etichetat expresia cuiva ca fiind furie, dispreț, dezgust, frică, fericire, neutralitate, tristețe sau surpriză.

„Există o cantitate enormă de variații culturale, geografice și individuale în modul în care ne exprimăm”, a spus doamna Crampton. Acest lucru a dus la probleme de fiabilitate, precum și la întrebări mai mari despre dacă „expresia facială este un indicator de încredere al stării tale emoționale interne”, a spus ea.

Instrumentele de analiză a vârstei și sexului care sunt eliminate treptat – împreună cu alte instrumente pentru detectarea atributelor faciale, cum ar fi părul și zâmbetul – ar putea fi utile în interpretarea imaginilor vizuale pentru persoanele nevăzătoare sau cu deficiențe de vedere, de exemplu, dar compania a decis că este problematică face instrumentele de profilare disponibile în general pentru public, a spus doamna Crampton.

READ  În cadrul ceremoniei de deschidere a finalei UEFA Champions League

În special, a adăugat ea, așa-numitul clasificator de gen al sistemului era binar, „și asta nu este în concordanță cu valorile noastre”.

Microsoft va pune, de asemenea, noi comenzi asupra caracteristicii sale de recunoaștere facială, care poate fi folosită pentru a efectua verificări de identitate sau pentru a căuta o anumită persoană. Uber, de exemplu, utilizați software-ul în aplicația sa pentru a verifica dacă fața unui șofer se potrivește cu ID-ul înregistrat pentru contul șoferului respectiv. Dezvoltatorii de software care doresc să utilizeze instrumentul de recunoaștere facială Microsoft vor trebui să solicite acces și să explice cum intenționează să îl implementeze.

De asemenea, utilizatorii vor trebui să aplice și să explice cum vor folosi alte sisteme AI potențial abuzive, cum ar fi Voce neuronală personalizată. Serviciul poate genera o amprentă vocală umană, pe baza unui eșantion al discursului cuiva, astfel încât autorii, de exemplu, să poată crea versiuni sintetice ale vocii lor pentru a-și citi cărțile audio în limbi pe care nu le vorbesc.

Datorită posibilei utilizări greșite a instrumentului – pentru a face să pară că oamenii au spus lucruri pe care nu le-au spus – cei care răspund trebuie să parcurgă o serie de pași pentru a confirma că utilizarea vocii lor este permisă, iar înregistrările includ filigrane detectabile de Microsoft.

„Luăm măsuri concrete pentru a ne susține principiile AI”, a spus doamna Crampton, care a lucrat ca avocat la Microsoft timp de 11 ani și s-a alăturat grupului Ethical AI în 2018. „Va fi o călătorie uriașă. ”

În 2020, cercetătorii au descoperit că instrumentele de transformare a textului în vorbire dezvoltate de Microsoft, Apple, Google, IBM și Amazon a funcționat mai puțin bine pentru negrii. Sistemul Microsoft a fost cel mai bun din grup, dar a identificat greșit 15% din cuvinte pentru albi, comparativ cu 27% pentru negri.

Compania a colectat diverse date vocale pentru a-și antrena sistemul AI, dar nu și-a dat seama cât de divers ar putea fi limbajul. Așa că a angajat un expert în sociolingvistică de la Universitatea din Washington pentru a explica varietățile de limbi pe care Microsoft trebuia să le cunoască. El a mers dincolo de demografia și varietatea regională în modul în care oamenii vorbesc în medii formale și informale.

„Gândirea la rasă ca un factor determinant în modul în care vorbește cineva este de fapt puțin înșelătoare”, a spus doamna Crampton. „Ceea ce am învățat din consultarea expertului este că, de fapt, o gamă largă de factori afectează varietatea limbii.”

Doamna Crampton a spus că călătoria pentru a aborda această disparitate între vorbire și text a ajutat la informarea direcțiilor stabilite în noile standarde ale companiei.

„Aceasta este o perioadă critică pentru stabilirea standardelor pentru IA”, a spus ea, subliniind Regulamentul european propus stabiliți reguli și limite privind utilizarea inteligenței artificiale. „Sperăm că putem folosi standardul nostru pentru a încerca să contribuim la discuția strălucitoare și necesară care trebuie să aibă loc cu privire la standardele la care companiile tehnologice ar trebui să fie ținute.”

A discuție plină de viață despre potențialele daune ale AI se desfășoară de ani de zile în comunitatea tehnologică, alimentată de erori și greșeli care au consecințe reale asupra vieții oamenilor, cum ar fi algoritmii care determină dacă oamenii primesc sau nu beneficii sociale. autoritatea fiscală olandeză a retras din greșeală prestațiile de îngrijire a copilului a familiilor nevoiaşe când a algoritm defect sancționați persoanele cu dublă naționalitate.

READ  Techcelerator aduce în România programul de pre-accelerator EIT Digital

Software-ul automat de recunoaștere și analiză a feței a fost deosebit de controversat. Anul trecut Facebook închide sistemul său vechi de un deceniu pentru identificarea persoanelor din fotografii. Vicepreședintele de inteligență artificială al companiei a citat „numerele preocupări legate de locul tehnologiei de recunoaștere facială în societate”.

Au fost câțiva bărbați de culoare arestat pe nedrept după meciuri defecte de recunoaștere facială. Și în 2020, în același timp cu protestele Black Lives Matter după uciderea lui George Floyd de către poliție în Minneapolis, Amazon și Microsoft au emis moratoriu privind utilizarea produselor lor de recunoaștere facială de către poliția din Statele Unite, spunând legi mai clare cu privire la utilizarea sa au fost necesare.

De cand, Washington și Massachusetts a adoptat reglementări care impun, printre altele, supravegherea judiciară a utilizării de către poliție a instrumentelor de recunoaștere facială.

Doamna Crampton a spus că Microsoft s-a gândit să înceapă să-și pună software-ul la dispoziția poliției în statele cu legi existente, dar a decis să nu o facă, deocamdată. Ea a spus că asta s-ar putea schimba pe măsură ce peisajul legal se schimbă.

Arvind Narayanan, profesor de informatică la Princeton și expert lider în IAa spus că companiile ar putea să se îndepărteze de tehnologiile care analizează fața, deoarece acestea sunt „mai viscerale, spre deosebire de alte tipuri de IA care ar putea fi dubioase, dar nu ne simțim neapărat în oase”.

De asemenea, companiile pot realiza că, cel puțin deocamdată, unele dintre aceste sisteme nu au o asemenea valoare comercială, a spus el. Microsoft nu a putut spune câți utilizatori are pentru caracteristicile de analiză facială de care scăpa. Domnul Narayanan a prezis că companiile ar fi mai puțin probabil să abandoneze alte tehnologii invazive, cum ar fi publicitatea direcționată, care profilează oamenii pentru a alege cele mai bune reclame pentru a le arăta, pentru că erau o „vacă de bani”.

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *