Cea mai mare parte a discursului public despre politica de inteligență artificială (AI) se concentrează pe una dintre cele două perspective: modul în care guvernul poate sprijini inovarea în inteligență artificială și modul în care guvernul poate descuraja utilizarea dăunătoare sau neglijentă a acesteia. Cu toate acestea, guvernul poate avea un rol în facilitarea utilizării AI în mod benefic – în această nișă, Fundația Națională pentru Știință (NSF) a găsit o modalitate de a contribui. Printr-un program de acordare de granturi numit Fairness in Artificial Intelligence (FAI), NSF oferă 20 de milioane de dolari în finanțare cercetătorilor care lucrează la probleme etice dificile în AI. Programul, o colaborare cu Amazon, a finanțat acum 21 de proiecte în primii doi ani, cu un deschis apel pentru aplicații în al treilea și ultimul an. Acesta este un efort important, care promovează o tendință de sprijin federal pentru progresul responsabil al tehnologiei, iar NSF ar trebui să continue această linie importantă de finanțare pentru IA etică.
Programul FAI este o investiție în ceea ce numește NSF cercetare inspirată de utilizare , unde oamenii de știință încearcă să abordeze întrebări fundamentale inspirate de provocările lumii reale și de limitările științifice presante. Cercetarea inspirată de utilizare este o alternativă la cercetarea de bază tradițională, care încearcă să facă progrese fundamentale în înțelegerea științifică fără neapărat un scop practic specific. NSF este mai bine cunoscut pentru cercetarea de bază în informatică, unde NSF oferă 87% din toată finanțarea federală a cercetării de bază. În consecință, programul FAI reprezintă o parte relativ mică din investiția totală a FSN în AI – aproximativ 3,3 milioane de dolari pe an, având în vedere că Amazon acoperă jumătate din cost. În total, FSN a cerut 868 de milioane de dolari în cheltuielile AI, aproximativ 10% din întregul său buget pentru 2021, iar Congresul a aprobat fiecare banut . În special, aceasta este o definiție largă a cheltuielilor AI, care include multe aplicații ale AI în alte domenii, mai degrabă decât progrese fundamentale în AI în sine, care este probabil mai aproape de 100 sau 150 de milioane de dolari, după o estimare aproximativă.
Programul FAI este orientat în mod specific către principiul etic al echității – mai multe despre această alegere într-un moment. Deși acest lucru poate părea neobișnuit, programul este o continuare a cercetării anterioare finanțate de guvern cu privire la implicațiile morale și consecințele tehnologiei. Începând cu anii 1970 a început guvernul federal modelând activ cercetarea bioetică în raspuns la proteste publice în urma raportării AP cu privire la Studiul Tuskegee Sifilis. În timp ce eforturile inițiale au fost reacționare, ele au precipitat decenii de muncă pentru îmbunătățirea științelor biomedicale. Lansat alături de Proiectul Genomului Uman în 1990, a existat un linie extinsă de cercetare orientat către implicațiile etice, juridice și sociale ale genomicii. Începând din 2018, FSN a finanțat 21 granturi exploratorii asupra impactului de AI pe societate , un precursor al actualului program FAI. Astăzi, este posibil să trasăm o linie de tendință aproximativă prin aceste eforturi, în care guvernul devine din ce în ce mai preocupat de știința pură, apoi de etica procesului științific și acum de rezultatele etice ale științei în sine. Aceasta este o evoluție pozitivă și una care merită încurajată.
NSF a luat o decizie conștientă de a se concentra pe corectitudine, mai degrabă decât pe alte teme predominante, cum ar fi încrederea sau designul centrat pe om. Dr. Erwin Gianchandani, director adjunct adjunct al NSF, are descris patru categorii de probleme din domeniul FAI și fiecare dintre ele poate fi legată cu ușurință de provocările actuale și în curs cu care se confruntă AI. Prima categorie este axată pe multe definiții matematice contradictorii ale corectitudinii și lipsa de claritate în jurul cărora sunt adecvate în ce contexte. Un proiect finanțat a studiat percepțiile umane cu privire la ce măsurători de corectitudine sunt cele mai potrivite pentru un algoritm în contextul deciziilor de cauțiune - aceeași aplicare a infamul algoritm COMPAS . Studiul a constatat că respondenții la sondaj au preferat ușor un algoritm care avea o rată constantă de fals pozitive (câți oameni au fost ținuți inutil în închisoare în așteptarea procesului) între două grupuri rasiale, mai degrabă decât un algoritm care a fost la fel de precis pentru ambele grupuri rasiale. În special, aceasta este calitatea opusă a algoritmului COMPAS, care a fost corect în acuratețea sa totală, dar a dus la mai multe fals pozitive pentru inculpații de culoare.
A doua categorie, scrie Gianchandani, este de a înțelege modul în care un sistem AI produce un rezultat dat. NSF consideră că acest lucru este direct legat de corectitudine, deoarece oferirea unui utilizator final mai multe informații despre decizia unei IA îi dă putere să conteste acea decizie. Acesta este un punct important - în mod implicit, sistemele AI maschează natura unui proces de luare a deciziilor și îngreunează interogarea procesului pentru o persoană. Poate cel mai nou proiect finanțat de NSF FAI încearcă să testeze viabilitatea audituri de crowdsourcing ale sistemelor AI . Într-un audit crowdsourced, multe persoane s-ar putea înscrie pentru un instrument – de exemplu, un site web sau o extensie de browser web – care reunește date despre modul în care acești indivizi au fost tratați de un sistem AI online. Prin agregarea acestor date, mulțimea poate determina dacă algoritmul este discriminatoriu, ceea ce ar fi imposibil din punct de vedere funcțional pentru orice utilizator individual.
A treia categorie încearcă să folosească AI pentru a face sistemele existente mai echitabile, o sarcină deosebit de importantă, deoarece guvernele din întreaga lume continuă să ia în considerare dacă și cum să încorporeze sistemele AI în serviciile publice. unu proiect de la cercetătorii de la Universitatea din New York încearcă, parțial, să abordeze provocarea echității atunci când un algoritm este utilizat în sprijinul unui factor de decizie uman. Acest lucru este probabil inspirat de un recent evaluarea judecătorilor folosind evaluări algoritmice de risc în Virginia, care a concluzionat că algoritmul nu a reușit să îmbunătățească siguranța publică și a avut ca efect neintenționat creșterea gradului de încarcerare a tinerilor inculpați. Cercetătorii de la NYU au în minte o provocare similară: dezvoltarea unui instrument pentru a identifica și reduce părtinirile sistemice în deciziile procurorilor luate de procurorii districtuali.
A patra categorie este poate cea mai intuitivă, deoarece își propune să elimine părtinirea sistemelor AI sau, alternativ, să se asigure că sistemele AI funcționează în mod echivalent bine pentru toată lumea. Un proiect urmărește să creeze valori comune de evaluare pentru procesarea limbajului natural AI, astfel încât eficiența acestora să poată fi comparată multe limbi diferite , ajutând la depășirea concentrării miope asupra limbii engleze. Alte proiecte se uită la corectitudine în metode mai puțin studiate, cum ar fi algoritmi de rețea , și încă mai multe caută să se îmbunătățească în aplicații specifice, cum ar fi pentru software medical și angajare algoritmică . Aceste ultime două sunt deosebit de demne de remarcat, deoarece dovezile publice predominante sugerează că prejudecăți algoritmice furnizarea de bază de sănătate iar angajarea este larg răspândită.
Criticii pot deplânge faptul că Big Tech, care joacă un rol proeminent în cercetarea AI , este prezent chiar și în acest program federal—Amazon este egal cu sprijinul FSN, astfel încât fiecare organizație plătește în jur de 10 milioane de dolari. Cu toate acestea, nu există niciun motiv să credem că independența FSN a fost compromisă. Amazon nu joacă niciun rol în selectarea cererilor de grant și niciunul dintre beneficiarii de grant contactați nu a avut nicio îngrijorare cu privire la procesul de selecție a granturilor. Oficialii NSF au remarcat, de asemenea, că orice colaborare de lucru cu Amazon (cum ar fi primirea de asistență de inginerie) este complet opțională. Desigur, merită să luați în considerare ce are de câștigat Amazon din acest parteneriat. Citind Anunțul FAI , subliniază faptul că programul încearcă să contribuie la sisteme AI de încredere, care sunt ușor acceptate și că proiectele vor permite o acceptare extinsă a sistemelor AI. Nu este un secret faptul că actuala generație de mari companii tehnologice ar beneficia enorm de pe urma creșterii încrederii publice în AI. Totuși, finanțarea corporativă pentru cercetarea cu adevărat independentă este bună și incontestabilă – mai ales în raport cu alte opțiuni precum companiile finanțare directă cercetare academica.
Dincolo de contribuția de finanțare, pot exista și alte beneficii societale din parteneriat. În primul rând, Amazon și alte companii de tehnologie pot acorda mai multă atenție rezultatelor cercetării. Pentru o companie precum Amazon, aceasta ar putea însemna încorporarea rezultatelor în proprii algoritmi sau în sistemele AI pe care le vinde prin Amazon Web Services (AWS). Adoptarea în serviciile cloud AWS poate avea un impact deosebit, deoarece multe mii de oameni de știință de date și companii folosesc aceste servicii pentru AI. Ca doar un exemplu, profesorul Sandra Wachter de la Oxford Internet Institute a fost entuziasmat a invata ca a metrica corectitudinii ea și coautorii susținuseră pentru au fost încorporate într-un Serviciu cloud AWS , făcându-l mult mai accesibil pentru practicienii științei datelor. În general, având un set extins de caracteristici ușor de utilizat pentru corectitudinea AI, face mai probabil ca oamenii de știință să exploreze și să utilizeze aceste instrumente.
În totalitatea sa, FAI este un efort de cercetare mic, dar puternic. Nenumăratele provocări prezentate de inteligența artificială sunt toate îmbunătățite cu mai multe cunoștințe și metode mai responsabile, conduse de această cercetare independentă. Deși există o sumă enormă de finanțare corporativă în cercetarea AI, aceasta nu este nici independentă, nici nu vizează în primul rând corectitudinea și poate exclude în totalitate unele subiecte FAI (de exemplu, echitatea în utilizarea AI de către guvern). Deși acesta este ultimul an al programului FAI, unul dintre directorii de program ai FAI FAI, dr. Todd Leen, a subliniat, atunci când a fost contactat pentru acest articol, că NSF nu se îndepărtează de aceste probleme importante de cercetare și că misiunea FAI va fi absorbită în direcţia generală de informatică. Această absorbție poate veni cu dezavantaje minore - de exemplu, lipsa unei linii bugetare clar specificate și nicio raportare consolidată privind proiectele de cercetare finanțate. FSN ar trebui să ia în considerare urmărirea acestor investiții și să comunice în mod clar comunității de cercetare că corectitudinea AI este o prioritate continuă a FSN.
De asemenea, administrația Biden ar putea solicita în mod specific finanțare suplimentară FSN pentru corectitudine și IA. Pentru o dată, această finanțare nu ar fi o vânzare dificilă pentru factorii de decizie. Congresul a finanțat totalitatea cererii bugetare de 868 de milioane de dolari ale FSN pentru IA în 2021, iar președintele Biden a semnalat un interes clar pentru extinderea finanțării științei; bugetul propus de acesta cere o creștere cu 20% a FSN finanțare pentru anul fiscal 2022, iar administrația a lansat a Grupul operativ național de cercetare IA coprezidată de nimeni altul decât dr. Erwin Gianchandani. Cu tot acest interes, marcarea în mod explicit de la 5 la 10 milioane de dolari pe an pentru promovarea echității în IA este în mod clar posibilă și cu siguranță merită.