Meredith Whittaker, președinta Signal Foundation, alături de Gaël Varoquaux și Alexandra Sasha Luccioni au publicat un articol de cercetare în care demontează mitul că modelele de AI mai mari adus, automat, beneficii sporite aplicațiilor în care sunt folosite.
De obicei, căutăm să rezumăm și să clarificăm cele mai importante puncte pe care le atinge un studiu. În acest caz, autoarele au făcut o treabă mai bună decât am putea noi, încă din abstract. Așa că îl vom traduce și reproduce integral aici:
"Având în vedere atenția și investițiile din ce în ce mai mari în abordări recente ale inteligenței artificiale, cum ar fi modelele lingvistice de mari dimensiuni, afirmația conform căreia cu cât sistemul de inteligență artificială este mai mare, cu atât este mai valoros, mai puternic și mai interesant este considerată din ce în ce mai de bun simț.
Dar pe ce se bazează această presupunere și cum măsurăm valoarea, puterea și performanța? Și care sunt consecințele colaterale ale acestei curse către o scară din ce în ce mai mare? Aici, analizăm tendințele actuale de scalare și compromisurile pe mai multe axe și respingem două ipoteze comune care stau la baza paradigmei AI „mai mare este mai bine”:
1) că performanța îmbunătățită este un produs al creșterii scalei și
2) că toate problemele interesante abordate de AI necesită modele la scară largă.
Mai degrabă, susținem că această abordare nu este doar fragilă din punct de vedere științific, ci vine și cu consecințe nedorite.
În primul rând, nu este sustenabilă, deoarece cerințele de calcul cresc mai repede decât performanța modelului, ceea ce conduce la cerințe economice nerezonabile și la o amprentă disproporționată asupra mediului.
În al doilea rând, implică concentrarea asupra anumitor probleme în detrimentul altora, lăsând deoparte aplicații importante, cum ar fi sănătatea, educația sau clima.
În cele din urmă, exacerbează o concentrare a puterii, care centralizează procesul decizional în mâinile câtorva actori, amenințând în același timp să îi lipsească de putere pe ceilalți în contextul modelării atât a cercetării în domeniul IA, cât și a aplicațiilor acesteia în întreaga societate."
De obicei, căutăm să rezumăm și să clarificăm cele mai importante puncte pe care le atinge un studiu. În acest caz, autoarele au făcut o treabă mai bună decât am putea noi, încă din abstract. Așa că îl vom traduce și reproduce integral aici:
"Având în vedere atenția și investițiile din ce în ce mai mari în abordări recente ale inteligenței artificiale, cum ar fi modelele lingvistice de mari dimensiuni, afirmația conform căreia cu cât sistemul de inteligență artificială este mai mare, cu atât este mai valoros, mai puternic și mai interesant este considerată din ce în ce mai de bun simț.
Dar pe ce se bazează această presupunere și cum măsurăm valoarea, puterea și performanța? Și care sunt consecințele colaterale ale acestei curse către o scară din ce în ce mai mare? Aici, analizăm tendințele actuale de scalare și compromisurile pe mai multe axe și respingem două ipoteze comune care stau la baza paradigmei AI „mai mare este mai bine”:
1) că performanța îmbunătățită este un produs al creșterii scalei și
2) că toate problemele interesante abordate de AI necesită modele la scară largă.
Mai degrabă, susținem că această abordare nu este doar fragilă din punct de vedere științific, ci vine și cu consecințe nedorite.
În primul rând, nu este sustenabilă, deoarece cerințele de calcul cresc mai repede decât performanța modelului, ceea ce conduce la cerințe economice nerezonabile și la o amprentă disproporționată asupra mediului.
În al doilea rând, implică concentrarea asupra anumitor probleme în detrimentul altora, lăsând deoparte aplicații importante, cum ar fi sănătatea, educația sau clima.
În cele din urmă, exacerbează o concentrare a puterii, care centralizează procesul decizional în mâinile câtorva actori, amenințând în același timp să îi lipsească de putere pe ceilalți în contextul modelării atât a cercetării în domeniul IA, cât și a aplicațiilor acesteia în întreaga societate."