Nobelul pentru fizică a fost oferit anul acesta lui John Hopfield și Geoffrey Hinton pentru munca pe care aceștia au făcut-o în domeniul machine learning. Amândoi au contribuit la dezvoltarea algoritmilor care, acum, sunt folosiți în AI-ul generativ. Amândoi sunt vocali critici ai direcției de dezvoltare a AI-ului generativ și sunt îngrijorați de ideea unei inteligențe artificiale generale, care ar putea deveni mai inteligentă decât oamenii.
La ApTI, însă, ținem morțiș să explicăm contextul tehnologic și impactul asupra drepturilor omului, așa că mai avem câte ceva de adăugat la această știre.
Geoffrey Hinton a lucrat pentru Google, alături de Timnit Gebru, una dintre coordonatoarele grupului de Etică în AI al companiei. Timnit alți șase colegi au analizat modul în care large language models (LLM) - care au fost instruite pe materiale care includ site-uri precum Wikipedia, Twitter și Reddit - ar putea reflecta și consolida prejudecățile sociale. Datele pe care LLM-urile erau antrenate conțineau stereotipuri legate de gen, rasă, sexualitate, clasă socială care se regăsau, amplificate și sedimentate, în conținutul generat de LLM-uri.
Pentru Gebru și colegii săi, era foarte clar că ceea ce scuipau aceste modele era dăunător.
„S-a demonstrat că datele de antrenare au caracteristici problematice, iar modelele rezultate codifică asocieri stereotipe și derogatorii de-a lungul genului, rasei, etniei și statutului de handicap”, se arată în lucrarea lui Gebru. „Punctele de vedere privind supremația albilor și misoginismul, vârsta etc. sunt suprareprezentate în datele de formare, depășind nu numai prevalența lor în populația generală, ci și configurarea modelelor formate pe aceste seturi de date pentru a amplifica în continuare prejudecățile și prejudiciile”.
Gebru a fost concediată de la Google pentru faptul că a apărat concluziile acestui articol. Geoffrey Hinton, el însuși îngrijorat de posibilele derapaje ale LLM-urilor, însă, s-a arătat neconvins, chair ostil, muncii de cercetare pe care au făcut-o colegele și colegii lui.
Într-un interview, Hinton declara că ideile lui Gebru „nu sunt la fel de grave din punct de vedere existențial ca ideea că aceste lucruri devin mai inteligente decât noi și preiau controlul”.
Vedem, deci, că Nobelul a ajuns în mâinile unor cercetători a căror muncă contribuie direct la tehnologia AI-ului generativ, însă a căror opinie despre respectarea drepturilor fundamentale ale omului este mai degrabă informată de science-fiction decât de o înțelegere profundă a impactului pe care aceste tehnologii le au.
La ApTI, însă, ținem morțiș să explicăm contextul tehnologic și impactul asupra drepturilor omului, așa că mai avem câte ceva de adăugat la această știre.
Geoffrey Hinton a lucrat pentru Google, alături de Timnit Gebru, una dintre coordonatoarele grupului de Etică în AI al companiei. Timnit alți șase colegi au analizat modul în care large language models (LLM) - care au fost instruite pe materiale care includ site-uri precum Wikipedia, Twitter și Reddit - ar putea reflecta și consolida prejudecățile sociale. Datele pe care LLM-urile erau antrenate conțineau stereotipuri legate de gen, rasă, sexualitate, clasă socială care se regăsau, amplificate și sedimentate, în conținutul generat de LLM-uri.
Pentru Gebru și colegii săi, era foarte clar că ceea ce scuipau aceste modele era dăunător.
„S-a demonstrat că datele de antrenare au caracteristici problematice, iar modelele rezultate codifică asocieri stereotipe și derogatorii de-a lungul genului, rasei, etniei și statutului de handicap”, se arată în lucrarea lui Gebru. „Punctele de vedere privind supremația albilor și misoginismul, vârsta etc. sunt suprareprezentate în datele de formare, depășind nu numai prevalența lor în populația generală, ci și configurarea modelelor formate pe aceste seturi de date pentru a amplifica în continuare prejudecățile și prejudiciile”.
Gebru a fost concediată de la Google pentru faptul că a apărat concluziile acestui articol. Geoffrey Hinton, el însuși îngrijorat de posibilele derapaje ale LLM-urilor, însă, s-a arătat neconvins, chair ostil, muncii de cercetare pe care au făcut-o colegele și colegii lui.
Într-un interview, Hinton declara că ideile lui Gebru „nu sunt la fel de grave din punct de vedere existențial ca ideea că aceste lucruri devin mai inteligente decât noi și preiau controlul”.
Vedem, deci, că Nobelul a ajuns în mâinile unor cercetători a căror muncă contribuie direct la tehnologia AI-ului generativ, însă a căror opinie despre respectarea drepturilor fundamentale ale omului este mai degrabă informată de science-fiction decât de o înțelegere profundă a impactului pe care aceste tehnologii le au.