Drepturi Civile Digitale


Гео и язык канала: не указан, Английский
Категория: Новости и СМИ


Susținem o lume digitală liberă prin promovarea vieții private, libertății de exprimare și a tehnologiilor deschise pe Internet.

Связанные каналы  |  Похожие каналы

Гео и язык канала
не указан, Английский
Категория
Новости и СМИ
Статистика
Фильтр публикаций


Armata americană a făcut prima sa achiziție a software-ului oferit de OpenAI, pentru Comandamentul SUA pentru Africa, sau AFRICOM, cum mai e supra-numită.

Un document de achiziție, obținut de The Intercept, arată că AFRICOM a mai cumpărat și în trecut servicii de cloud de la Microsoft, compania care deține OpenAI și că, acum, armata este dornică să cumpere software AI direct de la aceeași sursă, fără să mai ia în considerare alți comercianți. AFRICOM afirmă că "capacitatea de a susține procesări avansate AI/ML este esențială. Aceasta include servicii pentru căutare, procesarea limbajului natural, [machine learning] și analiză unificată pentru prelucrarea datelor”. Conform AFRICOM, platforma cloud Azure a Microsoft, care include o suită de instrumente furnizate de OpenAI, este singurul furnizor de cloud capabil să răspundă nevoilor sale.

Documentul AFRICOM marchează prima achiziție confirmată a produselor OpenAI de către un comandament combatant american a cărui misiune este una de ucidere.

Un purtător de cuvânt al OpenAI a declarat pentru The Intercept: „OpenAI nu are un parteneriat cu Comandamentul SUA pentru Africa” și a redirecționat întrebările către Microsoft. Microsoft nu a răspuns imediat la o cerere de comentarii. Nici un purtător de cuvânt pentru AFRICOM.

„Este extrem de alarmant faptul că [documentele de achiziție] sunt explicite în utilizarea instrumentelor OpenAI pentru „analize unificate pentru procesarea datelor” pentru a se alinia la obiectivele misiunii AFRICOM, a declarat Heidy Khlaaf, cercetător la AI Now Institute, care a efectuat anterior evaluări de siguranță pentru OpenAI. „În special prin faptul că afirmă că ei cred că aceste instrumente sporesc eficiența, precizia și scalabilitatea, când, de fapt, s-a demonstrat că aceste instrumente sunt extrem de imprecise și fabrică în mod constant rezultate. Aceste afirmații arată o lipsă îngrijorătoare de conștientizare din partea celor care achiziționează aceste tehnologii cu privire la riscurile ridicate pe care aceste instrumente le prezintă în mediile critice pentru misiuni.”


Publicația Proof arată diferențele enorme între cum răspund chatboții cei mai populari întrebărilor despre alegeri în limba engleză și în limba spaniolă. Investigația s-a derulat ca o colaborare a AI Democracy Projects.

Dacă întrebi Gemini, chatbotul de la Google, despre frauda electorală în limba engleză, acesta spune că o astfel de fraudă este „incredibil de rară” și îți adaugă o listă de subiecte care sunt „mai productive de luat în considerare”, cum ar fi suprimarea votanților.

Dar pui aceeași întrebare în spaniolă, modelul oferă un răspuns complet diferit, îți dă o listă de metode de eradicare a fraudei electorale, adăugând că este un „proces complex”.

Folosind un software de testare a inteligenței artificiale și o metodologie concepută de AI Democracy Projects, Proof a adresat aceleași 25 de întrebări legate de alegeri și procesul electoral în engleză și spaniolă și a constatat că 52% dintre răspunsurile la întrebările în spaniolă conțineau informații inexacte, comparativ cu 43% dintre răspunsurile la întrebările în engleză.


Am semnat, alături de peste 20 de organizații pentru drepturi digitale și drepturile omului, o scrisoare deschisă adresată comisarei pentru Tech Sovereignty, Security and Democracy, Henna Virkkunen. Scrisoarea îi cere lui Virkkunen să ceară Comisiei Europene să nu intervină în neutralitatea Internetului.

Intervențiile la care face referire scrisoarea sunt, de fapt, încercări de a obliga platformele care pe care se generează și care permit streaming-ul de conținut să plătească o taxă operatorilor de telecomunicație, care oferă serviciul conectării la Internet. Adoptarea unor astfel de taxe ar duce la modificarea modelului de interconectare al internetului în favoarea unui număr mic de operatori mari de telecomunicații.

Organizațiile și persoanele care au semnat scrisoarea deschisă se opun unor astfel de intervenții, dat fiind că ele ar fi extrem de dăunătoare utilizatorilor Internetului din întreaga lume.

După cum a concluzionat Organismul autorităților europene de reglementare în domeniul comunicațiilor electronice (BEREC), ecosistemul de interconectare a internetului este caracterizat de o dinamică a pieței care funcționează bine, cu puteri de negociere echilibrate. În mod similar, marea majoritate a părților interesate din Europa au subliniat modul în care acest tip de intervenție de reglementare riscă să fragmenteze internetul, denaturează concurența pe piață, dăunează consumatorilor și creează stimulente adverse care conduc la o infrastructură mai scumpă și ineficientă cu o calitate mai slabă a serviciilor și costuri mai mari.


AI Act a intrat în vigoare în august 2024, iar majoritatea dispozițiilor sale sunt aplicabile abia din august 2026. Scopul său declarat? Reducerea pericolelor aduse de sisteme de IA asupra drepturilor fundamentale ale cetățenilor europeni, și, adiacent și implicit, reducerea fricii privind aceste dintâi tehnologii și crearea de predictibilitate când vine vorba de dezvoltarea sistemelor de inteligență artificială.

Am scris, pe site-ul ApTI, un articol care trece în revistă ce ne oferă prima lege a UE pentru Inteligența Artificială.

De la intrarea regulamentului în vigoare ne așteaptă un proces îndelungat de oficializare al acestuia privind tehnologii specifice - dar și generale - care pot impacta negativ drepturile noastre fundamentale. Regulamentul are în vedere mai degrabă orientarea către produs (sistemele de inteligență artificială), decât orientarea spre drepturile fundamentale. Acest lucru a fost subliniat în repetate rânduri de analiști și observatori ai regulamentului.

Am trecut, în articolul nostru, prin exemple concrete ale tehnologiilor care vor fi reglementate de AI Act. Un aspect important este faptul că cercetarea și dezvoltarea științifică care folosește, creează și dezvoltă sisteme IA nu este inclusă în aspectele reglementate de AI ACT. În schimb, regulamentul se aplică tehnologiilor IA dezvoltate în cadrul cercetării științifice doar atunci când intră pe piața europeană.

Articolul analizează și clasificarea sistemelor de IA în baza riscului. Simona Tiribelli, cercetătoare care se ocupă de cum influențează sistemele de inteligență artificială procesele noastre decizionale morale, argumentează că fiecare sistem IA crează o „arhitectură decizională” care poate determina, în parte, deciziile pe care le ia o persoană fizică. Acest fapt e în contradicție cu modul în care e modelat riscul în AI Act, unde influența asupra gândirii și comportamentului este unul din factorii care determină zona de risc.

Totuși, este important de menționat că AI ACT nu este o insulă de reglementare, ci trebuie aplicat în concordanță cu obligațiile din alte regulamente privind spațiul digital - DSA și DMA.

Rețeaua EDRi a declarat, de asemenea, cadrul de clasificare a riscurilor ca fiind, de fapt, un sistem de „autoreglementare” deficitar. Conform analizei de la EDRi de mai sus, AI ACT nu reușește în a atinge ce-și propune, anume a deveni un regulament orientat, în mod principal și sistematic, spre protecția drepturilor fundamentale. În schimb, acest regulament este mai mult orientat spre piața comercială de inteligență artificială din Europa.


Locația smartphone-urilor a devenit mult mai ușor de urmărit, mulțumită tehnologiei AdvertisingID și acum vedem cât de ușor e, de fapt, ca o firmă să ofere pe platou toate călătoriile cetățenilor, atâta timp cât aceștia au telefonu-n buzunar.

Location X, e o firmă care susține că are capacitatea de a urmări locațiile a sute de milioane de utilizatori de telefonie pe perioade lungi de timp. Ei vând acest serviciu doar angajaților guvernului Statelor Unite ale Americii și forțelor de ordine.

Însă, în ciuda faptului că această companie susține că-și vinde serviciile doar unui subset foarte limitat de consumatori, iată că capabilitățile produsului lor a ajung în presă. Un individ care lucra la o companie care oferă utilizatorilor posibilitatea de a își șterge informațiile personaje din bazele de date ale data brokerilor a cerut acces la o versiune demo, timp de două săptămâni, motivând că el se va angaja în viitor la stat.

Apoi, acest individ a împărtășit datele obținute cu cinci entități media și persoane, printre care KrebsOnSecurity, ArsTechnica și 404Media. Fiecare au scris despre ce se poate face cu aceste date.

Brian Krebs s-a concentrat pe datele unei polițiste, care este ținta unei campanii de doxxing și a unor amenințări violente. Datele din versiunea de test de două săptămâni au oferit o imagine detaliată și intimă a polițistei pe parcursul mai multor luni.

404 Media a dezvăluit că aceste informații au permis unui reporter să facă zoom pe parcarea unei clinici de avorturi din Florida și să observe peste 700 de puncte roșii, fiecare reprezentând un telefon care a vizitat recent clinica. Location X i-a permis apoi reporterului să urmărească mișcările unui anumit dispozitiv.

Ceea ce face posibilă această supraveghere este tehnologia Advertising ID, care permite sistemului de operare Android sau iOS să seteze un ID unic al dispozitivului, pe care aplicațiile care au acces la locația telefonului îl pot accesa. ID-ul este folosit apoi pentru a oferi reclame. În articolul ArsTehnica, funcționarea acestui mecanism e explicată în detaliu.

Puteți șterge și dezactiva Ad ID-ul telefonului astfel:
- pentru Android, Settings > Security & Privacy > Ads, opțiunea “Delete advertising ID.”
- pentru iOS, Settings > Privacy & Security > Tracking > dezactivat opțiunea “Allow Apps to Request to Track”
- tot pentru iOS, utilizatorii pot dezactiva și opțiunea "Personalized Ads" din Settings > Privacy & Security > Apple Advertising.


Unealta principală pentru urmărirea cenzurii pe Internet a primit o serie de funcționalități și un redesign. S-a lansat OONI Run v2!

OONI Run este o platformă coordonarea testării site-urilor web pentru a verifica dacă sunt cenzurate sau nu. Ea permite utilizatorilor să creeze liste de website-uri și apoi să le folosească pentru a rula OONI Probe.

În ultimii 7 ani, OONI Run a fost utilizat pe scară largă de membrii comunității din Venezuela, Malaezia, India și din întreaga lume, ca parte a campaniilor lor de măsurare a cenzurii.

Postarea de blog OONI detaliază cum se folosește OONI Run și care sunt noile funcționalități adăugate.


Organizația NOYB a făcut o plângere către autoritatea pentru protecția datelor cu caracter personal din Franța (CNIL) legat de platforma Pinterest.

Majoritatea dintre noi știm de Pinterest ca o platformă de curatoriat imagini și o folosim pentru a găsi idei și inspirație.

Publicitarii, pe de altă parte, folosesc platforma pentru a-și promova produsele în fața consumatorilor. Deloc surprinzător, modelul de afaceri al Pinterest se bazează, de asemenea, pe publicitatea personalizată și pe urmărirea utilizatorilor asociată acesteia.

Problema: în ciuda unei hotărâri a CJUE care interzice această practică, platforma utilizează datele personale ale oamenilor fără a le cere consimțământul. Pinterest pretinde în mod fals că are un „interes legitim” și permite urmărirea în mod implicit. Majoritatea celorlalte site-uri web au renunțat la acest argument juridic eronat cu ani în urmă.


Google Messages - o aplicație de mesagerie instantanee de Android - avertizează, acum, utilizatorii, dacă detectează faptul că aceștia vor să trimită sau să primească imagini care conțin nuditate.

Această funcționalitate este, momentan, opțională, pentru adulți. Scanarea imaginilor, conform articolului publicat de Google pe blog-ul propriu, se întâmplă pe dispozitiv. Pentru utilizatorii minori, funcționalitatea este activă din start, iar aceștia o pot dezactiva la cerere. Articolul de pe blog mai menționează și că Google nu primește acces la fotografiile comunicate și nici la verdictul scanării.

Același articol prezintă și o funcționalitate care avertizează utilizatorii de potențiale încercări de a fi induși în eroare, prin mesare care susțin că există un colet în așteptare sau că utilizatorului i se oferă un loc de muncă. Astfel, când Google Messages detectează un mesaj care poate conține astfel de încercări de a păcăli utilizatorii, va muta mesajul în Spam.

Deși propunerea de Regulament Chat Control încă stagnează și este în continuare foarte clar că statele membre UE sunt împărțite în ceea ce privește opiniile legate de astfel de acțiuni de a scana comunicațiile tuturor, tot timpul, se pare că funcționalitățile o iau înainte legiferării.

Un risc este că o parte dintre utilizatori să aibe norocul ca acești algoritmi de detecție să nu facă o greșeală - ceea ce este, oricum, extrem de probabil când vine vorba de interpretarea limbajului natural sau de decizii legat de ce anume putem numi nuditate. Astfel, respectivii utilizatori devin desensibilizați la pericole, la consecințele unei detecții false. Însă realitatea lor este foarte diferită de cea a persoanelor care pot fi rănite sau re-traumatizate de astfel de practici - inclusiv acea parte foarte sensibilă din populație care a supraviețuit unor traume legate de pornografie neconsensuală.


Internet Archive a avut ghinionul de a fi atât ținta unui hack cât și a unui atac de tipul DDoS, recent. Cele mai multe dovezi indică faptul că cele două evenimente nu au legătură unul cu celălalt și au fost înfăptuită de entități diferite. Însă, întreaga situație a dovedit cât de fragilă este infrastructura la care ținem atât de mult, care ne permite acces atât la informație cât și la arhive istorice.

"The Wayback Machine", serviciul menținut de Internet Archive, a suferit un furt de date, atacatorul sustrăgând baza de date de utilizatori care conținea, la vremea respectivă, 31 milioane de entități. Pe 9 octombrie, vizitatorii archive.org au fost întâmpinați de mesajul: "Have you ever felt like the Internet Archive runs on sticks and is constantly on the verge of suffering a catastrophic security breach? It just happened. See 31 million of you on HIBP!" (livrat ca alertă de JavaScript).

HIPB face referire la Have I Been Pwned, un website care permite oricui să verifice dacă o adresă de e-mail a fost parte din datele sustrase prin hackuri sau alte modalități și publicate online. Troy Hunt, menținătorul HIBP, a confirmat fapul că a primit baza de date a Wayback Machine, care conținea adrese de e-mail, numele de utilizator, parolele hash-uite cu Bcrypt și alte informații interne.

În aceeași zi, Internet Archive a fost ținta unui atac de tip DDoS pe care și l-a atribuit grupul SN_BlackMeta. Acest atac nu pare să aibă legătură cu cel menționat mai sus.

Pe 20 octombrie, a fost făcut public faptul că încă un volum mare de date a fost sustras din infrastructura Internet Archive. De data aceasta, e vorba despre conținutul e-mail-urilor de la Zendesk, un serviciu folosit pentru a adresa cerințele utilizatorilor (spre exemplu, cererea unui utilizator de a îi fi șterse informațiile cu caracter personal din Wayback Machine). Aceste e-mail-uri s-au dovedit a fi autentice, dat fiind că verificarea DKIM, DMARC, și SPF trece cu succes.

Internet Archive a publicat o postare în care îți asumă efortul de a securiza mai bine serviciile pe care le operează.


Între 21 și 27 octombrie 2024 se sărbătorește Săptămâna accesului deschis, ocazie cu care Wikimedians of Romania and Moldova și Asociația pentru Tehnologie și Internet (ApTI) vă invită la un eveniment prin care să ajutăm să completăm împreună articolele despre accesul deschis pe Wikipedia (sau orice alte articole unde vă simțiți mai pregătit),  în limba română, într-un atelier de editat articole.

Reprezentanții Wikmedians of Romania and Moldova vor începe evenimentul cu o scurtă prezentare și vor fi alături de participanți pentru a-i ajuta cu regulile de editare pe Wikipedia și Wikidata.

Evenimentul va avea loc pe data de 24 octombrie, între orele 17-20, la sediul ApTI și ActiveWatch din București din @44.4408925,26.0753865,17z/data=!3m1!4b1!4m6!3m5!1s0x40b1ff5c53ca4409:0x2cbf9a77514d084a!8m2!3d44.4408925!4d26.0779614!16s%2Fg%2F12hlbh86_!5m1!1e1?entry=ttu&g_ep=EgoyMDI0MTAwOS4wIKXMDSoASAFQAw%3D%3D' rel='nofollow'>Str. Dimitrie Gusti nr. 20@44.4408925,26.0753865,17z/data=!3m1!4b1!4m6!3m5!1s0x40b1ff5c53ca4409:0x2cbf9a77514d084a!8m2!3d44.4408925!4d26.0779614!16s%2Fg%2F12hlbh86_!5m1!1e1?entry=ttu&g_ep=EgoyMDI0MTAwOS4wIKXMDSoASAFQAw%3D%3D' rel='nofollow'>. Participarea este gratuită, dar locurile sunt limitate, deci vă rugăm să vă înscrieți în prealabil prin acest formular. 

Nu este nevoie de vreo experiență în editare, dar vă rugăm să veniți cu propriul laptop, pentru a putea face mai ușor editarea și vă recomandam să vă creați gratuit un cont pe Wikipedia, dacă nu aveți deja unul.

Mai multe detalii despre Săptămâna accesului deschis la Wikipedia și articolele propuse spre editare găsiți aici:
https://ro.wikipedia.org/wiki/Wikipedia:S%C4%83pt%C4%83m%C3%A2na_accesului_deschis_2024


Rezumatele AI overview de la Google, care sunt generate atunci când utilizatorii caută ceva prin Google Search, nu sunt disponibile în Uniunea Europeană. Totuși, poate merită să menționăm că aceste rezumate care nu provin din textul regăsit în rezultate, ci sunt în totalitate generate cu AI, acum conțin și reclame (nu doar informație eronată, uneori).

Articolul Verge descrie o serie de alte funcționalități bazate pe conținut sau clasificări generate cu AI, dar care sunt disponibile doar în Statele Unite ale Americii.

Pe această cale putem să felicităm AI Act că măcar dă de furcă celor care caută cu orice preț să redefinească funcționalitățile motoarelor de căutare, pe care ne bazăm pentru a găsi conținut pe Internet.


Conținutul generat de inteligența artificială pe rețelele sociale dăunează femeilor, fetelor și persoanelor LGBTQ+. Aproape 30 de organizații civile, digitale și pentru drepturile omului solicită platformelor de social media să ia măsuri semnificative.

Poate cel mai puternic argument al organizațiilor semnatare ale unei scrisori deschise publicate la începutul lunii octombrie, adresată către Meta, YouTube, Twitter (X), TikTok, Snap și Reddit, este următorul:

Femeile, fetele și persoanele LGBTQ+ sunt cele mai susceptibile de a fi ținte ale unor materiale cu natură sexuală, manipulate sau generate prin AI, care este o formă de abuz sexual. Mai exact, cel puțin 90% dintre victimele materialelor explicite artificiale neconsensuale (Artificial NCEM) sunt femei. Și, potrivit unei analize din 2019, cel puțin 96% din toate AI deepfakes online sunt conținut sexual neconsensual. Femeile și persoanele queer de culoare se confruntă cu cea mai mare parte a acestei forme de abuz din cauza prejudecăților rasiale și de gen combinate.

Scrisoarea deschisă oferă platformelor și o serie de recomandări concrete, de măsuri pe care acestea le pot lua. Printre ele, cele mai important sunt:
- adăugarea termenului “artificial nonconsensual explicit materials (Artificial NCEM)" în politicile de utilizare ale platformei și interzicerea acestui tip de conținut în mod explicit, apoi numirea repercusiunilor pentru încălcări;
- impunerea etichetării conținutului manipulat sau generat cu AI ca atare;
- verificarea raportărilor materialului de tip artificial NCEM de către un operator uman, pentru a diferenția acest conținut raportat de orice alt conținut explicit, dar consensual;
- adăugarea unor referințe la contextul legal care guvernează deepfake-urile sexuale generate cu AI, pentru ca persoanele afectate să poată înțelege care sunt opțiunile pe care le au pentru a își apărea demnitatea. Adăugarea unor resurse de susținere și consiliere ale supraviețuitoarelor unor astfel de agresiuni.


Nobelul pentru fizică a fost oferit anul acesta lui John Hopfield și Geoffrey Hinton pentru munca pe care aceștia au făcut-o în domeniul machine learning. Amândoi au contribuit la dezvoltarea algoritmilor care, acum, sunt folosiți în AI-ul generativ. Amândoi sunt vocali critici ai direcției de dezvoltare a AI-ului generativ și sunt îngrijorați de ideea unei inteligențe artificiale generale, care ar putea deveni mai inteligentă decât oamenii.

La ApTI, însă, ținem morțiș să explicăm contextul tehnologic și impactul asupra drepturilor omului, așa că mai avem câte ceva de adăugat la această știre.

Geoffrey Hinton a lucrat pentru Google, alături de Timnit Gebru, una dintre coordonatoarele grupului de Etică în AI al companiei. Timnit alți șase colegi au analizat modul în care large language models (LLM) - care au fost instruite pe materiale care includ site-uri precum Wikipedia, Twitter și Reddit - ar putea reflecta și consolida prejudecățile sociale. Datele pe care LLM-urile erau antrenate conțineau stereotipuri legate de gen, rasă, sexualitate, clasă socială care se regăsau, amplificate și sedimentate, în conținutul generat de LLM-uri.

Pentru Gebru și colegii săi, era foarte clar că ceea ce scuipau aceste modele era dăunător.

„S-a demonstrat că datele de antrenare au caracteristici problematice, iar modelele rezultate codifică asocieri stereotipe și derogatorii de-a lungul genului, rasei, etniei și statutului de handicap”, se arată în lucrarea lui Gebru. „Punctele de vedere privind supremația albilor și misoginismul, vârsta etc. sunt suprareprezentate în datele de formare, depășind nu numai prevalența lor în populația generală, ci și configurarea modelelor formate pe aceste seturi de date pentru a amplifica în continuare prejudecățile și prejudiciile”.

Gebru a fost concediată de la Google pentru faptul că a apărat concluziile acestui articol. Geoffrey Hinton, el însuși îngrijorat de posibilele derapaje ale LLM-urilor, însă, s-a arătat neconvins, chair ostil, muncii de cercetare pe care au făcut-o colegele și colegii lui.

Într-un interview, Hinton declara că ideile lui Gebru „nu sunt la fel de grave din punct de vedere existențial ca ideea că aceste lucruri devin mai inteligente decât noi și preiau controlul”.

Vedem, deci, că Nobelul a ajuns în mâinile unor cercetători a căror muncă contribuie direct la tehnologia AI-ului generativ, însă a căror opinie despre respectarea drepturilor fundamentale ale omului este mai degrabă informată de science-fiction decât de o înțelegere profundă a impactului pe care aceste tehnologii le au.


Investigația recent publicată de Wall Street Journal dovedește că nu există o ușă de acces prin spate pe care să o folosească doar forțele de ordine, când vine vorba de software.

Investigația WSJ susține că hackerii chinezi au accesat rețelele furnizorilor americani de telefonie și internet și au obținut informații din sistemele pe care guvernul federal le utilizează pentru interceptări telefonice autorizate de instanță.

În alte cuvinte, acești hackeri au sustras informațiile pe care guvernul le obținuse "prin ușa din spate", prin aceste interceptări autorizate.

Verizon Communications AT&T și Lumen Technologies se numără printre companiile de telecomunicații ale căror rețele au fost hack-uite și folosite pentru aceste sustrageri de informații.

Wall Street Journal amintește faptul că e posibil ca hackerii să fi avut acces la informațiile acestea timp de luni întregi, timp în care prezența lor nu a fost detectată. În tot acest timp, informațiile obținute prin supravegherea traficului de internet și mobil au putut fi sustrase.

Acest incident trebuie să servească ca un exemplu tragic dar puternic că nu putem oferi acces autorizat doar forțelor de ordine, fără să expunem informațiile la care aceștia ajung să aibă acces. Propunerea de Regulament #ChatControl, în UE, susține că acest lucru e nu doar posibil ci și dezirabil și sigur. Din păcate, acum vedem că nu e - și mulți cetățeni americani suferă încălcări grave ale dreptului la viața lor privată din cauza asta.


Meredith Whittaker, președinta Signal Foundation, alături de Gaël Varoquaux și Alexandra Sasha Luccioni au publicat un articol de cercetare în care demontează mitul că modelele de AI mai mari adus, automat, beneficii sporite aplicațiilor în care sunt folosite.

De obicei, căutăm să rezumăm și să clarificăm cele mai importante puncte pe care le atinge un studiu. În acest caz, autoarele au făcut o treabă mai bună decât am putea noi, încă din abstract. Așa că îl vom traduce și reproduce integral aici:

"Având în vedere atenția și investițiile din ce în ce mai mari în abordări recente ale inteligenței artificiale, cum ar fi modelele lingvistice de mari dimensiuni, afirmația conform căreia cu cât sistemul de inteligență artificială este mai mare, cu atât este mai valoros, mai puternic și mai interesant este considerată din ce în ce mai de bun simț.

Dar pe ce se bazează această presupunere și cum măsurăm valoarea, puterea și performanța? Și care sunt consecințele colaterale ale acestei curse către o scară din ce în ce mai mare? Aici, analizăm tendințele actuale de scalare și compromisurile pe mai multe axe și respingem două ipoteze comune care stau la baza paradigmei AI „mai mare este mai bine”:

1) că performanța îmbunătățită este un produs al creșterii scalei și

2) că toate problemele interesante abordate de AI necesită modele la scară largă.

Mai degrabă, susținem că această abordare nu este doar fragilă din punct de vedere științific, ci vine și cu consecințe nedorite.

În primul rând, nu este sustenabilă, deoarece cerințele de calcul cresc mai repede decât performanța modelului, ceea ce conduce la cerințe economice nerezonabile și la o amprentă disproporționată asupra mediului.

În al doilea rând, implică concentrarea asupra anumitor probleme în detrimentul altora, lăsând deoparte aplicații importante, cum ar fi sănătatea, educația sau clima.

În cele din urmă, exacerbează o concentrare a puterii, care centralizează procesul decizional în mâinile câtorva actori, amenințând în același timp să îi lipsească de putere pe ceilalți în contextul modelării atât a cercetării în domeniul IA, cât și a aplicațiilor acesteia în întreaga societate."


Autoritatea pentru Digitalizare României trâmbițează: "Comisia Europeană recunoaște ROeID ca fiind sistemul de identificare electronică al statului român". Detaliul important pe care îl omite, în postarea de pe LinkedIn, este faptul că ROeID a primit de la Comisie doar nivelul de încredere "substanțial".

Deși mesajul postat de ADR susține că:

"Acordarea acestui nivel de încredere sistemului ROeID permite folosirea identității electronice naționale transfrontalier în cadrul sistemelor informatice ale statelor membre UE prin intermediul nodurilor eIDAS."

Însă, comunicatul oficial al Comisiei subliniează faptul că ROeID nu poate fi folosit încă pentru autentificare transfrontalieră. Auditul a găsit două nereguli tehnice în implementarea ROeID. România s-a angajat față de auditorii Comisiei să organizeze încă o rundă de testare cu un laborator terț și să prezinte rezultatele.

Dacă tot suntem aici, secțiunea de "Informații GDPR" a site-ului oficial ROeID duce către o pagină inexistentă de pe site-ul ADR.

Mai mult, pe Android Play Store, aplicația ROeID încă susține că nu colectează date personale. Asta, deși obligă utilizatorul să încarce o înregistrare video cu sine pentru a îi fi validată identitatea.


ApTI a semnat, alături de 63 de alte organizații pentru drepturi digitale, o scrisoare deschisă către Comisia Europeană, care descrie riscurile propunerilor de verificare a vârstei online.

Această scrisoare vine pe fondul unor propuneri, atât la nivelul UE cât și la nivelul unor state membre individuale, de validare și verificare a vârstei persoanelor care folosesc servicii digitale.

Dintre toate propunerile de implementare pe care le-am văzut până acum, tragem concluzia că sistemele de verificare a vârstei nu reușesc să protejeze eficient copiii, ci subminează viața privată și creează un sentiment fals de securitate. Astfel, în loc să rezolvăm o problemă pe cât de reală, pe atât de importantă, riscăm să compromitem siguranța și confidențialitatea tuturor cetățenilor, începând cu cea a copiilor.

Scrisoarea deschisă cere Comisiei să se concentreze cu prioritate pe măsurile de protejare a siguranței copiilor care au fost dovedite a fi eficiente. Măsurile trebuie să fie adecvate, proporționale și să respecte drepturile omului.

Pe site-ul ApTI intrăm în contra-argumentele principale, în neajunsurile implementărilor tehnologice propuse până acum și în sugestia noastră, a semnatarilor, pentru o abordare mai bună, care să servească siguranței copiilor.


Panorama explică cât e marketing și cât e realitate în Web3, într-un articol în care e citată Alex de la ApTI, cu o perspectivă de mythbusting asupra ce înseamnă, de fapt, tehnologia din spatele Web3.

Articolul explorează:
- mitul că Web3 folosește tehnologie "deschisă", care redă puterea utilizatorului
- mitul că tehnologia blockchain poate fi folosită eficient în construirea de site-ul și aplicații web
- mitul descentralizării și stabilității Web3
- mitul neutralității și a blockchain-ului apolitic.

Alex amintește episoade reale, în care marketing-ul din jurul tehnologiilor care stau la baza criptomonedelor, NFT-urilor și a Web3 a fost contrazis de fapte.


Mythical Beasts and Where to Find Them

Digital Forensic Research Lab (DFRLab) a publicat un raport foarte detaliat care pune laolaltă cele 435 de entități, în 42 de țări, care au legătură cu piața internațională de spyware.

Deși entități precum NSO Group și Intellexia sunt nume cu care ne-am obișnuit deja, vânzările depind de o rețea vastă de subsidiari, parteneri și alte feluri de entități mult mai puțin cunoscute. Proiectul Mythical Beasts abordează această lacună, expunând furnizori există într-o rețea de relații cu investitori, societăți holding, parteneri și persoane fizice, adesea domiciliate în jurisdicții diferite.

Există șase tendințe care se regăsesc în acest set de date:
1) concentrarea entităților în trei jurisdicții majore (Israel, Italia și India)
2) antreprenoriat în serie în cadrul mai multor furnizori
3) parteneriate între furnizorii de spyware și furnizori de hardware de monitorizare
4) schimbarea periodică a identității furnizorilor
5) salturi strategice de jurisdicție
6) fluxuri transfrontaliere de capital care alimentează această piață.

Aceste tendințe stau la baza unui set de recomandări de politici publice menite să producă o mai mare transparență pe piață, să limiteze arbitrajul jurisdicțional al furnizorilor care încearcă să se sustragă limitelor privind comportamentul lor și să analizeze mai eficient relațiile dintre furnizori și investitori.


Asociaţia Naţională a Bibliotecarilor şi Bibliotecilor Publice din România - pe scurt, ANBPR, organizează un internship part-time, plătit, în domeniul reglementărilor digitale.

Deadline-ul e pe 27 septembrie.

Internship-ul se concentrează pe cum sunt reglementate în România aspecte legate de Internet, puse-n contextul reglementărilor Uniunii Europene. Practic, internship-ul își propune să analizeze efectul punerii în aplicare a legilor de acest fel asupra cetățenilor și a altor categorii de actori.

Pe parcursul perioadei de internship, persoanele selectate vor participa la 4 evenimente organizate de ANBPR. Participarea poate fi de la distanță.

Dacă acronimele DSA, DMA, AI Act, EMFA sau AVMSD îți sunt familiare și ai inclusiv o părere despre cum se derulează punerea lor în aplicare - ăsta ar fi un internship ideal pentru tine. :)

Показано 20 последних публикаций.