(Adnkronos) – Il sistema giudiziario statunitense ha ufficialmente aperto, nel gennaio 2026, una delle fasi più critiche per il futuro della Sillicon Valley. Presso la Corte Distrettuale del Distretto Settentrionale della California, ha preso il via il dibattimento relativo alla cosiddetta Social Media Adolescent Addiction/Personal Injury Products Liability Litigation (MDL 3047). Il processo, presieduto dalla giudice Yvonne Gonzalez Rogers, vede i colossi Meta (Instagram e Facebook) e Alphabet (YouTube) rispondere dell'accusa di aver progettato intenzionalmente piattaforme capaci di indurre dipendenza e danni psicologici negli utenti più giovani. L'elemento di rottura di questo procedimento risiede nella strategia legale dei ricorrenti. A differenza dei tentativi passati, che si scontravano con la Sezione 230 del Communications Decency Act — che protegge le piattaforme dai contenuti pubblicati da terzi — l'accusa attuale si concentra sul design del prodotto. Si sostiene che le architetture tecnologiche, come lo scroll infinito, i sistemi di ricompensa dopaminergica e gli algoritmi di raccomandazione predittiva, costituiscano "difetti di progettazione". Secondo i legali della pubblica accusa, tali funzioni non sono legate alla libertà di espressione, ma rappresentano strumenti tecnici ingegnerizzati per massimizzare l'estrazione di dati e il tempo di permanenza, a scapito della sicurezza dell'utente. Durante le prime audizioni, la tensione tra le parti è emersa chiaramente. I portavoce dei giganti tech hanno ribadito la validità degli investimenti effettuati negli ultimi anni per la protezione dei minori.
Uno dei rappresentanti legali di Meta ha dichiarato in aula: "Abbiamo sviluppato oltre 30 strumenti e funzionalità per supportare gli adolescenti e le loro famiglie, e continuiamo a perfezionare i nostri sistemi di intelligenza artificiale per garantire un'esperienza sicura ed equilibrata". Di contro, i legali dei distretti scolastici e delle famiglie citano documenti interni che dimostrerebbero una consapevolezza pregressa dei rischi. Nelle memorie difensive si legge come l'accusa intenda provare che "le aziende hanno dato priorità alle metriche di crescita rispetto ai rischi noti per la salute mentale, implementando funzioni studiate per aggirare l'autocontrollo dei minori". L'esito di questo processo potrebbe imporre standard di sviluppo software radicalmente nuovi. Se la corte confermasse la tesi del "design difettoso", le aziende sarebbero costrette a:
Disabilitare i sistemi di riproduzione automatica e gli algoritmi di raccomandazione non sollecitata.
Implementare controlli di identità basati su criteri di privacy-by-design estremamente rigidi.
Rivedere l'intera architettura delle interfacce utente (UX) per eliminare i cosiddetti dark patterns. Le ripercussioni superano i confini americani, influenzando direttamente l'applicazione del Digital Services Act in Europa e definendo un precedente globale per la responsabilità algoritmica. Immagine di cover realizzata con il supporto di Gemini
—tecnologiawebinfo@adnkronos.com (Web Info)
Mer, 28/01/2026 - 12:39

