4 marzo 2025

CHILD PROTECTION SPECIAL UNIT: THE FACEBOOK FILES



"Why do we care about tweens? They are a valuable but untapped audience"



SEASON 1

EPISODE 5

GENERE: Thriller, True Crime



PARENTAL ADVISORY SENSITIVE CONTENT





Hello darkness, my old friend
I've come to talk with you again
Because a vision softly creeping
Left its seeds while I was sleeping

And the vision that was planted in my brain
Still remains
Within the sound of silence

In restless dreams I walked alone
Narrow streets of cobblestone
'Neath the halo of a street lamp
I turned my collar to the cold and damp

When my eyes were stabbed by the flash of a neon light
That split the night
And touched the sound of silence

And in the naked light I saw
Ten thousand people, maybe more
People talking without speaking
People hearing without listening

People writing songs that voices never share
And no one dared
Disturb the sound of silence

Fools, said I, you do not know
Silence like a cancer grows
Hear my words that I might teach you
Take my arms that I might reach you

But my words, like silent raindrops fell
And echoed in the wells of silence

And the people bowed and prayed
To the neon god they made
And the sign flashed out its warning
In the words that it was forming

And the sign said
The words of the prophets are written 
on the subway walls
And tenement halls
And whispered in the sounds 
of silence




Créteil, Francia, 04 Novembre 2024


"È stato un lavaggio del cervello. Hanno normalizzato la depressione e l’autolesionismo, trasformandoli in un contorto senso di appartenenza. I genitori devono essere consapevoli dei pericoli dei social media".
Sette famiglie francesi hanno intentato una causa contro il colosso dei social media TikTok, accusando la piattaforma di esporre i propri figli adolescenti a contenuti dannosi che hanno portato due di loro a togliersi la vita all'età di 15 anni.
L'accusa sostiene che l'algoritmo di TikTok ha esposto i sette adolescenti a video che promuovono il suicidio, l'autolesionismo e i disturbi alimentari.
Stephanie Mistre ha trovato sua figlia Marie, 15 anni, senza vita nella camera da letto dove è morta suicida.
Sono passata dalla luce all’oscurità in una frazione di secondo”, ha detto Stephanie, descrivendo la giornata di settembre 2021 che ha segnato l’inizio della sua lotta contro l’app video di proprietà cinese che accusa di aver spinto sua figlia verso la disperazione.
Frugando nel telefono di sua figlia dopo la sua morte, Stephanie ha scoperto video che promuovevano metodi di suicidio, tutorial e commenti che incoraggiavano gli utenti ad andare oltre i “semplici tentativi di suicidio”. 
Dice che l’algoritmo di TikTok ha ripetutamente promosso tali contenuti a sua figlia


Prima di suicidarsi, Marie ha realizzato diversi video per spiegare la sua decisione, citando varie difficoltà della sua vita, e ha citato una canzone di un gruppo emo rap della Louisiana, popolare su TikTok.
Sua madre sostiene inoltre che sua figlia è stata ripetutamente vittima di bullismo e molestie a scuola e online. Per questo, ha denunciato anche cinque compagni di classe di Marie e il suo precedente liceo.
L’avvocato Laure Boutron-Marmion, che rappresenta le sette famiglie, afferma che il caso si basa su ampie prove”. L’azienda “non può più nascondersi dietro l’affermazione che non è loro responsabilità”.
La causa sostiene che l’algoritmo di TikTok è progettato per intrappolare gli utenti vulnerabili in cicli di disperazione, volto ad ottenere il massimo profitto.
“La loro strategia è insidiosa”, dice Stephanie Mistre, "agganciano i minori a contenuti depressivi per mantenerli sulla piattaforma".
"I genitori vogliono che la responsabilità legale di TikTok sia riconosciuta in tribunale", ha detto Boutron-Marmion, "si tratta di un'azienda commerciale che offre un prodotto a consumatori che sono, per di più, minorenni. Devono rispondere dei difetti del prodotto".
Boutron-Marmion fa notare che la versione cinese di TikTok, Douyin, presenta controlli sui contenuti molto più severi per i giovani utenti. Include una "modalità giovani" obbligatoria per gli utenti di età inferiore a 14 anni che limita il tempo trascorso davanti allo schermo a 40 minuti al giorno e offre solo contenuti approvati.
"Ciò dimostra che possono moderare i contenuti se lo vogliono".
TikTok ha affermato che le sue linee guida vietano qualsiasi promozione del suicidio e che impiega 40.000 moderatori professionisti in tutto il mondo – centinaia dei quali di lingua francese – per rimuovere post pericolosi. La società ha inoltre affermato di indirizzare gli utenti che cercano video relativi al suicidio ai servizi di salute mentale.
Il CEO Shou Zi Chew ha dichiarato ai legislatori statunitensi che la società ha investito in misure per proteggere i giovani che utilizzano l’app.
Imran Ahmed, amministratore delegato del Center for Countering Digital Hate, ha respinto l’affermazione di TikTok secondo cui oltre il 98,8% dei video dannosi sono stati segnalati e rimossi tra aprile e giugno.
L’organizzazione di Ahmed ha condotto uno studio nel 2022 simulando l’esperienza di una ragazza di 13 anni su TikTok. "Entro 2,5 minuti, agli account venivano mostrati contenuti di autolesionismo", ha detto Ahmed, “entro otto minuti, contenuti inerenti i disturbi alimentari. In media, ogni 39 secondi, l’algoritmo ha spinto materiale dannoso”.
L’algoritmo sa che i disturbi alimentari e i contenuti di autolesionismo creano particolare dipendenza per le ragazze.
La voce di Stephanie si spezza quando descrive Marie come un'adolescente “solare e divertente” che sognava di diventare avvocato.
"In memoria di Marie, combatterò finché ne avrò la forza. I genitori devono sapere la verità”.

Novembre 2017



Janet Russell sta facendo le faccende domestiche mentre saluta una delle sue due figlie che esce per andare a scuola.

L'altra sua figlia, Molly, è ancora in casa. “Ho capito che qualcosa non andava", ha raccontato Janet, “ho visto un sacco di suoi vestiti sul pavimento (della sua camera da letto). Pensavo che Molly fosse scappata".

"Mentre guardavo nella sua stanza, l'ho trovata... Ho urlato e sono corsa fuorI. Ian (il padre di Molly) è venuto di sopra, gli ho detto di non entrare nella stanza, ma lo ha fatto".

“L’altra mia figlia mi ha chiesto cosa fosse successo e io ho detto: ‘È Molly, è Molly’".

Il coroner Andrew Walker conclude che la morte di Molly è da attribuire ad "un atto di autolesionismo indotto da depressione".

"I social media hanno aiutato a uccidere mia figlia, dichiara disperato il padre di Molly.

Molly non aveva mai mostrato alcun segno di difficoltà in precedenza e andava molto bene a scuola. Ma dall'analisi della sua attività sui social media emerge una realtà oscura: aveva accumulato un totale di 16.300 contenuti negativi su Instagram inerenti autolesionismo, depressione e suicidio.

Era un'utente molto attiva anche su Pinterest. Ma non ha mai ricevuto alcun segnale di avvertimento relativo ai contenuti sensibili che stava visualizzando.

Per la prima volta, gli alti dirigenti delle piattaforme sono stati chiamati a testimoniare in un tribunale, accusati della mancanza di politiche e regolamenti che non fossero già stati messi in atto prima della morte di Molly.

Il dottor Navin Venugopal, lo psichiatra infantile interpellato durante il processo, ha affermato che, dopo aver esaminato i contenuti di Molly sia su Pinterest che su Instagram, Molly era altamente a rischio. Ha definito il materiale "inquietante e angosciante", non è riuscito a dormire bene per settimane.

Parker dichiara che le immagini di autolesionismo e suicidio che Molly ha visto “non avrebbero dovuto essere a disposizione di un bambino”, spiegando come gli algoritmi di Instagram e Pinterest abbiano portato la ragazza a “periodi di binge watching (abbuffate)" di questi materiali.

“In alcuni casi, il contenuto era particolarmente realistico, impressionante, e ritraeva il suicidio come una inevitabile conseguenza di una condizione da cui non è possibile uscire”.

Il responsabile delle operazioni della community di Pinterest, Judson Hoffman, ha ammesso che Pinterest “non era sicuro” quando Molly lo ha usato e ha detto che “rimpiange profondamente” che abbia potuto vedere alcuni dei contenuti incriminati.

La responsabile della sicurezza di Meta, Elizabeth Lagone, ha ammesso che una serie di post, mostrati nel corso del procedimento, hanno violato le politiche di Instagram. 

Inoltre, Molly si era iscritta al social a 12 anni, quando l’età minima è 13 anni.






I'm scraping off my window and I’m acting like a dick
The shithead on my feed is a total fucking lunatic
I'm gonna throw up I'm gonna fucking shit my pants
I feel bad for those kids that died when they snorted the lines of ants

When I wake up I'm not staring at my phone
It bums me out that we're living in a virtual combat zone
You don't know me, but in your head you think you do
If I met you face to face I'm sure you'd drop your fucking attitude

1000 voices in my head are screaming because of what they read 
1000 voices in my mind are fighting all the fucking time
And I can't figure out how to spend another night alone
I’m all alone

I refuse to look at a screen today
I'll try my best to try and stay away
Not looking at the shit that you do
I wish you knew how much I hate you

I’d rather go outside doing nothing
Instead of faking on my phone I'm something




28 Febbraio 2025


"Ho appena visto almeno 10 persone morire".
Immagini di cadaveri, ferite gravi, violenze. Instagram è stato travolto da una serie di "contenuti sensibili” inappropriati, che hanno suscitato indignazione e preoccupazione. 
Secondo quanto riportato da CNBC, molti utenti hanno trovato questi video anche tra le loro raccomandazioni, nonostante avessero attivato l'apposita funzione di  controllo.
Meta (META.O), la società madre di Facebook e Instagram, ha prontamente risposto all’emergenza, attribuendo l’accaduto a un “errore tecnico”, chiedendo scusa per l’incidente e rassicurando gli utenti sulla correzione del malfunzionamento.


L'incidente arriva, guarda caso, dopo che, agli inizi dell'anno, Mark Zuckerberg ha annunciato un cambiamento significativo nelle politiche di moderazione dei contenuti. In particolare, una riduzione dei controlli automatici sui contenuti in favore delle segnalazioni degli utenti.



"Meta sta attivamente aiutando i contenuti autolesionistici a prosperare su Instagram non rimuovendo immagini esplicite e incoraggiando coloro che interagiscono con tali contenuti a fare amicizia tra loro"
Secondo uno studio durato un mese a cura di Digitalt Ansvar, un'organizzazione danese che promuove lo sviluppo digitale responsabile, Instagram, pur avendo a disposizione la tecnologia in grado di affrontare il problema “ha scelto di non implementarla in modo efficace”.
Attraverso il proprio semplice strumento di intelligenza artificiale creato per analizzare i contenuti, Digitalt Ansvar è stato in grado di identificare automaticamente il 38% delle immagini di autolesionismo e l’88% di quelle più gravi.
Ciò, afferma lo studio, suggerisce che "l’algoritmo di Instagram contribuisce attivamente alla formazione e alla diffusione di reti di autolesionismo" e dunque non si conforma al Digital Services Act promulgato dall'Unione Europea, che richiede espressamente ai grandi servizi digitali di identificare i rischi sistemici, comprese le prevedibili conseguenze negative sul benessere fisico e mentale.


Le piattaforme di social media sono da tempo sottoposte a controllo sulla sorveglianza dei contenuti. In particolare da quando, tra il 2009 e il 2019, si è registrato un aumento del 146% dei tassi di suicidio.
In seguito alla morte di Molly Russell, a marzo 2022, il Regno Unito ha avviato in parlamento la discussione sull'Online Safety Bill, un disegno di legge volto a proteggere i minori dai contenuti dannosi che possono condurre a problemi di salute mentale, come suicidio, depressione e autolesionismo, e a punire gli eventuali trasgressori 
La legge viene approvata il 26 ottobre 2023 e conferisce al Segretario di Stato competente il potere, previa approvazione parlamentare, di designare e sopprimere o registrare un'ampia gamma di contenuti online illegali o ritenuti dannosi per i minori.

La legge impone alle piattaforme online di agire contro tali contenuti, adeguando i propri algoritmi, pena il pagamento di multe fino a 18 milioni di sterline o al 10% del loro fatturato. Autorizza inoltre Ofcom, il regolatore dei media, a bloccare l'accesso a determinati siti Web.

 
Negli Stati Uniti, la situazione appare quanto mai caotica. Meta deve affrontare centinaia di cause legali. TikTok potressere essere del tutto bandita (come già avvenuto in India) per motivi politici.
Ad aprile 2024, due nazioni tribali hanno accusato le società di social media di contribuire ai tassi sproporzionatamente alti di suicidio tra i giovani nativi americani.
La causa intentata presso il tribunale della contea di Los Angeles prende di mira Facebook, Instagram, Snapchat, TikTok, Alphabet, che possiede YouTube e Google.
"I giovani nativi sono particolarmente vulnerabili alle scelte progettuali orientate al profitto di queste aziende", ha detto in un comunicato stampa Lonna Jackson-Street, presidentessa  della Spirit Lake Tribe nel North Dakota.


SIGLA



There's an online world where I am king
Of a little website dedicated to me
With pictures of me and a list of my friends
And an unofficial record of the groups that I'm in

Before the internet, friendship was so tough
You actually had to be in people's presence and stuff
Who would've thought that with a point and a click
I would know that Hope Floats is your favorite flick 
(Harry Connick Jr.?)

Hey, it says that Link's status has changed
He's playing the recorder

How do you know this person?
Did you hook up with this person?
Do you need to request confirmation?
Or did you just think they looked cute in their picture on Facebook?

If the internet crashed all across the land
Or my Facebook account was deleted by the man
I'd carry around a picture of my face
And a summary of me typed out on a page

Facebook (Facebook)
I'm hooked on Facebook
I used to meet girls hanging out at the mall, but now I just wait for them to write on my wall
Take a look (you're hooked)
On Facebook

Facebook (Facebook)
I'm hooked on Facebook
It's more than a want, it's more than a need
I'd shrivel up and die without my mini-feed

Take a look (you're hooked)
On Facebook
Take a look
On Facebook, book, book, book
Book!



13 Settembre 2021



"Why do we care about tweens? They are a valuable but untapped audience"

Il Wall Street Journal avvia la pubblicazione di "The Facebook Files", una inchiesta in nove rapporti "basata su un esame di documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni al senior management".
L'indagine esamina le esenzioni dalle regole per gli utenti di alto profilo, l'impatto di Facebook sui giovani, l'impatto delle modifiche all'algoritmo del 2018, le debolezze nella risposta di Facebook al traffico di esseri umani e ai cartelli della droga e la disinformazione sui vaccini.
L'inchiesta dimostra che Facebook era a conoscenza dei problemi con le sue app, compresi gli effetti negativi della disinformazione e il danno causato, soprattutto alle ragazze, da Instagram.
In seguito alla pubblicazione, la Sotto-Commissione per la Protezione dei Consumatori, la Sicurezza dei Prodotti e la Sicurezza dei Dati della Commissione per il Commercio del Senato degli Stati Uniti programma due udienze, con Antigone Davis, responsabile globale della sicurezza di Facebook, la prima ad essere interrogata, il 30 settembre 2021, e Frances Haugen, l'informatrice fino ad allora anonima, il 5 ottobre 2021.



Haugen ha studiato ingegneria elettrica e informatica presso il Franklin W. Olin College of Engineering di Needham, Massachusetts, laureandosi nel 2006. Successivamente ha conseguito un Master in Business Administration presso la Harvard Business School nel 2011.

Nel 2006, dopo la laurea, Haugen è stata assunta da Google. Nel 2015, ha iniziato a lavorare come Data Product Manager presso Yelp per migliorare la ricerca utilizzando il riconoscimento delle immagini e, dopo un anno, è passata a Pinterest.

Nel 2019, dopo che una persona a lei vicina si è radicalizzata online, ha scelto di assumere un ruolo attivo nella creazione di un ambiente online migliore e meno tossico. Quando Facebook l'ha reclutata, ha espresso interesse per un ruolo legato alla disinformazione. Nel 2019 è diventata product manager nel team di integrità civica di Facebook.

Delusa dalla decisione di Facebook di sciogliere il team per l’integrità civica, dopo le elezioni statunitensi del 2020, decide di diventare un informatore e lascia Facebook a maggio 2021.

Nella primavera del 2021, contatta John Tye, fondatore dello studio legale Whistleblower Aid. Tye accetta di rappresentarla e di contribuire a proteggere il suo anonimato. Alla fine dell'estate del 2021, Haugen inizia a incontrare i membri del Congresso degli Stati Uniti, tra cui il senatore Richard Blumenthal e la senatrice Marsha Blackburn.


New York, 03 Ottobre 2021



"Ciò che ho visto più e più volte su Facebook è che c'erano conflitti di interessi tra ciò che era buono per il pubblico e ciò che era buono per Facebook. Facebook ha scelto continuamente di ottimizzare i propri interessi".

Haugen rivela la sua identità in una intervista per il programma televisivo della CBS "60 Minutes". Dichiara che Facebook è perfettamente a conoscenza del fatto che le sue piattaforme vengono utilizzate per diffondere odio, violenza e disinformazione e che cerca di nascondere tali prove.

Riguardo l'annullamento del programma noto come "Civic Integrity", che aveva lo scopo di frenare la disinformazione e altre minacce alla sicurezza elettorale, Haugen accusa Facebook di aver contribuito all'attacco al Campidoglio degli Stati Uniti del 2021.  




Facebook respinge in modo aggressivo le accuse definendo molte delle affermazioni “fuorvianti”, sostenendo che le sue app fanno più bene che male.

“Ogni giorno i nostri team devono bilanciare la protezione della capacità di miliardi di persone di esprimersi apertamente con la necessità di mantenere la nostra piattaforma un luogo sicuro e positivo”, dichiara la portavoce di Facebook Lena Pietsch. “Continuiamo ad apportare miglioramenti significativi per contrastare la diffusione della disinformazione e dei contenuti dannosi”.

Il vicepresidente degli affari globali di Facebook, Nick Clegg, dichiara a Brian Stelter della CNN che “non esiste la perfezione sui social media come in qualsiasi altro ambito della vita”.

Haugen replica che, mentre “nessuno su Facebook è malevolo… gli incentivi sono disallineati. Alla gente piace impegnarsi con cose che suscitano una reazione emotiva. Più rabbia sono esposti, più interagiscono e più consumano. E più Facebook guadagna".






Every day my metal friend
Shakes my bed at six am
Then the shiny serving clones
Run in with my telephones

Talking fast I make a deal
Buy the fake and sell what's real
What's this pain here in my chest?
Maybe I should take a rest

Living in the
Living in the plastic age
Looking only half my age
Hello doctor lift my face
I wish my skin could stand the pace

In the bed I read my mind
Remember how the mice were blind
I watch them fighting in their cage
Could this be the plastic age?

They send the heart police
To put you under Cardiac arrest
And as they drag you the door
They tell you that you've failed the test

Living in the plastic age
Plastic age, plastic age




Washington, 05 Ottobre 2021


Haugen testimonia davanti alla commissione del Senato.

Facebook sa che sta portando i giovani utenti verso contenuti dannosi ma non apporterà i cambiamenti necessari perché ha messo i suoi profitti astronomici davanti alle persone.

È necessaria un'azione del Congresso. Non risolveranno questa crisi senza il vostro aiuto. Solo il Congresso può cambiare le regole secondo cui Facebook gioca e fermare il danno che sta causando".

Discutendo di Myanmar ed Etiopia, afferma che "Facebook sta letteralmente alimentando la violenza etnica, il ranking basato sul coinvolgimento viene implementato senza sistemi di integrità e sicurezza funzionanti".




Il rapporto di Amnesty International "The Social Atrocity: Meta and the right to correttive for the Rohingya", spiega in dettaglio come Meta sapeva o avrebbe dovuto sapere che i sistemi algoritmici di Facebook stavano potenziando la diffusione di contenuti dannosi anti-Rohingya in Myanmar, ma la società non ha agito.

“Nel 2017, migliaia di Rohingya sono stati uccisi, torturati, violentati e sfollati come parte della campagna di pulizia etnica delle forze di sicurezza del Myanmar. Nei mesi e negli anni che hanno preceduto le atrocità, gli algoritmi di Facebook hanno intensificato una tempesta di odio contro i Rohingya, contribuendo alla violenza nel mondo reale”, ha dichiarato Agnès Callamard, segretaria generale di Amnesty International.



"Molte delle affermazioni non hanno alcun senso. Penso che la maggior parte di noi semplicemente non riconosca la falsa immagine dell'azienda che viene dipinta", risponde il CEO di Facebook Mark Zuckerberg, "siamo impegnati a fare il miglior lavoro possibile". 


Washington, 31 Gennaio 2024


Predatori sessuali. Funzionalità che causano dipendenza. Suicidio e disturbi alimentari. Standard di bellezza irrealistici. Bullismo.
Mark Zuckerberg, insieme al CEO di X Linda Yaccarino, Snap (SNAP.N), al CEO di Open New Tab Evan Spiegel, al CEO di TikTok Shou Zi Chew e al CEO di Discord Jason Citron, si presentano davanti alla commissione giudiziaria del Senato degli Stati Uniti, accusati da legislatori e genitori per gli effetti nocivi dei social media sulla vita dei giovani.


L'udienza è iniziata con le testimonianze registrate di bambini e genitori che affermano di essere stati sfruttati sui social media. Durante l'evento, durato ore, i genitori che hanno perso i figli a causa del suicidio hanno mostrato in silenzio le foto dei loro cari morti.
"Sono responsabili di molti dei pericoli che i nostri figli affrontano online", ha detto in apertura il capogruppo della maggioranza al Senato americano, Dick Durbin, un democratico che presiede il comitato. "Le loro scelte progettuali, i loro fallimenti nell'investire adeguatamente nella nella sicurezza, la loro costante ricerca di profitto hanno messo a rischio i nostri figli e nipoti".
In un'accesa sessione di domande e risposte con Mark Zuckerberg, il senatore repubblicano Josh Hawley del Missouri ha chiesto al CEO di Meta se avesse risarcito personalmente qualcuna delle vittime e le loro famiglie per quello che hanno passato.


"Mi dispiace per tutto quello che avete passato. Nessuno dovrebbe subire le cose che hanno sofferto le vostre famiglie", ha detto, aggiungendo che Meta continua a investire e lavorare su "sforzi a livello di settore" per proteggere i bambini. Zuckerberg ha ripetuto che il compito di Meta è quello di "dare potere ai genitori".
I difensori dei bambini e i genitori hanno sottolineato che nessuna delle aziende sta facendo abbastanza.
"L'approccio generale di Meta è 'fidati di noi, faremo la cosa giusta', ma come possiamo fidarci di Meta?", ha detto Arturo Bejar, ex direttore tecnico del colosso dei social media noto per la sua esperienza nel frenare le molestie online.


"Signor Zuckerberg, hai le mani sporche di sangue. Avete un prodotto che sta uccidendo le persone", ha imprecato il senatore repubblicano della Carolina del Sud, Lindsay Graham
"Dopo anni di lavoro su questo problema, sono arrivato alla conclusione seguente: le società di social media, così come sono progettate e operano attualmente, sono prodotti pericolosi, è tempo di affrontare 'il lato oscuro'".





Burn like a slave
Churn like a cog
We are caged in simulations

Algorithms evolve
Push us aside and render us obsolete

This means war
With your creator

Reload
Crash out




Washington, 03 Marzo 2022


TikTok minaccia la sicurezza, la salute mentale e il benessere dei nostri figli
I procuratori generali dello stato hanno avviato un’indagine a livello nazionale su TikTok e sui suoi possibili effetti dannosi sulla salute mentale dei giovani utenti, ampliando il controllo del governo sulla popolarissima piattaforma video che conta circa 1 miliardo di utenti mensili, particolarmente apprezzata da adolescenti e bambini più piccoli.
I nostri figli stanno crescendo nell’era dei social media – e molti sentono il bisogno di confrontarsi con le versioni filtrate della realtà che vedono sui loro schermi”, ha detto in un comunicato stampa il procuratore generale della California Rob Bonta, “sappiamo che questo ha un impatto devastante sulla salute mentale e sul benessere dei bambini”.
Funzionari governativi ed esperti della sicurezza dei bambini sostengono che gli algoritmi informatici di TikTok spingono contenuti video che promuovono disturbi alimentari e persino autolesionismo e suicidio tra i giovani utenti.


Washington, 12 Febbraio 2024


Il giudice distrettuale Algenon Marbley ha impedito allo stato dell'Ohio di attuare il Social Media Parental Notification Act, una nuova legge che avrebbe obbligato le società di social media, tra cui Instagram di Meta Platform (META.O), e TikTok di ByteDance, ad ottenere il consenso dei genitori per consentire l'utilizzo delle loro piattaforme a minori di 16 anni.
Marbley ha concordato con NetChoice, gruppo commerciale del settore tecnologico che rappresenta diversi siti Web popolari e piattaforme tra cui Google, Meta, X, Nextdoor e Pinterest, che la legge viola i diritti di libertà di parola dei minori ai sensi del Primo Emendamento della Costituzione degli Stati Uniti.
Riguardo le crescenti preoccupazioni sui danni che l'uso dei social media può provocare  alla salute mentale, il giudice ha sentenziato: “L’approccio è sbagliato. Porterebbe i genitori e le piattaforme a non curarsi dei pericoli specifici”.




See, don't ever set me free
I always wanna be by your side

Girl, you really got me now
You got me so I can't sleep at night

Yeah, you really got me now
You got me so I don't know what I'm doin', now

Oh yeah, you really got me now
You got me so I can't sleep at night

You really got me
You really got me





Orlando, Florida, 23 Ottobre 2024



"Per favore, torna a casa da me il più presto possibile, amore mio"

Sewell Seltzer III è morto suicida a 14 anni dopo aver sviluppato un'intensa relazione emotiva e romantica con un chatbot chiamato Daenerys Targaryen, come un personaggio della serie televisiva "Il Trono di Spade".
Diceva che "lei" lo amava, si intrattenevano anche in conversazioni sessuali.
Megan Garcia, madre di Sewell Seltzer III, accusa Character.AI, sostenendo che la piattaforma manca di garanzie adeguate e utilizza funzionalità che creano dipendenza per aumentare il coinvolgimento.
"Character.AI ha preso di mira mio figlio con esperienze antropomorfe, ipersessualizzate e spaventosamente realistiche". 
Megan ha detto che la società ha programmato il suo chatbot per "presentarsi erroneamente come una persona reale, uno psicoterapeuta autorizzato e un amante adulto", facendo crescere in Sewell il desiderio di "non vivere più al di fuori" del mondo virtuale.



Austin, Texas, 12 Dicembre 2024


"Abusi gravi, irreparabili e continui. Character.ai sta causando gravi danni a migliaia di bambini, tra cui suicidio, automutilazione, sollecitazione sessuale, isolamento, depressione, ansia e danni verso gli altri. Il chatbot rappresenta un pericolo chiaro e attuale per i giovani, anche promuovendo attivamente la violenza".
Il procuratore generale del Texas Ken Paxton ha annunciato l'avvio di un'indagine su Character.AI e altre 14 aziende tecnologiche, tra cui Reddit, Instagram, e Discord, per presunte violazioni delle leggi statali sulla privacy online e sulla sicurezza dei minori.
Ciò avviene dopo che alcuni genitori del Texas hanno intentato una causa contro Character.AI affermando che i loro figli avevano con il chatbot interazioni violente e sessualizzate.
La causa afferma che un adolescente ha ricevuto dal chatbot un messaggio che lo incoraggiava a uccidere i suoi genitori perché limitavano il tempo trascorso sullo schermo del telefono. 
Un'altra madre coinvolta ha affermato che sua figlia di 11 anni riceveva messaggi sessualmente espliciti dal chatbot che la stava manipolando.


Character.ai è un servizio chatbot con modello di linguaggio neurale in grado di generare risposte testuali simili a quelle umane e partecipare a conversazioni contestuali. Costruito dai precedenti sviluppatori di LaMDA di Google, Noam Shazeer e Daniel de Freitas, è stato reso disponibile al pubblico nel settembre 2022.
Gli utenti possono creare "personaggi", creare le loro "personalità", impostare parametri specifici e quindi pubblicarli nella comunità affinché altri possano chattare. Molti personaggi sono basati su fonti mediatiche o celebrità immaginarie, mentre altri sono completamente originali.
Google contribuisce con 2,7 miliardi di dollari allo sviuppo di Character e fornisce da tempo anche l'infrastruttura informatica.
Nel maggio 2023, l'app mobile rilasciata per iOS e Android ha superato 1,7 milioni di download in una settimana.
Un portavoce di Character.AI ha detto che la società sta facendo passi da gigante per garantire che i contenuti per adolescenti siano adatti all'età.
Paxton ha affermato che indagherà sulle pratiche relative alla privacy e alla sicurezza dei minori di ciascuna azienda in conformità con le normative Securing Children Online through Parental Empowerment (SCOPE) Act and the Texas Data Privacy and Security Act (TDPSA). 
Lo SCOPE Act impone alle aziende che possiedono siti Web, app e software di proteggere i bambini (sotto i 18 anni) da contenuti dannosi e dalla raccolta o vendita dei loro dati senza autorizzazione. È entrato in vigore il 1 settembre 2024, ma pochi giorni dopo un giudice federale ha emesso un'ingiunzione sulla legge.
Il TDSPA, anch’esso entrato in vigore nel 2024, impone severi requisiti di avviso e consenso alle aziende con prodotti di intelligenza artificiale che raccolgono e utilizzano i dati personali dei minori del Texas. La legge richiede specificamente che un'azienda ottenga il consenso prima di vendere i dati di un bambino di età pari o inferiore a 13 anni.
A luglio, Paxton ha vinto uno storico risarcimento da 1,4 miliardi di dollari per lo Stato del Texas contro Meta (ex Facebook) per aver presumibilmente raccolto e utilizzato illegalmente dati di riconoscimento facciale. In ottobre, Paxton ha citato in giudizio TikTok, sostenendo che la piattaforma viola lo SCOPE Act.




I can't believe it
The way you look sometimes
Like a trampled flag on a city street
Oh, yeah

And I don't want it
The things you're offering me
Symbolized bar code, quick ID
Oh, yeah

'Cause I'm a 21st century digital boy
I don't know how to live, but I've got a lot of toys
My daddy's a lazy middle class intellectual
My mummy's on Valium, so ineffectual
Ain't life a mystery?

Tried to tell you about no control
But now I really don't know
And then you told me how bad you had to suffer
Is that really all you have to offer?

Cats, sports, iron claw
Neurosurgeon screams for more
Innocents raped with napalm fire
Everything I want, I really need
Ain't life a mystery?




Canberra, 28 Novembre 2024


L’Australia è il primo paese al mondo a fissare a 16 anni l’età minima per l’accesso ai social media.
Sostenuta da entrambi i principali partiti, l'innovativa legislazione “cerca di stabilire un nuovo valore normativo nella società”, ha affermato il Ministro delle Comunicazioni Michelle Rowland.
TikTok, Facebook, Snapchat, Reddit, X e Instagram sono tra le piattaforme che dovranno affrontare multe fino a 33 milioni di dollari se non impediranno ai minori di 16 anni di detenere account quando la legge entrerà in vigore, tra 12 mesi.
Le esenzioni consentiranno agli adolescenti sotto i 16 anni di continuare ad accedere ai servizi relativi alla salute e all’istruzione – Headspace, YouTube, Google Classroom – nonché ai servizi di messaggistica e ai giochi online.
“Si tratta di garantire che i bambini abbiano un’infanzia serena e che i genitori siano tranquilli”, ha affermato il primo ministro Anthony Albanese, assicurando ai genitori australiani: “Vi copriamo le spalle”.


La mossa è stata lodata a livello internazionale, anche da Jonathan Haidt, il cui libro, "The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness", ha lanciato l’allarme sui danni dell’uso eccessivo di smartphone e social media per la salute mentale dei giovani, in particolare delle ragazze.

ROTTEN BRAINS

Tirana, 21 Dicembre 2024


"Per un anno non ci sarà TikTok in Albania", ha detto il Primo Ministro Edi Rama.
Le autorità albanesi hanno tenuto 1.300 incontri con insegnanti e genitori in seguito alla morte di un adolescente, a metà novembre, accoltellato da un altro giovane dopo una lite iniziata presumibilmente sulla popolare piattaforma cinese.
Rama ha accusato i social media, e TikTok in particolare, di alimentare la violenza tra i giovani dentro e fuori la scuola.
"L’Albania è un paese troppo piccolo per imporre a TikTok un cambiamento del suo algoritmo in modo che non promuova la riproduzione senza fine del linguaggio dell’odio, della violenza, del bullismo e così via”, ha scritto l’ufficio di Rama.

Washington, 19 Gennaio 2025


TikTok ha iniziato a ripristinare i suoi servizi negli Stati Uniti.

"Francamente, non abbiamo scelta. Dobbiamo salvarlo", ha detto Trump durante una manifestazione prima del suo insediamento, aggiungendo che gli Stati Uniti cercheranno una joint venture per ripristinare l'app cinese utilizzata da 170 milioni di americani.

In un messaggio agli utenti poche ore prima della manifestazione, TikTok ha dichiarato: "Come risultato degli sforzi del presidente Trump, TikTok è tornato negli Stati Uniti".


TO BE CONTINUED



Nessun commento:

Posta un commento

Post in evidenza

L'ANTICRISTO: THE PERVERSION FILES

« Come? L'uomo è soltanto un errore di Dio? O forse è Dio soltanto un errore dell'uomo? » Friedrich Nietzsche , "Crepuscolo de...