I nuovi algoritmi di Facebook sembrano funzionare

Sembrano funzionare i nuovi algoritmi di Facebook messi in campo nel 2019 per fermare l’odio online. Xlm-r è efficace. In base all’ultimo Rapporto sull’applicazione degli Standard della comunità, relativo al quarto trimestre del 2020, gli algoritmi bloccano in automatico il 97% dei contenuti di tale genere.

“E’ la prova che la tecnologia porta il progresso necessario al nostro mondo” sottolinea Mike Schroepfer, 45 anni, Chief technology officer (Cto) della multinazionale americana, l’architetto di tutte le tecnologie usate dal social network più importante al mondo. “Negli ultimi tre mesi del 2020, siamo riusciti ad ottenere i migliori risultati di sempre nel rilevare in modo proattivo l’incitamento all’odio, il bullismo e le molestie: il 97% dei contenuti di odio sono stati rimossi dai nostri sistemi prima che qualsiasi persona li segnalasse. Erano il 94% nel trimestre precedente e l’80,5% alla fine del 2019”.

Del problema della polarizzazione non si parla nel rapporto. L’accusa mossa a Facebook è che siano proprio i suoi algoritmi, quelli però usati per gestire la gerarchia delle bacheche degli utenti, a creare le cosiddette “camere d’eco” dove ci si confronta solo con chi la pensa come noi e dove vengono privilegiate le posizioni più estreme. Lo stesso Schroepfer aveva sostenuto che le polarizzazioni erano sempre esistite negli USA come altrove e che non era certo colpa di Facebook se la società ne è diventata vittima.

In alcune aree problematiche non è sempre facile distinguere le minacce che si nascondono dietro le parole come il bullismo e molestie. Per entrambi la percentuale è passata, su Facebook, dal 26% nel terzo trimestre 2020, al 49% nel quarto trimestre, e su Instagram dal 55% all’80%. Tutto grazie alla nuova intelligenza artificiale Xlm-r che è sempre più abile non solo in inglese.

Sono stati bloccati 6,3 milioni di contenuti di bullismo e molestie, 6,4 milioni di contenuti di odio organizzato, 26,9 milioni di contenuti che incitano all’odio, 2,5 milioni di contenuti riguardanti suicidio e autolesionismo. Su Instagram i numeri sono leggermente diversi: 5 milioni di contenuti di bullismo e molestie, 308 mila contenuti di odio organizzato, 6,6 milioni di contenuti che incitano all’odio; 3,4 milioni di contenuti riguardanti suicidio e autolesionismo.

“Crediamo che nessuna azienda dovrebbe valutare in modo autonomo il proprio lavoro”, si legge nel comunicato della compagnia di Mark Zuckerberg. “L’anno scorso ci siamo impegnati a fondare un comitato indipendente per valutare i nostri sistemi di moderazione dei contenuti. Un processo che prenderà piede pienamente quest’anno”.

Il riferimento al consiglio di sorveglianza di Facebook, l’Oversight Board, formato 20 persone e finanziato con 130 milioni di dollari. Ha il potere di approvare o annullare qualsiasi decisione presa dal social network in merito alla rimozione di contenuti o alla cacciata di una persona dalla piattaforma. Una sorta di corte d’appello che sta attualmente esaminando il caso di Donald Trump. Se dovesse decidere a suo favore, Trump riguadagnerebbe immediatamente l’accesso ai suoi profili e ai suoi seguaci. Per ora l’Oversight Board ha contraddetto ben quattro decisioni di Facebook sulle cinque che ha esaminato.