Nei primi mesi del 2018, pare che Facebook abbia rimosso 583 milioni di profili falsi nei minuti successivi alla loro creazione.
836 milioni di contenuti SPAM sono stati rimossi (99% grazie all'uso di bot automatici), 21 milioni di nudo e pornografia (95%), 3.4 milioni con contenuti violenti (85%) e 1.9 milioni inerenti terrorismo (99%).
Le % indicano i contenuti rimossi automaticamente dai bot senza alcuna segnalazione da parte degli utenti.
Le difficoltà maggiori sono state sicuramente le differenze linguistiche.
Motivo per cui, ad esempio, un mese fa Zuckerberg ha dovuto assumere dozzine di revisori di lingua birmana per arginare la diffusione di messaggi d’odio contro la minoranza musulmana dei Rohingya in Myanmar.
Inoltre, Facebook ha rimosso altre 200 applicazioni che potrebbero aver usato i dati degli utenti in modo illecito, come ha fatto Cambridge Analytica, fra le quali le italiane CubeYou e Guard.Social. Pare che MyPersonality abbia esposto le informazioni di più di 3 milioni di persone.
Oltre ai 583 milioni di account falsi eliminati (la maggior parte dei quali bloccati entro pochi minuti dalla loro creazione) si aggiungono "i milioni di tentativi quotidiani di creazione di account falsi" e la stima che esistano ancora circa il 4% (sul totale degli iscritti) di account fake.
C’è quindi ancora molto lavoro da fare per prevenire gli abusi in parte perché l’intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall’essere efficace per tutti i contenuti che violano le regole della community.
Più precisamente, la tecnologia necessita di un gran numero di dati di supporto per riuscire a riconoscere modelli significativi di comportamento.
Inoltre, in molte aree (anche se si tratta solo di spam, pornografia o account falsi) troll e criminali sono particolarmente sofisticati e cambiano continuamente tecniche di diffusione di questi contenuti (e di creazione di nuovi account), proprio per eludere i controlli automatici.
Nessun commento:
Posta un commento