Il problema di Twitter e l’intelligenza artificiale

Di Redazione FinanzaNews24 14 minuti di lettura
Twitter

Mentre Twitter ha guadagnato i complimenti per aver pronunciato la dichiarazione falsamente verificabile di Trump sulle votazioni per posta elettronica e sulle frodi degli elettori, non si può dire altrettanto sul fatto che la disinformazione di Twitter corre molto più in profondità di alcuni tweet di alto profilo. Il venditore ambulante più prolifico e problematico di disinformazione sulla piattaforma è il massiccio esercito di robot che si presentano come utenti medi.

Un sacco di robot

Non esiste un numero definitivo per la quantità totale di account di bot automatizzati attivi su Twitter. Alcuni studi hanno ancorato il numero intorno %. Con più di 95 milioni di utenti, che equivalgono a un sacco di attori non umani – 49 5 milioni per l’esattezza. Questo è approssimativamente equivalente a tutta la popolazione della California e del Michigan messi insieme, in effetti.

I robot sono applicazioni software di varia complessità programmate per eseguire determinate attività, legittime o dannose. Non tutti sono cattivi. Wikipedia, ad esempio, impiega i bot sulla sua piattaforma per ripulire le pagine, identificare i vandali e le modifiche alle pagine dannose, dare suggerimenti e salutare i nuovi arrivati. Quando le persone parlano di robot nel contesto di Twitter, tuttavia, non si riferiscono a robot utili, ma piuttosto a robot che spesso si presentano come utenti ordinari – spesso, anche se non sempre, che vantano il generico avatar a forma di uovo che Twitter assegna agli utenti come un predefinito – ma sono noti per aver contribuito a diffondere false notizie e spacciare teorie della cospirazione.

I bot di Twitter sono stati incolpati di tutto, dal risultato del 2016 Elezioni presidenziali alla Brexit nel Regno Unito In entrambi i casi, i bot hanno favorito fortemente sia la parte di Trump che quella di “Lascia” del dibattito. Secondo Jamie Susskind nel libro Future Politics , i robot pro-Trump, usando hashtag come #LockHerUp , ha superato i robot della campagna Clinton con un rapporto di 5: 1. Nel frattempo, un terzo del traffico Twitter prima del referendum sulla Brexit dell’Unione Europea è stato generato da bot.

Secondo un recente studio della Carnegie Mellon University, più della metà dei conti twittano sulla riapertura dell’America dopo il COVID – 000 lo spegnimento economico viene dai robot. I ricercatori hanno scoperto che 64% della parte superiore 24 i retweeter influenti erano robot, insieme a 62% della prima 1, 000 ritwittatori sull’argomento.

Disinformazione e disinformazione

“La disinformazione e la disinformazione sono un problema significativo sulle piattaforme dei social media”, ha dichiarato Christopher Bouzy, creatore di Bot Sentinel, a Digital Trends. “I conti non autentici stanno condividendo e amplificando questa roba 19 / 7 e milioni di utenti legittimi sono esposti a queste cose. In primo luogo, gli individui nefasti di solito acquistano vecchi conti sul mercato nero. Questi account sono per lo più account hacker abbandonati o account creati anni fa per altri scopi e non sono più necessari. Quindi questi account sono fatti per sembrare qualcosa che non sono. Può essere un sostenitore di un candidato, un attivista BLM o qualsiasi altra persona innumerevole. ”

Bouzy si riferisce a questi come “conti non autentici di alto livello”. A questi account di livello superiore può quindi essere potenziato il loro segnale attraverso l’uso di altri account appena creati che li seguono per dare l’impressione che questi account siano popolari.

“Altri utenti legittimi seguono gli account non autentici di primo livello perché ritengono che questi account abbiano diversi anni e che abbiano un numero significativo di follower”, ha affermato Bouzy. “Quindi, dopo settimane o mesi in cui si è guadagnata la fiducia dei propri follower, iniziano a twittare disinformazione e disinformazione che si intende condividere rapidamente senza mettere in discussione l’autenticità del contenuto. Un account non autentico può esporre migliaia di utenti legittimi alla disinformazione – e non ci vogliono molte risorse per raggiungere questo obiettivo. ”

Bot Sentinel utilizza l’apprendimento automatico per classificare ed eliminare account automatici che twittano e ritwittano determinati contenuti. È stato addestrato per classificare gli account Twitter inserendo migliaia di account e milioni di tweet in un modello di apprendimento automatico. I suoi creatori affermano che può classificare correttamente gli account twittando principalmente in inglese con un livello di precisione di 95%.

Per essere onesti con le società di social media come Twitter, ci sono stati continui sforzi per reprimere i robot nel corso della loro storia. Nonostante il fatto che il sostentamento delle società di social media dipenda dalla loro capacità esponenziale di far crescere una base di utenti, c’è stato anche un serio tentativo di gestire il dilemma del bot, anche quando ciò significa eliminare milioni di account utente. In 2018, ad esempio, Twitter ha iniziato a sospendere gli account bot sospetti a una velocità superiore a 1 milione al giorno.

Solo quell’anno secondo quanto riferito ha eliminato più di 70 milioni di account falsi. Più recentemente, ha esplorato un nuovo sistema in stile segno di spunta per rendere più evidente quali utenti sono robot e quali persone reali. Il mese scorso, Twitter ha aggiornato la sua politica dell’API per gli sviluppatori per notare che gli sviluppatori devono indicare chiaramente nella biografia o nel profilo dell’utente “se utilizzano un account bot, qual è l’account e chi è la persona, quindi è più facile per tutti Twitter per sapere cos’è un bot e cosa no. ”

Tuttavia, come sottolinea Bouzy, i robot persistono sulla piattaforma. “Ad esempio, chiunque può cercare su Twitter # WWG1WGA e #QANON e possono vedere gli innumerevoli account non autentici che diffondono disinformazione e disinformazione riguardo a quegli hashtag”, ha detto. “Eppure gli account e i contenuti rimangono sulla piattaforma fino a quando qualcuno non lo segnala. Se siamo in grado di identificare account non autentici con informazioni pubbliche, allora Twitter può anche identificare questi account. ”

A condizione che i robot possano essere identificati da utenti umani, dichiarandosi elettivamente come bot o attraverso un Blade Runner

– sistema investigativo di stile per scoprire i robot nascosti, si potrebbero mettere in atto delle regole per impedire loro di interferire.

Sono solo un conto (per uccidere i robot)

“Una misura sarebbe vietare ai robot di prendere parte a determinate forme di discorso politico”, ha detto Susskin a Digital Trends. “La legge sulla divulgazione e la responsabilità dei bot offre un passo in questa direzione in quanto proibirebbe ai candidati e ai partiti politici di utilizzare qualsiasi robot destinato a impersonare o replicare l’attività umana per la comunicazione pubblica. Impedirebbe inoltre ai PAC, alle società e alle organizzazioni sindacali di utilizzare i bot per “comunicazioni elettorali”. ”

Susskind ha affermato che è anche importante pensare a regole più “dinamiche” che potrebbero governare il funzionamento dei robot su piattaforme Internet. “Forse … i robot dovrebbero costituire solo una certa percentuale di contributi online al giorno, o [be limited to] un numero di risposte a una determinata persona”, ha continuato. “I bot che diffondono quella che sembra essere una disinformazione potrebbero essere richiesti da altri bot per fornire backup per i loro reclami e rimossi se non possono. Dobbiamo essere fantasiosi. ”

Per ora, tuttavia, questo rimane un problema complesso, indipendentemente dal fatto che supponiamo che le normative per il controllo dei robot debbano provenire da società o essere imposte da forze esterne. Lili Levi, professore di giurisprudenza presso la Facoltà di Giurisprudenza dell’Università di Miami, ha già scritto sul tema dei robot e delle notizie false. Levi ha sollevato solo alcuni dei potenziali problemi che verranno affrontati dai tentativi di controllare la prevalenza dei bot sulle piattaforme dei social media.

“Mi colpisce che cercare di rispondere a questa domanda richiede di pensare a una varietà di priori”, ha detto Levi a Digital Trends. “Le soluzioni dovrebbero essere volontarie o obbligatorie? Se obbligatorio, ci sono sempre domande legali – [such as] costituzionalità dei regolamenti, a seconda del loro carattere. Se volontaria, quali argomenti porterebbero le piattaforme di social media a soluzioni? L’adozione di alcune soluzioni da parte di Facebook indurrebbe necessariamente le altre ad andare avanti? Le soluzioni dovrebbero essere tecniche o basate sulla divulgazione? Quali sono i tipi di soluzioni tecniche disponibili per le piattaforme? Sono uguali su tutte le piattaforme di social media? ”

Un pezzo del problema dei social media

In definitiva, il problema dei bot è solo una piccola parte del problema affrontato dai social network. Come scrive Yuval Noah Harari in 21 Lezioni per il 21 st Secolo , gli umani sono sempre stati una specie di specie post-verità. Vale a dire che, nelle parole di Harari, “Siamo gli unici mammiferi che possono cooperare con numerosi estranei perché solo noi possiamo inventare storie di fantasia, diffonderle e convincere milioni di altre persone a crederle.”

Credere nelle stesse finzioni è una parte essenziale della cooperazione umana, garantendo che, per esempio, la maggior parte di noi obbedisca alle stesse leggi o norme sociali. Tuttavia, può anche tradursi in un numero pressoché illimitato di esempi storici che mostrano come un gran numero di persone possano essere montate per commettere azioni terribili, basate interamente su falsità – e con nessun hashtag in vista.

Ciò che è cambiato nell’era dei social media è la velocità con cui queste finzioni possono viaggiare, insieme al periodo più breve in cui i nostri cervelli oberati di lavoro devono analizzare i fatti dal falso. Anche nel caso in cui i bot di verifica dei fatti fossero implementati come suggerisce Susskind, questi dovrebbero essere eseguiti abbastanza rapidamente da poter individuare e rimuovere le notizie false prima che diventasse un problema. In un mondo sfumato in cui i fatti alternativi non sono sempre gli stessi delle notizie false, ciò potrebbe rappresentare un grosso problema.

“Nella nostra esperienza, i robot sono sicuramente uno dei mezzi principali per attivare la diffusione di notizie false”, Francesco Marcelloni, professore di sistemi di elaborazione dati e business intelligence all’Università di Pisa, che l’anno scorso ha pubblicato un documento intitolato “A Survey on Fake News and Rumor Detection Techniques” con Ph.D. lo studente Alessandro Bondielli, ha detto a Digital Trends. “Alla fine, tuttavia, sono sempre le persone a rendere virali le notizie false. Pertanto, limitare l’azione dei robot può rallentare la diffusione, ma potrebbe non impedire la falsificazione di notizie [spreading widely online]. ”

Il difensore della libertà di parola Alexander Meiklejohn una volta osservò notoriamente che “Ciò che è essenziale non è che tutti parlino, ma che tutto ciò che vale la pena di essere detto”. Le piattaforme di social media sono, per progettazione, un diverso tipo di discorso libero: un discorso libero in cui tutti ricevono una voce per parlare il più forte possibile, anche quando ciò significa soffocare voci opposte. Questo è, alla fine, il motivo per cui i robot sono considerati così problematici. Non si tratta semplicemente di sposare opinioni che potrebbero essere contrarie alle nostre; è la scala su cui operano come strumenti per la diffusione di materiale potenzialmente falso.

Fino a quando questi problemi non verranno risolti, la disinformazione rimarrà un enorme problema su piattaforme di social media come Twitter. Indipendentemente da quanti tweet presidenziali vengono segnalati dai controllori dei fatti.

Condividi questo articolo
Exit mobile version