Il cyberbullismo e le aggressioni online sono problemi che stanno diventando sempre più frequenti e preoccupanti. Per cercare di porre un freno a questo stato di cose, alcuni ricercatori della Binghamton University, della Boston University, dell’Università Aristotele di Salonicco e di altri istituti hanno messo a punto un algoritmo in grado di riconoscere, con un’elevata precisione (i ricercatori parlano di circa il 90%), utenti bulli e aggressori online.
Lo scopo del lavoro svolto dai ricercatori è quello di affiancare l’intelligenza artificiale all’immane lavoro “umano” dei moderatori che lavorano per i grandi social network come Twitter, Facebook ecc.
Il lavoro dei ricercatori, nello specifico, ha cercato di analizzare le caratteristiche dei comportamenti offensivi su una delle più grandi piattaforme social, Twitter; sono stati analizzati 1,2 milioni di utenti e circa 2 milioni di tweet mettendo a confronto utenti che partecipano a discussioni su argomenti poco rischiosi con quelli che invece intervengono su questioni che più facilmente possono essere correlati all’odio o al razzismo.
Sfruttando algoritmi che elaborano il linguaggio naturale e altri strumenti da tempo disponibili per analizzare i social network, i ricercatori affermano di essere riusciti a mettere a punto un algoritmo in grado di classificare con elevata precisione due dei principali modelli di comportamento offensivo in Rete: la cyber-aggressione e il cyberbullismo.
L’algoritmo, spiegano i ricercatori, potrebbe essere utilizzato in futuro dalle grandi piattaforme social per sospendere gli account classificati come aggressivi o bullizzanti.