Social network tra Politically e UNPolitically Correct. Dietro le quinte del palcoscenico.

di Elisa Gaggero

Quando abbiamo stabilito, insieme alla redazione, che il tema di questo numero sarebbe stato dedicato alle diverse sfaccettature del “Politically Correct”, non ho potuto fare a meno di pensare ad una notizia, proposta da tutte le principali testate giornalistiche, in cui è capitato di imbattermi nei giorni dell’esame di maturità 2022: il 21,2% dei maturandi ha preferito la traccia dedicata alle potenzialità e ai rischi di un mondo iperconnesso, che faceva riferimento ad un brano tratto dal libro “Tienilo Acceso” di Vera Gheno e Bruno Mastroianni (2018), i quali hanno “battuto”, si fa per dire, in termini di preferenze, gli altri concorrenti in lizza, Segre e Verga, catturando l’interesse dei giovani e, soprattutto, stimolandone il desiderio di esprimersi. Questa notizia mi ha colpito, incuriosito, mi ha fatto pensare ai “miei giovani”, quelli che seguo come terapeuta e quelli conosciuti durante gli anni del lavoro a scuola, nei Licei: se la maggioranza dei maturandi, gli adulti del domani, o meglio i giovani adulti dell’oggi, hanno avuto voglia di spendersi e rischiare, in un momento così importante, per dire la loro a proposito di questo aspetto del mondo che li e ci circonda, forse, la questione dei social network e delle nostre esistenze “in connessione”, con gli altri e con le informazioni attraverso le piattaforme digitali, è davvero importante e merita una riflessione. Innanzitutto la pandemia da Covid 19 ha dato forte impulso accelerando molto il processo di digitalizzazione del comportamento scolastico, amministrativo e del commercio ma ha anche incentivato la “mediatizzazione” delle nostre comuni esperienze di vita rendendo, gradualmente, il confine tra online e offline, tra mondo reale e virtuale, sempre più sottile e sfumato. Siamo, dunque, evidentemente sempre più connessi, per i nostri impegni lavorativi e scolastici, per sbrigare le pratiche che la burocrazia ci impone ma anche per incontrare gli altri, conoscere il mondo e relazionarci. Questo processo è stato favorito, da una parte, dalle restrizioni che l’emergenza pandemica ha imposto per contenere i contagi, ma anche, e forse soprattutto, dalla paura che il virus ha generato verso il mondo esterno che è divenuto ad essere percepito un luogo pericoloso, dove “l’altro” potenziale veicolo di contagio e, dunque, di morte, è, di fatto, un rivale nella lotta per la sopravvivenza. A questo proposito Frank M. Snowden, professore emerito di Storia e Storia della Medicina all’Università di Yale, nel suo libro intitolato “Epidemics and Society” (2019) conduce un’interessante esplorazione dell’impatto che le malattie epidemiche di massa hanno avuto, in diverse epoche storiche sulle comunità, dalla peste nera fino ai giorni nostri, e analizza come esse abbiano plasmato la società, in una nuova prefazione affronta poi la minaccia globale del COVID-19. Snowden esplora i modi in cui queste malattie, non solo hanno influenzato la scienza medica e la salute pubblica, ma anche come esse hanno trasformato le arti, la religione, il panorama intellettuale e il modo di fare la guerra. Secondo l’autore le malattie infettive sono importanti quanto le crisi economiche, le guerre, i cambiamenti climatici e demografici ed hanno un impatto significativo sulle comunità in quanto toccano e sollecitano le paure più profonde e le preoccupazioni di ciascuno di noi determinando, quindi, un riflesso significativo sulla psicologia collettiva, che le altre malattie non generano, tali paure hanno infatti il potere di condurre la popolazione a ridefinire i propri sistemi di valori e le proprie regole di vita. Il rifugio nel mondo digitale era già da tempo una riposta all’angoscia del vivere e del confronto, da tempo si sente oramai parlare della “dipendenza da internet”, come nuova riposta psicopatologica alle diverse angosce che ciascuno di noi può incontrare nel corso della propria vita, ad esempio in adolescenza, ma non solo. Internet, le realtà virtuali dei videogiochi, i social network offrono, infatti, un’occasione ghiotta di gratificazione ma anche di rifugio e ritiro. Questo perché emozioni negative come ansia o stati crescenti di tensione vengono temporaneamente sostituiti da un senso di piacere o rilassamento mediante l’uso e abuso di internet. In questo senso la digitalizzazione collettiva a cui stiamo assistendo può essere a ragione interpretata come una risposta ai timori, alle angosce e alle incertezze di un mondo percepito come sempre più minaccioso e precario, così come ce lo ha mostrato la pandemia.

Una volta analizzati i motivi che sono alla base dell’evoluzione e del popolamento del mondo digitale e spostando lo sguardo all’interno dei social network, rifugi e palcoscenici delle nostre vite, è ora interessante soffermarci su due aspetti in particolare: da una parte l’analisi dei plots delle dinamiche relazionali e comunicative che animano le interazioni all’interno di alcune delle principali piattaforme digitali e indagare sugli elementi, psicologici e sociali, che rendono i social il teatro dell’Anti Politicamente Corretto, dall’altra esplorare i sistemi di sorveglianza e controllo, finanche di censura che, nel corso degli ultimi anni hanno subito un salto qualitativo considerevole per bloccare contenuti offensivi o violenti e, allo stesso tempo, tutelare lalibertà di parola degli utenti.

Gheno e Mastroianni (2018) nel loro libro si soffermano soprattutto “sulle parole”, lo strumento più immediato e potente che come esseri umani abbiamo a disposizione, e sull’uso che di questo strumento facciamo sui social, osservano pertanto che nelle interazioni online si tende ad utilizzare le parole in modo frettoloso, superficiale, impulsivo, frequentemente senza avere il tempo di ponderarne le conseguenze. Risulta così evidente che le possibilità di fraintendimenti, ostilità e interpretazioni distorte dei fatti sono dietro l’angolo laddove non sia possibile guardarsi in faccia. Paradossalmente, quindi, proprio dove le parole vengono utilizzate in modo meno pensato e “pesato”, in rete, dunque, esse rischiano di avere una maggiore portata ed un impatto più significativo su di noi quando non vengono diluite e chiarificate dai gesti, dalle espressioni, dai dati di contesto che, normalmente, in tutte le altre dimensioni della relazionalità umana le accompagnano. È esperienza comune, oggi, entrare in contatto con lo stile comunicativo, proposto dai mass media ma anche ampiamente praticato sul web, che appare sempre di più permeato di atteggiamenti faziosi, continui conflitti e attacchi, notizie e proclami “d’effetto” spesso falsi o parziali ma atti a catturare l’attenzione. Quella che avviene sul web è, pertanto, una comunicazione e una forma di interazione umana, praticata e assistita, che sempre più spesso ci lascia toccati dall’odio, dalla paura e dalla diffidenza. Inutile dire che tutto ciò incontra prepotentemente il concetto di Politically Correct, tanto che i social network, per molti aspetti oggi possono rappresentare il luogo in cui le regole di condotta, comportamento, dialogo improntate al pieno rispetto dell’identità politica, etnica, religiosa, sessuale altrui decadono completamente con l’erronea convinzione che nel virtuale, tutto sia lecito. Questo fenomeno ha diversi risvolti psicologici, studi recenti ne hanno evidenziato sia gli effetti positivi in termini di autostima, felicità e benessere mentale sia l’impatto sull’insorgenza e la diffusione su larga scala di comportamenti aggressivi e distruttivi (Riva, 2017). Le forme di aggressione e attacco sono molteplici e variano in termini di gravità, dalla polemica sterile in risposta a post altrui all’insulto grave e personale riferito al modo di pensare o di essere di una persona o di un gruppo presi di mira: ragazzini che contattano e commentano esimi uomini di scienza e medicina esprimendo la propria opposta opinione e vengono dagli stessi scherniti per il loro aspetto estetico, illustri sconosciuti che appellano direttamente il presidente della camera con i più volgari epiteti, critiche feroci in risposta alle immagini di una showgirl in costume o ai suoi racconti circa la propria esperienza di madre. Insomma, tutto oggi diventa facilmente oggetto di feroce critica, attacco, indignazione. L’elemento che accumuna queste dinamiche sembra essere un sentimento di odio che viene “agito” all’esterno grazie alla legittimazione offerta dalla condizione di anonimato. Il paradigma di internet e dei social si fonda proprio sul fatto che ciascun utente può divenire il protagonista delle trasmissioni e del flusso di contenuti, continuamente aggiornato e vivo nel presente, nel quale è possibile esprimere tutto quello che passa per la testa. Attualmente sono state identificate due forme principali di aggressione elettronica che si distinguono per la presenza o l’assenza di una o più vittime specifiche. Nel primo caso si parla di cyberbullismo, un comportamento aggressivo, ripetuto e sistematico, rivolto a una persona specifica e perpetrato tramite gli strumenti informatici (Hinduja e Patchin, 2008). La seconda categoria fa riferimento alla recente e rapida diffusione di una seconda forma di aggressione elettronica che, al contrario, è priva di una vittima specifica designata. Rientrano in questa categoria i cosiddetti “haters” o “troll”, ovvero persone che sfruttano il mondo online per connettersi in modo anonimo e scrivere commenti crudeli e brutali, apparentemente senza uno scopo preciso, se non quello di creare scompiglio e ottenere reazioni da altri utenti. I Cyberbulli, gli Haters e l’uso sempre più diffuso di una forma di interazione e comunicazione che potremmo definire Politicamente Scorretta, in quanto non si attiene a principi di correttezza dal punto di vista politico, che non tiene conto delle libertà di gruppi sociali meno forti e delle minoranze ed in generale non rispetta il diritto alla libertà di espressione né la dignità altrui, ha condotto alla realizzazione di alcuni studi che hanno tentato di definire i motivi per i quali le persone tendono a dire o fare cose in modo più aperto, disinibito e intenso quando si trovano dietro ad uno schermo, rispetto a quanto accadrebbe all’interno di un interazione faccia a faccia. L’effetto di disinibizione online va ricercato da una parte nella natura stessa cyber spazio e dall’altra in alcuni meccanismi psicologici che si attivano in risposta a tali particolari condizioni. Suler (2004) ha indagato le caratteristiche dello spazio virtuale e ha cercato di definire gli elementi che producono l’effetto di disinibizione onlineevidenziando aspetti che, a mio parere, affondano le loro radici in concetti già noti alla psicologia sociale e che, secondo l’autore, sono da riferire essenzialmente nella deumanizzazione prodotta dalla distanza sociale e dalla protezione offerta dallo schermo. Innanzitutto le interazioni digitali producono quella che l’autore definisce una anonimità dissociativain quanto la comunicazione mediata da uno strumento, a differenza della comunicazione diretta, offre alle persone l’opportunità di sperimentare una separazione e distinzione delle loro azioni online dal loro abituale stile di vita e dalla loro vera identità. Questo mi ha fatto pensare al noto “esperimento della prigione di Sandford” di Zimbardo (2007), il comportamento viene influenzato dal ruolo di appartenenza e dal luogo/istituzione in cui si opera, potremmo ipotizzare dunque che, esattamente come nell’indossare una divisa, anche usare il mantello dell’invisibilità offerto dallo schermo è in grado di indurre nelle persone una dissociazione tra la loro natura ed il loro comportamento abituale e quello perpetrato sui social. L’esperimento ha infatti dimostrato che la malvagità non deriva solo da chi siamo, ma viene anche determinata dalla situazione specifica in cui ci troviamo. Al concetto di anonimità dissociativa Suler affianca quello di immaginazione dissociativa: l’opportunità data dal mondo online di dissociarsi, combinata alla possibilità di creare un proprio personaggio in parte (o totalmente) immaginario, amplifica l’effetto di disinibizione, poiché le persone consciamente o inconsciamente collocano questo personaggio in un altro spazio separato e distinto da quello della vita reale, uno spazio in cui le conseguenze delle proprie azioni sono concepite (spesso erroneamente) come meno intense e potenzialmente meno problematiche. Altri aspetti che alimentano la disinibizione sono secondo l’autore quello dellinvisibilità e dell’asincronia: il fatto che nel mondo online le persone non possano vedersi l’un l’altra contribuisce ad aumentare l’effetto di disinibizione dando il coraggio agli utenti di osare aspetti del Sé che altrimenti non metterebbero in gioco. Nella comunicazione online, inoltre, manca spesso la sincronia comunicativa e gli scambi non sono in tempo reale, il fatto di non dover far fronte alla reazione istantanea dell’altra persona contribuisce all’effetto di disinibizione. Infatti, se l’utente non ha modo di vedere la reazione dell’interlocutore e di adattare la propria comunicazione di conseguenza può essere portato a persistere nella strategia comunicativa in atto, anche e soprattutto nei casi in cui questa è lesiva, magari più di quanto inizialmente preventivato. Infine abbiamo la minimizzazione dell’autorità, ovvero, l’impossibilità di riconoscere l’autorità degli altri, che di solito viene trasmessa da indicatori non verbali come il luogo dell’interazione, la postura o l’abbigliamento, tale aspetto riduce l’effetto delle norme sociali le quali, nel mondo reale, contribuiscono a regolare il comportamento. Per comprendere a pieno le regole che conducono alla caduta dei limiti e delle convenzioni sociali nelle piattaforme digitali occorre anche, a mio parere, andare a rintracciare i concetti proposti da  Tajfel e Sherif (Amerio, 2007) relativi alla formazione dell’identità sociale ed alle dinamiche tra ingroup e outgroup. Nell’ottica dell’identità sociale, il gruppo viene considerato il luogo principe all’interno del quale la propria identità si forma, questo porta necessariamente ad operare una distinzione tra il proprio gruppo e ciò che si trova all’esterno di esso, questa differenziazione in-group/out-group consente di rinforzare l’identità e la coesione all’interno del proprio gruppo facendo di tutto ciò che è esterno, e quindi diverso, un nemico da combattere portando ad una esasperazione delle differenze. Ne seguono meccanismi cognitivi e schemi comportamentali che conducono al favoritismo per i membri del proprio gruppo in funzione della protezione dell’identità condivisa e forme di competizione e attacco verso chi e ciò che viene percepito come esterno ad esso. Infine, per comprendere le dinamiche psicologiche che spingono alcuni individui, nelle condizioni sopradescritte, a diventare Cyberbulli o Haters è possibile andare a ricercare anche il concetto di identificazione proiettiva (Klein, 1952). L’identificazione proiettiva consiste nel proiettare su qualcun altro un impulso inaccettabile (che può essere ad esempio il sentirsi inadeguati) ed interpretare il proprio comportamento come una reazione giustificata al comportamento dell’altro. Un Cyberbullo o Hater insulta un’altra persona online perché ritiene inaccettabile il modo in cui si veste o i contenuti che condivide sulla propria pagina social, sentendosi legittimato a schernirla; in realtà, l’inadeguatezza che il bullo percepisce nei confronti della vittima è la propria, ma non ha né la capacità né la forza psicologica di riconoscere ed entrare in contatto con le parti inaccettabili del Sé e, dunque, per mettersi in discussione. L’identificazione proiettiva è uno dei meccanismi di difesa più primitivi e più massicciamente utilizzati in condizioni di severe patologie della personalità, difatti, alcuni studi hanno evidenziato il legame tra comportamenti di “trolling” e i tratti di personalità quali psicopatia, narcisismo e machiavellismo (Lopes e Yu, 2017), i quali aggiungono però alcuni particolari importanti. Il tratto di psicopatia risulta quello maggiormente correlato a tali comportamenti, ma allo stesso tempo anche a caratteristiche vittimologiche specifiche. Diversamente da bulli e cyberbulli, haters e troll tendono a preferire vittime che percepiscono come popolari, attraenti, di successo; infatti, persone deboli o impopolari sono più facili da manipolare per i propri fini ma non rappresentano una sfida interessante per questi soggetti che ricevono, invece, maggiore e più significativa gratificazione ad umiliare una vittima di fronte ai follower che la apprezzano. 

Abbiamo osservato dunque come sui social decadono le barriere date dal ruolo, dalla distanza fisica e sociale, dalle regole del contesto più o meno formale al punto che, nel tempo, sono stati creati dei sistemi per “segnalare”, “oscurare”, “bloccare”, utenti o gruppi considerati offensivi o messaggi/interazioni che vengono ritenuti lesivi della sensibilità di particolari gruppi o persone, istiganti l’odio, aggressivi, pericolosi e tutelare così la libertà di parola degli utenti. Tali sistemi di controllo inizialmente non esistevano e vengono aggiornati man mano sulla base delle necessità visto il continuo accrescersi dei fenomeni di uso improprio dei social. La questione della censura all’interno dei social network è un argomento complesso e sorgono spontanee almeno due domande: chi ha il potere di definire ciò che è Politicamente Corretto? Quali sono i principi in base ai quali viene costruita tale definizione e viene così stabilito cosa effettivamente possa essere considerato corretto e politicamente accettabile? Rispondere a tali quesiti impone di far convivere alcuni aspetti differenti e spesso in contrasto fra loro quali: le esigenze di business delle società private che gestiscono le piattaforme di comunicazione e il sistema politico dei diversi paesi all’interno dei quali essi sono diffusi, la tutela dell’informazione e quella del decoro, il rispetto della dignità umana e della libertà di espressione. Innanzitutto i social network sono gestiti da società private con un proprio regolamento e proprie condizioni, perciò, anche se lo strumento viene utilizzato da un cittadino di un paese libero, democratico e garantista, può comunque incorrere nella censura per le condotte tenute sul web. Le regole statali subentrano, invece, rispetto a contenuti la cui diffusione venga ritenuta violare la legge per il paese di appartenenza del cittadino stesso. I governi più repressivi hanno così il potere di inasprire le pene riservate a coloro che sono accusati di utilizzare internet e i social per veicolare contenuti a carattere politico, sociale e religioso “non approvati”. “Freedom on the net”, l’ultima ricerca condotta sulla base dei dati di  Freedom House, una organizzazione non governativa internazionale, con sede a Washington che conduce attività di ricerca e sensibilizzazione su democrazialibertà politiche e diritti umani conferma che la libertà su internet, negli ultimi anni, è in costante diminuzione. Il progetto valuta la libertà nell’uso di Internet in 70 paesi, che rappresentano l’88% degli utenti Internet del mondo. Questo rapporto, l’undicesimo della sua serie, ha coperto gli sviluppi tra giugno 2020 e maggio 2021. Il calo maggiore si è verificato in Myanmar, seguito da Bielorussia e Uganda. L’Ecuador ha registrato, invece, il miglioramento maggiore, seguito dal Gambia. Gli Stati Uniti si sono classificati al 12° posto, mentre l’Islanda rimane il paese in cui tale libertà continua ad essere maggiormente garantita. Per il settimo anno consecutivo, la Cina è risultata avere le peggiori condizioni per la libertà nell’uso di Internet.

L’unico interlocutore in caso di cancellazione di post o account è, invece, il gestore del social stesso sulla base di un proprio sistema di controllo ed eventuale censura dei contenuti. Non tutti i social agiscono esattamente allo stesso modo, sostanzialmente però, i più noti e diffusi, Facebook, Instangram, Twitter, Youtube utilizzano sistemi che si fondano essenzialmente sulla cooperazione tra filtri basati sull’intelligenza artificiale e controllori umani, si tratta di meccanismi che sfruttano gli algoritmi per svolgere una funzione di filtraggio delle pubblicazioni e, nel momento in cui individuano un contenuto che rilevano come “inappropriato”, inviano un segnale di allert a dei revisori umani. Esistono poi alcune differenze che riguardano, ad esempio, il fatto che la censura avvenga con o senza l’intervento del revisore umano e che venga o meno segnalata la violazione al creatore del contenuto prima della sua cancellazione. Esistono poi sistemi ancor più sofisticati, YouTube, ad esempio, prevede dei meccanismi che tengono conto della volontà del singolo utente che può decidere di evitare determinati contenuti; recentemente la piattaforma ha poi sviluppato un nuovo progetto specificamente pensato per la tutela del copyright, inoltre ne esiste una versione dedicata ai bambini che effettua una selezione dei contenuti rivolta a tutelare il pubblico dei più piccoli. Questi sistemi appaiono efficaci ma non mancano gli aspetti controversi e le contestazioni. Grazie agli algoritmi dell’intelligenza artificiale, milioni e milioni di dati testuali e visivi vengono scansionati e analizzati per individuare contenuti falsi o malevoli, portando alla segnalazione o alla cancellazione degli stessi. Dunque, spesso, gli allarmi lanciati dagli algoritmi si fondano sull’individuazione di parole chiave, suoni, parti di immagini, ma, non sempre, i rilevamenti funzionano, a maggior ragione dal momento che i contenuti da analizzare sono in continuo aumento e il contributo dei revisori umani è, per forza di cose, non più così rilevate; da una parte, per esempio la foto di una madre che allatta o del David di Michelangelo possono essere rilevati come pornografica, dall’altra l’intelligenza artificiale non riesce a riconoscere le nuove minacce  consentendo a notizie false di diffondersi, come è successo recentemente con le fake news sul Covid19. Inoltre, anche nel caso in cui intervengano i revisori umani che proseguono il fact checking delle informazioni, si pongano comunque altre questioni: chi decide cosa è giusto e cosa è sbagliato? Chi determina quanto una notizia può essere nociva e secondo quali criteri, chi avrà il potere di stabilire effettivamente questi criteri? Le piattaforme social quindi si trovano di fronte l’arduo compito di bilanciare la tutela della libertà di espressione degli utenti e l’impegno a contrastare il più possibile fenomeni di fake news e comportamenti scorretti. È evidente, però, che, in fin dei conti, siamo noi, gli utenti, ad essere potenzialmente i principali ed i migliori revisori di noi stessi, ad esempio controllando le fonti di ciò che pubblichiamo, cercando più prove a sostegno delle tesi che sosteniamo, cercando di veicolare contenuti che, non solo ci permettano di esprimerci e farci conoscere nel rispetto del prossimo, ma che, di fatto producano un contributo ed un arricchimento. In questo senso, i giovani che hanno scelto come traccia del tema di maturità quella del mondo iperconnesso, forse, ci segnalano proprio questo, ovvero l’esigenza di un processo di alfabetizzazione digitale, che deve essere imprescindibilmente accompagnato da un processo di alfabetizzazione emotiva, e che deve partire presto, molto presto, fin dai banchi di scuola e deve tenere conto di questi strumenti e modalità di espressione, arte e comunicazione che fanno parte integrate della nostra cultura e che per tali motivi occorre conoscere a fondo ed imparare ad utilizzare, come già richiesto, nel maggio 2018, dalla nuova Raccomandazione del Consiglio dell’Unione europea sulle competenze chiave per l’apprendimento permanente. Si afferma, dunque, sempre di più la necessità di coltivare negli studenti la conoscenza delle nuove tecnologie e soprattutto la capacità di utilizzarle intelligentemente, creativamente, criticamente; diverse linee di lavoro sono state proposte recentemente (Mancinelli, 2020; Triani, 2021) e riguardano, oltre ad una profonda e reale comprensione del modo in cui operano le nuove tecnologie digitali e le loro logiche di funzionamento, la necessità di mettere in guardia i soggetti rispetto a ciò che può accadere quando non si ha la capacità di leggere in maniera critica ciò che ci circonda; la conoscenza delle potenzialità e i limiti delle tecnologie digitali e, soprattutto, lo sviluppo di un atteggiamento che sia il più possibile metacognitivo, che guarda al lavoro dei docenti e degli studenti come un continuo processo riflessivo  sulla propria attività. In tal maniera, le tecnologie digitali possono stimolare l’esercizio di funzioni e non soltanto l’apprendimento di contenuti. 

BIBLIOGRAFIA

Amerio, P. (2007), Fondamenti di Psicologia Sociale. Il Mulino, Bologna.

Buckels, E. E., Trapnell, P. D., Paulhus, D. L. (2014), Trolls just want to have fun. Personality and Individual Differences, 67, 97–102. 

Gheno, V., Mastroianni, B. (2018), Tienilo acceso. Posta, commenta, condividi senza spegnere il cervello. Longanesi, Milano.

Hinduja, S., e Patchin, J. W. (2008), Cyberbullying: An Exploratory Analysis of Factors Related to Offending and Victimization. Deviant Behavior, 29 (2), 129–156. 

Klein, M. (1952), Notes on Some Schizoid Mechanisms. In Riviere, J. (Ed.), Developments in Psycho-Analysis. London: Hogarth Press (tr. it. Note su alcuni meccanismi schizoidi. In Scritti 1921-1958 (pp. 409-434). Torino: Bollati Boringhieri, 2001).

Lopes, B., e Yu, H. (2017), Who do you troll and Why: An investigation into the relationship between the Dark Triad Personalities and online trolling behaviours towards popular and less popular Facebook profiles. Computers in Human Behavior, 77, 69-76.

Mancinelli, A. (2020), Tecnologie digitali e processi di apprendimento: una proposta didattico-educativa. Pedagogia e Vita, n.2, p. 127.

Riva, G. (2017), I social network. Il Mulino, Bologna.

Snowden, F.M. (2019), Epidemics and Society: From the Black Death to the Present. Yale Univ Pr.

Suler, J. (2004), The online disinhibition effect. CyberPsychology e Behavior, 7(3), 321–325.

Triani, P. (2021), Ambienti educativi e nuove tecnologie: la sfida permanente di contesti personalizzanti. Pedagogia e Vita, n.2, p. 36.

Zimbardo, P. G. (2007), The Lucifer Effect: Understanding how good people turn evil. New York, Random House.

SITOGRAFIA

https://www.e-businessconsulting.it/home/dettaglio-news/news/social-news-e-politically-correct/
https://freedomhouse.org/report/freedom-net/2021/global-drive-control-big-tech