Emozioni virali: come gli stati d'animo altrui ci influenzano anche via social network

Specialista cancellato
PsicoterapeutaPsicologo

E' ormai acquisizione "storica" della psicologia la capacità delle emozioni umane di diffondersi ai nostri consimili. Vissuti come rabbia, gioia, paura possono propagarsi molto rapidamente, influenzare lo stato d'animo di altre persone, e rendere più probabili alcuni comportamenti emotivamente significativi.

Ciò avviene praticamente in ogni contesto in cui vi è una interazione umana, e non è necessario che vi sia un elevato grado di consapevolezza di tale "contagio emotivo" nei soggetti.

Fino a qualche anno fa, tradizionalmente, si considerava fondamentale perchè vi fosse un passaggio "empatico" di emozioni tra soggetti che vi fosse perlomeno la compresenza "fisica" delle persone, e che il canale sensoriale visivo fosse quello preferenziale per tale comunicazione.

Recentemente uno studio pubblicato su Proceedings of the National Academy of Sciences sembra offrire una prospettiva originale sulle reciproche influenze emotive tra le persone e sulla possibilità di indurre stati emotivi "a distanza", tramite l'uso di Social Network, se non addirittura di "manipolare" le emozioni degli utenti ed il loro comportamento senza che questi ne siano consapevoli.

 

Lo studio

Sono state alterate sperimentalmentele notifiche delle bacheche di un gran numero di utenti di Facebook, ignari di star partecipando al test.

Il campione è molto numeroso: si tratta infatti di più di 600.000 persone, un gruppo sperimentale davvero difficile da mettere insieme offline.

I partecipanti sono stati divisi in due gruppi, e sono stati limitati in entrambi i contenuti che potevano visualizzare in bacheca: nel primo sono state ridotti sperimentalmente i contenuti che rappresentavano emozioni positive, mentre nell'altro venivano ridotti i contenuti emotivi negativi.

L'intero impianto è metodologicamente abbastanza rigoroso, sebbene deontologicamente discutibile: manca infatti un adeguato consenso informato alla partecipazione all'esperimento, che da una parte avrebbe tutelato i partecipanti, ma dall'altra avrebbe probabilmente inficiato gli assunti di base e le conclusioni dello studio stesso.

 

I risultati

L'esito di tale alterazione speriementale è stato abbastanza sconcertante. Laddove erano stati ridotti i contenuti positivi, anche i post pubblicati dai soggetti avevano un tono più marcatamente negativo, mentre quando erano i contenuti negativi ad essere ridotti, i post pubblicati avevano un tono significativamente più positivo.

Sembra quindi che l'esposizione a contenuti emotivi prevalentemente positivi o negativi influenzi il tono dei post che i soggetti scrivevano a loro volta.

Inoltre, in entrambi i gruppi la minore esposizione a contenuti emotivamente caratterizzati ha prodotto una minore espressività nei post prodotti: meno sono esposto a contenuti emotivi, meno ne produco.

 

Commento

Gli aspetti a mio parere più interessanti di questa sperimentazione sono due.

Da una parte, l'aver rilevato la possibilità concreta di un contagio emotivo online, senza consapevolezza da parte di soggetti e senza che vi fosse contatto oculare, o che fossero implicati aspetti paraverbali e non verbali, tradizionalmente ritenuti indispensabili per la comunicazione dello stato d'animo.

Erano già state condotte numerose sperimentazioni in tal senso, tanto da valutare, ad esempio, l'impatto che la "forma" della nostra rete di contatti ha nel'influenzare la probabilità di contagio sociale. Reti di contatti più "interconnesse" hanno infatti più probabilità di lasciar propagare il contagio, indipendentemente dal numero di contatti.

D'altra parte, un aspetto secondo me cruciale, è che il "contagio emotivo" ha influenzato il comportamento dei soggetti, che hanno reagito inconsapevolmente alla manipolazione dei contenuti cui erano esposti modificando (di nuovo inconsapevolmente!) il tono emotivo dei post che producevano.

Questi risultati tratteggiano scenari insieme stimolanti ed inquietanti.

Ci suggeriscono possibilità interessanti per lo studio di possibili applicazioni online di metodologie di intervento psicologico vis-à-vis, ma ci mettono anche in guardia dalla potenza suggestiva che la sovraespozione agli stimoli di un mondo sempre più interconnesso può esercitare su milioni di persone, manipolandone lo stato d'animo in modo arbitrario ed inducendo reazioni di cui le persone possono essere solo in minimo grado coscienti.

 Quindi, la prossima volta che leggiamo un post carico di rabbia, tristezza, speranza, ansia, fermiamoci un attimo: cosa proviamo?

Link

Lo studio sul contagio emotivo su PNAS: link

Lo studio sull'influenza che la forma della nostra rete di contatti ha sul contagio sociale: link

Data pubblicazione: 30 giugno 2014

7 commenti

#1
Foto profilo Utente 344XXX
Utente 344XXX

A seguito di questo studio il Garante della Privacy inglese non si è invece fermato, anzi ha aperto un'inchiesta.
Secondo il Financial Times Facebook rischia di pagare la strabiliante multa di 500.000 sterline.
Pagata la multa, tutto tornerà ovviamente come prima, almeno dopo che i professionisti della manipolazione dietro le quinte virtuali in due ore avranno recuperato il maltolto.

#2
Foto profilo Psicoterapeuta
Psicoterapeuta

In due ore mi sembra una valutazione pessimistica... Neppure abbiamo idea di quanti di questi "test" siano effettuati costantemente.

Nella pagina https://www.facebook.com/full_data_use_policy#howweuse, che specifica l'uso cha Facebook può fare dei dati degli utenti, si legge che può utilizzarli

"per le operazioni interne, fra cui la risoluzione dei problemi, l'analisi dei dati, i test, la ricerca e il miglioramento del servizio."

Già uno degli autori dello studio ha specificato che, poichè i contenuti dei post possono ingenerare negli utenti un senso di esclusione, spingendoli ad abbandonare la piattaforma, allora lo studio diventa un'occasione per migliorare il servizio offerto.
In soldoni, la vedo dura per il Garante...

Ma del resto ormai penso sia di pubblico dominio che:

- Facebook condivide i dati degli utenti con organizzazioni governative
- aggrega, disaggrega, analizza e valuta i contenuti per proporre offerte commerciali "personalizzate"
- detiene i contenuti che vi si pubblicano, e che non vengono realmente cancellati anche quando siamo convinti che siano rimossi

Insomma, ogni giorno milioni di utenti regalano a Facebook intere fette della loro privacy, gratis e con gioia. E poi ci stupiamo se manipolano? E che dovrebbero farsene, di tutto questo ben di Dio? ^___^

#3
Foto profilo Utente 344XXX
Utente 344XXX

D'accordissimo sulla sua conclusione, ed infatti, essendo ancora un essere umano pensante, e non una pallina impazzita del flipper che rimbalza da un'emozione artefatta all'altra, non sono iscritto a FB, né ad altri social network.
Che sono potenti strumenti di alienazione dell'era contemporanea, tanto che al bistrattato Marx gli si sarebbero rizzati i capelli e pure i baffi.
Mi dispiace solo per i giovani ed i giovanissmi, poveracci, siamo passati dal cogito ergo sum, al selfieto ergo sum.
Saluti.

#4
Foto profilo Dr. Salvo Catania
Dr. Salvo Catania

Intanto complimenti per il blog che getta un sasso non su un fenomeno, ma su una vera rivoluzione planetaria ed epocale. Lo studio PNAS ha fomentato una campagna di indignazione contro Facebook per l'esperimento (in realtà su un campione di 700.000 ) con cui avrebbe "manipolato le emozioni" alterando per una settimana le bacheche ed i news feed all'insaputa degli utenti per verificare se si possano influenzare gli umori attraverso un social network. Ma questo fenomeno lo si conosce da tempo e per questa ragione io addirittura non apro da almeno 3 anni neanche le mail di notifica di Facebook o Twitter. Purtroppo buona parte degli iscritti dimostra di avere scarsa dimestichezza con i meccanismi utilizzati QUOTIDIANAMENTE dai colossi del Web.
Non è solo Facebook a "manipolare" i sentimenti degli utenti. Google conduce sino a 20.000 test (per loro ammissione) all'anno sui risultati di ricerca e così fanno Yahoo, Microsoft e Twitter.
I test sono frequentemente ben mascherati. Ad esempio colossale ad esempio quello di Google del 2009 che riuscì, come "risultato di ricerca" un test con il quale riuscì a testare ben 41 sfumature del colore blu per capire a quale si associava un maggior numero di click. ( e noi pensavamo che il blu dei vestiti Google fossero scelti casualmente ....).

L'obiettivo , neanche nascosto, è quello di modificare i comportamenti di chi naviga a vantaggio...dei FATTURATI ( e ti pareva !).

Sfruttando queste ricerche sui risultati si è dimostrato tra le varie applicazioni che nel 2010 negli Stati Uniti 350.000 utenti sono stati indotti a votare stimolati da una campagna mirata su Facebook.

Un mese fa in India a partire dai social quasi 4 milioni di iscritti sono stati indotti a dichiarare "sono un elettore" indirizzando così campagne elettorali virtuali ad hoc.

Non è un mistero , svelato da mille polemiche per via dei costi stratosferici, che il Dipartimento della Difesa Usa , ha stanziato 50 miliardi di dollari sulle ricerche basate "sulle espressioni emotive" nei social network di tutto il mondo per prevedere e monitorare eventuali rivolte nei Paesi a rischio.
La difesa americana, studiando a distanza le emozioni catturate sui social, aveva previsto con largo anticipo le rivolte sociali della Libia, Tunisia, Egitto del 2011 e Turchia del 2013.

Anche gli studi come quello qui citato PNAS sono considerati come "cavalli di Troia" perché molto apertamente psicologi arruolati da Yahoo, Microsoft e Twitter, hanno ammesso che queste "manipolazioni come quello discusso di Facebook, non vengono effettuate per di studiare il "contagio emotivo", di cui non sembra importare un granchè, ma con il fine esplicito di aumentare i fatturati.

#6
Foto profilo Dr. Salvo Catania
Dr. Salvo Catania

Chiedo scusa per le ripetizioni e refusi da...smartphone

Guarda anche empatia 

Contenuti correlati