Martedì 17 febbraio 2026 ore 18:01

Notizie

Dalle fake news alla polarizzazione secondo le neuroscienze

Domenica 15 febbraio 2026 ore 09:00 Fonte: Valigia Blu
Dalle fake news alla polarizzazione secondo le neuroscienze
Valigia Blu

Premessa In un precedente articolo (Dal cervello predittivo alle AI generative) abbiamo introdotto una delle teorie neuroscientifiche più promettenti, cioè la teoria del “cervello predittivo” (predictive processing) del filosofo e professore di filosofia cognitiva Andy Clark. La teoria, a sua volta recepita dal neuroscienziato Anil Seth e approfondita dal filosofo Thomas Metzinger, parte dall’idea che il cervello non riceve la realtà ma la costruisce.

Ciò che percepiamo è il risultato di un’ipotesi interna che viene continuamente aggiornata dagli input sensoriali. Non si limita a spiegare la mente umana, ma fornisce un framework generale per comprendere qualsiasi sistema che deve mantenere la propria integrità in un ambiente incerto.

Non si tratta di una teoria astratta, ma di qualcosa che ha profonde implicazioni per gli esseri umani e la società. Nelle sue varie ramificazioni tra Clark, Seth e Metzinger, non si limita a dire che il “cervello fa previsioni”, ma dice qualcosa di molto più radicale: il sé non è una cosa, un’essenza, ma un processo predittivo in continua ricostruzione.

Se questo risultasse vero, allora vorrebbe dire che: - l’identità non è fissa ma negoziabile; - alcune rigidità psicologiche non sono essenze caratteriali, ma errori di predizione; - non esiste un “nucleo magico interno” immutabile, ma un equilibrio dinamico tra corpo, ambiente e aspettative. La conseguenza pratica di tutto ciò è che cambia il modo di pensare ai nostri limiti, alle nostre paure, ai nostri ricordi.

Molte cose “sono te” solo perché il cervello “prevede” che dovrebbero esserlo. È un cambio di paradigma enorme e le conseguenze pratiche sono innumerevoli.

Vediamone alcune. Conseguenze pratiche Cambia il modo di gestire emozioni, ansia e depressione Queste teorie influenzano la ricerca in neuroscienze computazionali e psichiatria (ad esempio in materia di psicosi; il Research Domain Criteria è un’iniziativa del National Institute of Mental Health (NIMH) volta a comprendere i disturbi mentali).

Se sono confermate vuol dire che: - l’ansia è previsione esagerata di minacce; - la depressione è un modello di aspettativa pessimistica talmente radicato che neppure le prove positive lo corregge; - molte emozioni sono ipotesi sul corpo e sul mondo, non reazioni oggettive. Questo spiega perché respirare lentamente cambia l’ansia: stai modificando i segnali corporei che il cervello usa per predire lo stato emotivo.

Spiega inoltre perché gli esercizi attentivi funzionano: costringono il cervello a ricalibrare i suoi modelli. In breve, non soffri perché “sei fatto così”, ma perché il tuo cervello sta usando un modello che può essere aggiornato.

È una prospettiva molto meno fatalistica. Cambia il modo di leggere la società: bias, percezione, conflitti Anche le implicazioni sociali sono notevoli.

Se la percezione è “predizione”, allora: - i bias non sono preconcetti morali, ma errori di modellizzazione del cervello; - lo shooter bias (ad esempio), cioè vedere una minaccia dove non c’è, non è solo razzismo, ma un fallimento predittivo in un contesto di stress; - le fake news funzionano perché manipolano le aspettative, non i fatti. Queste osservazioni conducono a training di polizia (Fair and Impartial Policing) che cercano di ricalibrare la velocità delle predizioni, e a programmi contro i pregiudizi che agiscono su come il cervello anticipa i volti, i contesti, i gesti.

In breve, le verità percettive diventano negoziabili, e si comprende perché due persone vivono letteralmente due mondi diversi. Cambia la tecnologia:

AI, realtà aumentata, interfacce cervello-macchina Il neuroscienziato Anil Seth è piuttosto chiaro in tema: se la percezione è una sorta di “allucinazione controllata”, allora basta manipolare le previsioni per manipolare l’esperienza. Questo è ciò che: - fanno gli LLM quando completano il linguaggio (previsioni linguistiche); - faranno i futuri dispositivi AR/VR; - dovranno fare gli impianti neurali per stabilizzarsi nel cervello.

In breve, chi controllerà gli ambienti predittivi controllerà parte della tua esperienza del mondo. È una problematica estremamente pratica e decisamente poco astratta.

Conseguenze pratiche per l’individuo Se tali teorie saranno confermate (in realtà si tratta di teorie ampiamente adottate, pur con dibattito interno), allora le conseguenze sono: - non reagiamo al mondo, lo costruiamo: questo cambia come affrontiamo conflitti, paure, intuizioni e ricordi; - il sé non è un’essenza ma un modello: possiamo modificarlo; - le emozioni sono previsioni del corpo: possiamo intervenire sia sul corpo che sui modelli; - la società è un ecosistema di modelli predittivi: ecco perché siamo così polarizzati, perché i social dividono, perché i bias sono ostinati; - le tecnologie future opereranno direttamente su questi modelli: chi controlla le aspettative controlla la percezione. In breve, capire il “cervello predittivo” può fornire una mappa della mente, della società e delle tecnologie che arriveranno.

Non si tratta di filosofia astratta, ma antropologia applicata, e, se confermata, cambierà il rapporto con l’esperienza, l’identità e la verità. Come sostiene Metzinger, il cervello integra continuamente informazioni sensoriali, motorie e interocettive per costruire la mappa di dove e cosa siamo.

Qualsiasi ambiente che fornisce segnali coerenti (visivi, motori, tattili) può essere integrato, in quanto il cervello non fa distinzione tra realtà biologica e simulazione coerente. Slater e Blanke hanno dimostrato che, se un soggetto indossa un visore VR che mostra un avatar in prima persona perfettamente sincronizzato con i suoi movimenti, il cervello comincia a rappresentare quell’avatar come sé.

In un secondo articolo (AI e responsabilità: la soluzione non è fermare la tecnologia, ma darle una regolamentazione) abbiamo provato ad analizzare la regolamentazione delle nuove tecnologie, evidenziando come in molti casi - se basate su idee non aggiornate - finiscono per fallire. Ecco perché il legislatore si sta lentamente incamminando verso l’attuazione del principio di “human oversight” e “responsabilità sistemica”, in tal modo prendendo posizione su cosa sia un agente, dove risieda la volontà, come si distribuisca la responsabilità.

AI e responsabilità: la soluzione non è fermare la tecnologia, ma darle una regolamentazione Per una regolamentazione efficiente delle nuove tecnologie, il problema non è, quindi, come funziona un’AI, bensì come funziona un sistema cognitivo, in particolare un sistema ibrido (AI+essere umano). Se continuiamo a ragionare basandoci su un’ontologia superata, l’idea di Io Cartesiano (“io” unitario, autonomo, trasparente a se stesso), rischiamo di creare leggi che: - cercano il colpevole dove non c’è un centro decisionale; - impongono controllo umano dove l’umano non può materialmente comprendere; - ignorano responsabilità sistemiche perché distribuite e non localizzabili.

Rischiamo di “allucinare” giustizia. Ecco perché stiamo entrando in un’era in cui i concetti fondamentali vengono progressivamente ridefiniti: colpa, responsabilità, libertà, volontà, etica.

Disinformazione e teorie predittive Proviamo, quindi, ad approfondire un tema molto sentito, quello della disinformazione. In questo campo le teorie del cervello predittivo introducono un meccanismo di comprensione del fenomeno molto potente.

Se il cervello non è un mero recettore di fatti ma una macchina che minimizza l’errore di previsione, ciò vuol dire che: - il cervello mantiene modelli predittivi del mondo; - quando riceve un’informazione dissonante, non la registra: cerca di farla rientrare nei modelli già esistenti; - più un modello è stabilizzato, più resiste alla correzione. E questo spiega tre fenomeni chiave.

A) L’informazione contraria aumenta l’errore di predizione Una fake news è spesso attraente perché: - è semplice; - è narrativa; - conferma il modello preesistente (la terra è piatta; il governo mente; le élite complottano; le cose peggiorano). Quando arriva un’informazione correttiva (cioè in contrasto), questa: - viola drasticamente le previsioni del cervello; - aumenta l’errore; - genera una reazione di difesa per ridurre l’errore.

In breve, l’informazione correttiva non modifica il modello, ma rafforza il modello già esistente (effetto backfire). B) Il cervello predice anche il proprio gruppo sociale (identità) Il modello predittivo più stabile non è un fatto, ma è l’appartenenza ad un gruppo.

Le credenze che definiscono un gruppo sono difese, ma non perché sono vere, ma perché: - danno coerenza; - riducono incertezza; - stabilizzano l’identità sociale. Nella teoria predittiva, quindi, minimizzare l’errore equivale anche a minimizzare l’isolamento.

Per cui, se qualcuno corregge una fake news che appartiene al tuo gruppo di riferimento, respingendola non stai difendendo una notizia errata, bensì stai difendendo il tuo “modello di sé” come membro del gruppo di riferimento, cioè la tua identità. C) I fatti non correggono modelli astratti Le predizioni più alte nella gerarchia (cioè identità, valori, narrazione del mondo) sono molto più stabili delle predizioni basse (percezioni sensoriali).

Correggere una fake news richiede, quindi, di correggere i livelli più alti della gerarchia: identità, appartenenza, narrazione del mondo. In breve è come cercare di convincere qualcuno che il suo io non è coerente con se stesso.

È una cosa che il cervello rifiuta categoricamente. In conclusione, correggere una credenza: - crea più errore nel modello identitario (laddove il cervello mira a ridurre l’errore); - crea più dissonanza nella rete sociale (laddove il cervello tende all’assonanza); - e genera incertezza in un mondo già molto complesso (laddove il cervello rifugge l’incertezza).

Il cervello preferisce irrigidire il modello piuttosto che affrontare un collasso identitario: cioè si polarizza. Come intervenire Ovviamente tutto ciò non significa che non sia possibile risolvere il problema delle fake news, ma indica piuttosto che la strada normalmente intrapresa non è del tutto efficiente.

Occorre cambiare le tecniche di risoluzione e adeguarle alle modalità di funzionamento del cervello. 1) Non contrastare le predizioni alte, ma quelle basse Non si cambia una credenza attaccando il suo nucleo, piuttosto occorre: - agire sui segnali concreti, situati, emotivi, contestuali; - introdurre dubbi a bassa salienza identitaria.

In sostanza, non serve dire “la tua teoria è falsa”, ma è utile far notare micro-incongruenze concrete che non minacciano l’identità. Questo altera il modello dal basso della gerarchia e lo costringe lentamente a riadattarsi.

2) Rendere l’informazione nuova coerente col modello esistente La correzione funziona solo se: - non crea un abisso predittivo; - viene presentata come “compatibile” con l’identità della persona. Alcune azioni pratiche possono essere le seguenti: - “Non è che ti stai sbagliando: è che i dati sono cambiati”; - “Il tuo approccio era sensato prima, ma ora ci sono informazioni nuove”; - “Molte persone del tuo stesso gruppo stanno iniziando a pensare X”.

In questo modo si riduce l’errore di predizione, e il cervello accetta l’aggiornamento. 3) Intervenire sul modello di appartenenza Una credenza cambia solo quando: - il costo identitario del cambiarla si abbassa; - oppure si apre una nuova “comunità epistemica sicura”.

Ad esempio: - gruppi di discussione moderati da persone percepite come “interne” al gruppo; - contesti in cui cambiare idea non implica perdere status; - narrazioni alternative che sostengono un’identità positiva. 4) Aumentare la tolleranza all’incertezza Le fake news prosperano dove la complessità è alta e dove viene offerta una narrazione semplice che abbassa l’entropia.

Interventi che aumentano la resilienza all’incertezza (alfabetizzazione critica, esposizione graduale alla complessità, riduzione dello stress) rendono più difficile l’adozione di modelli predittivi “rigidi e consolatori”. Nuove strategie Le attuali strategie contro le fake news appaiono non del tutto efficaci perché si basano su un modello ontologico errato che presuppone l’utente razionale e non predittivo (sul mito dell’individuo razionale leggi anche:

La disinformazione come fenomeno sociale e l’emersione delle logiche da “branco”). È evidente che le fake news proliferano comunque e non è un problema solo di tecnologia.

Un’analisi complessiva, infatti, evidenzia che le fake news sono veicolate da tutti i media e si diffondono anche in ambienti non digitali. Questo porta alla conclusione che la strategia non è adeguata.

Per strutturare una strategia utile, occorre capire il funzionamento non solo della tecnologia, ma dell’ambiente cognitivo nel quale essa opera (sia essa TV, social, ecc.), ma anche capire come funziona il cervello umano. Occorre, quindi, comprendere che non serve combattere i contenuti ma bisogna intervenire sui modelli.

In sintesi, non serve puntare ai fatti ma alle predizioni, non puntare al contenuto ma all’identità, non puntare alla logica, ma alla minimizzazione dell’errore. Non sono utili smentite aggressive, né fact-checking diretto, non serve derisione né tentativi di far ragionare le persone.

Tutto ciò provoca un errore di predizione che rafforza le credenze (effetto backfire, anche se il backfire effect non è universale ma emerge con forza nei contesti ad alta salienza identitaria). Serve, invece, creare ponti predittivi compatibili col modello esistente, agire sulle micro-contraddizioni, cambiare i contesti prima delle credenze, modificare il modo in cui l’informazione viene anticipata.

Le persone non difendono una fake news, ma difendono il modello di sé e del mondo che quella notizia conferma. Se attacchi la notizia, attacchi il modello, e il cervello si difende irrigidendosi.

Per cambiare idea, devi cambiare il modello, non il fatto. Anche se i suggerimenti - ad una analisi superficiale - appaiono simili a quelli classici, la reale differenza sta nella logica operativa che cambia cosa fai, quando lo fai e perché lo fai.

La tradizionale comunicazione parte da un modello: “L’utente ha una credenza sbagliata → correggiamola con informazioni migliori”.

La comunicazione basata sul cervello predittivo parte da un modello completamente diverso: “L’utente mantiene una credenza perché gli serve per ridurre incertezza, mantenere coerenza identitaria e minimizzare l’errore nel modello interno → la correzione è percepita come minaccia → il cervello la respinge”.

Facciamo degli esempi pratici per comprendere meglio. Esempio 1: rispondere a una fake news nei commenti Commento:

“I vaccini contengono X, è tutto un complotto!” Approccio tradizionale: l’utente è male informato → gli diamo l’informazione giusta. si linka un articolo “fact-check”, si dice “questo è falso”, si spiegano i dati scientifici, si corregge l’errore. Effetto: l’utente si sente attaccato → aumenta la difesa della credenza, la discussione degenera, si alimenta la polarizzazione.

Approccio predittivo: la credenza è un modello predittivo che riduce incertezza → non va demolita, va ricalibrata. Si introduce una micro-anomalia tollerabile.

Esempio: “Capisco perché l’ingrediente X ha preoccupato molte persone.

La parte interessante è che quando è stata verificata la composizione, quel punto non torna del tutto. Ti mando un’analisi fatta proprio su quel dettaglio.” Non si dice: “è falso”.

Ma si fa notare un pezzo che non si incastra → il modello interno deve adattarsi. Effetto: niente minaccia identitaria, niente errore predittivo enorme, l’utente non può scartare l’informazione, inizia una ricalibrazione lenta.

Approccio tradizionale: correzione del contenuto. Approccio predittivo: modulazione dell’incertezza del modello interno.

Esempio 2: prevenire la diffusione di una fake news (pre-bunking) Scenario: stai comunicando come istituzione o media. Approccio tradizionale:

“Quando esce la fake news, la smentiamo”. fact-checking post-evento, campagne educative, pubblicazione di dati corretti. Problema: quando intervieni, il modello identitario si è già irrigidito.

Approccio predittivo: pre-bunking strutturale (vedi anche gli studi di Sander van der Linden e l’Inoculatiom Theory). Il cervello ama riconoscere pattern → anticipare è più efficace che correggere. prima che una fake news emerga, spieghi come funzionano le manipolazioni (pattern), rendi l’utente capace di identificarle prima che le credenze si formino.

Esempio: “Una cosa da notare online: molti video manipolati hanno un taglio in punti strategici, oppure usano musica drammatica per creare urgenza.

Se vedi quella combinazione, vale la pena fermarsi un secondo”. Effetto: quando la fake news arriva, il cervello la riconosce come pattern predittivo.

Non la integra → non serve correggere. Approccio tradizionale: correggi credenze già formate.

Approccio predittivo: modifichi in anticipo i modelli che le generano. Esempio 3: gestire un utente estremamente polarizzato Utente:

“Chi non capisce che i media sono tutti corrotti è cieco!” Approccio tradizionale argomentare, spiegare che non è vero, mostrare controprove. Problema: l’utente vive tutto ciò come attacco al gruppo di appartenenza → irrigidimento massimo.

Approccio predittivo: riduzione dell’entropia sociale Clark e Seth: “Modelli rigidi emergono quando l’ambiente cognitivo è entropico”.

Non si tenta di correggere. Si lavora sul contesto, non sul contenuto.

Esempio operativo: “Capisco la frustrazione, molti hanno espresso lo stesso timore.

Ti faccio una domanda pratica: qual è stata la prima cosa che ti ha dato questa impressione? Proviamo a guardarla insieme”.

Cosa stai facendo: riduci la minaccia (validazione emotiva), riduci l’incertezza (domanda concreta), porti l’utente nel dominio esperienziale e non identitario. Effetto:

L’utente passa da modalità “battaglia” → “spiegazione”. In questo stato è possibile introdurre micro-anomalie.

Approccio tradizionale: si tenta di convincere. Approccio predittivo: si stabilizza il contesto per poter modificare il modello.

Riassunto delle differenze operative Situazione Tradizionale Predittivo Differenza pratica Fake news nei commenti Correzione diretta Micro-anomalia Il focus non è sul contenuto ma sulla rigidità Prevenzione Fact-checking post-evento Pre-bunking sui pattern Intervento prima della formazione del modello Polarizzazione forte Argomentazione Riduzione entropia + domande Si lavora su identità → non su informazioni In breve l’approccio predittivo non cambia cosa fai, ma cambia il momento, l’ordine e la logica, e questo modifica radicalmente l’efficacia. La polarizzazione riguarda anche chi ha ragione Un punto essenziale (e difficile da comprendere) è che l’approccio tradizionale - da battaglia e non da interlocuzione pratica (“tanto non ascoltano, è inutile perdere tempo”) - porta a polarizzazione da entrambe le parti.

La teoria del cervello predittivo offre un modo più produttivo per capire perché ciò avviene e come intervenire concretamente. 1.

L’informazione non è neutra: ogni cervello parte dai propri modelli Sia il complottista che l’esperto interpretano l’interazione filtrandola attraverso il proprio sistema di previsioni: il complottista ha modelli del mondo basati su sfiducia, interpretazioni agentive e narrativa alternativa; l’esperto ha modelli basati su conoscenze, standard epistemici e norme di coerenza. Entrambi però predicono una cosa simile:

“L’altro non è affidabile”. E quando questa previsione è forte, l’evidenza contraria (l’argomento razionale) viene down-regolata.

Anche l’esperto entra in confirmation bias, ma del proprio ruolo epistemico. 2.

La polarizzazione è un comportamento autoregolativo Quando senti che il tuo modello del mondo viene sfidato in modo emotivo, aumenti la precisione del segnale interno: “Io so come stanno le cose, e non posso lasciare che il falso passi”.

È un meccanismo di difesa predittiva, non un fatto morale. 3.

La “reazione da battaglia” è una forma di riduzione dell’incertezza Quando l’altro ti sembra irraggiungibile, attaccarlo è un modo di aumentare la predizione di controllo: “Almeno so cosa aspettarmi da questo scambio”.

Di seguito alcune idee pratiche su come affrontare il problema. 1.

Ricalibrare la “precisione” dell’esperto Problema: chi ha ragione tende a dare troppa precisione alla propria previsione: “l’altro non capirà”. Intervento predittivo: allenare l’esperto a monitorare il proprio stato interno prima della risposta: tensione, irritazione, senso di frustrazione → segnali di alta precisione interna e bassa precisione sull’evidenza esterna.

Pratica operativa: Sto prevedendo che l’altro sia irrecuperabile?

Questa previsione sta guidando il mio tono/stile più dei contenuti? Qual è la minima predizione alternativa plausibile (es: “forse c’è un 5% di apertura”)?

Perché funziona: ridurre la precisione interna anche solo un po’ permette al sistema di integrare segnali nuovi invece di chiudersi in modalità marziale. 2.

Generare un “prediction error positivo” Problema: il complottista si aspetta attacco, sarcasmo o superiorità. L’esperto spesso risponde proprio in quel modo, confermando le aspettative dell’altro e rinforzando il complotto.

Intervento predittivo: rispondere in modo sistematicamente disconfermante rispetto alle aspettative dell’altro. Esempi pratici:

“Capisco perché questa informazione colpisce così. Vuoi vedere insieme da dove arriva?” “Non ti sto dicendo che hai torto: ti propongo un modo diverso per guardare gli stessi dati.” Perché funziona: introduce un prediction error positivo - una sorpresa che destabilizza (morbida mente) il modello del complottista.

Ma destabilizza anche il modello dell’esperto: “non serve la battaglia”. 3.

Spostare la conversazione dal “chi ha ragione” al “come facciamo previsioni sul mondo” Problema: il confronto diretto contenutistico è un campo di battaglia: vaccini, geopolitica, clima, élite… Intervento predittivo: spostare la discussione su meta-modelli, cioè su come valutiamo le informazioni, e non sul cosa è vero. Al posto di:

“Quello che credi è falso.” Dire: “Quando io sono incerto su un’informazione, di solito guardo X, Y e Z. Tu come fai a valutare le fonti?” Perché funziona: il cervello è più disposto a modificare processi che credenze identitarie.

Il meta-livello riduce la minaccia ai modelli profondi, e quindi la polarizzazione. L’elemento nuovo della teoria predittiva Tutto quello che si sapeva prima - empatia, tono, rispetto - resta valido.

Ma la teoria del cervello predittivo introduce due elementi nuovi: 1) La polarizzazione non è un problema morale o culturale, ma un problema di gestione della precisione predittiva.

Quindi puoi lavorarci come si lavora su un parametro, non su una conversione morale. 2) Il cambiamento avviene solo se generi prediction error tollerabile.

Questo offre criteri operativi: non sorprendere troppo → difesa non sorprendere troppo poco → conferma del modello sorprendere moderatamente → apertura È un modo molto più tecnico e meno moralistico di gestire il dialogo e la moderazione online. Un nuovo modello di responsabilità Ovviamente tutto ciò non elimina la responsabilità.

Piuttosto, in un mondo predittivo la responsabilità passa da “Hai liberamente scelto” a “Qual era il tuo campo di predizioni possibili in quel momento?”, “Qual è stato il tuo grado di controllo sui pesi di precisione?”, “Il contesto ha alterato in modo significativo la dinamica predittiva?” Tutto questo ha forti implicazioni per l’era moderna nella quale molti contenuti sono co-creati dall’AI (ricorda: le AI non producono niente da sole, c’è sempre qualcuno dietro). Il problema centrale nell’era dell’AI non è che le AI sbagliano, ma che non sappiamo come sbagliano.

Le AI e gli algoritmi in genere non agiscono secondo regole esplicite, ma apprendono pattern da enormi quantità di dati, sviluppando comportamenti emergenti. Quindi, non si può stabilire con certezza chi o cosa ha causato l’errore, e non si può dire nemmeno che qualcuno abbia voluto l’errore, perché nessuno lo ha previsto né compreso pienamente.

In questo nuovo quadro, la domanda: “Chi è responsabile se un’AI sbaglia?” non è più solo tecnica o giuridica, ma diventa ontologica.

Perché non esiste un centro unitario dell’azione, bensì una rete di cause distribuite che interagiscono tra loro. Il diritto, però, continua ad avere bisogno di un “chi”, e quindi tenta di riconfigurare la responsabilità in senso sistemico, per mantenere la capacità di imputare l’azione.

Ecco perché in un altro articolo (AI e responsabilità: la soluzione non è fermare la tecnologia, ma darle una regolamentazione) abbiamo cercato di approfondire i concetti di colpa e responsabilità, mostrando come implicitamente le nuove normative recepiscono idee che sono fondanti per le nuove teorie neuroscientifiche. Il nuovo diritto riconosce all’AI una personalità non ontologica ma funzionale limitata, facendo così emergere un nuovo livello di agency funzionale.

Non si tratta, quindi, di dare un’anima o una personalità giuridica all’AI, bensì di dare al sistema un ruolo riconoscibile nelle reti ibride (AI+umano) di decisione. Il nuovo modello di responsabilità non è più rivolto a punire il singolo ma a regolare il contesto che modella la volontà, non più a giudicare l’atto, ma il campo di relazioni in cui l’atto è nato.

Articoli simili