Select your language

Rivista di etica e scienze sociali / Journal of Ethics & Social Sciences

mandrone

pdfProgressivamente, la rete e i social sono diventati un'ulteriore dimensione della nostra vita, per cui tutte le attività analogiche, ormai, hanno un corrispettivo digitale. "Mi parli del suo Metaverso2" direbbe oggi Sigmund Freud.

Il web è fatto di relazioni: chi scrive e chi legge, chi mette una foto e chi la guarda, chi compra e chi vende. Questo meccanismo psicologico è fondamentale perché rende tutti parte del processo, creando una comunità. Proprio la reciprocità è la forza della rete: riconosce a tutti un ruolo e consente a tutti di partecipare.

La naturale tendenza delle persone che la pensano allo stesso modo a stabilire una relazione tra loro – Goethe le chiamava affinità elettive – sui social è esasperata perché, scegliendo con chi avere o meno a che fare, creano un comfort-net, un luogo sospeso dalla realtà: un posto accogliente come il bancone del bar o un falò sulla spiaggia.

Tuttavia, in alcuni casi, seguendo qualcuno e togliendo l'amicizia a qualcun altro, si finisce per separarsi dal resto delle persone, concentrandosi in comunità dense – in termini di uniformità di vedute – e autoreferenziali, dette stanze dell'eco3. Questi percorsi condizionati creano "un universo unico di informazioni per ognuno di noi, il che altera radicalmente il modo in cui incontriamo idee e informazioni" (Parisier, 2012). Così, un po’ alla volta, siamo circondati solo da punti di vista con cui siamo d'accordo, al riparo da opinioni diverse.

Non solo ci si separa (in)volontariamente ma la peristalsi di certe opinioni è determinata da algoritmi che producono percorsi artificiali, creati in base alle preferenze commerciali, simpatie politiche, cronologia delle ricerche, geolocalizzazione... che ci conducono inconsapevolmente dalle idee da cui siamo attratti.

Oggi, l'algoritmo ha sostituito monsieur Malaussène come capro espiatorio. L'algoritmo, tuttavia, in termini analitici, è una tecnica di risoluzione di problemi ricorsivi. Grazie alla potenza di elaborazione, all’intelligenza artificiale e alla convergenza digitale il suo campo di applicazione si è rapidamente esteso.

Ma il perimetro della sua azione discende dalle istruzioni che riceve. Come la condotta di una auto dipende da chi la guida, così l'equità algoritmica dipende da chi la controlla. Non c’è libero arbitrio della macchina. Kikin-Gil (2021) ammonisce "dietro ogni grande Intelligenza Artificiale c'è un grande essere umano", intendendo che è l’etica di chi governa la tecnologia che ne definisce i gradi di libertà.

Spesso la meccanica di selezione si basa sulla costruzione di un nemico4, ignobile e pericoloso, da combattere e da cui difendersi, insieme (Eco, 1982). Si fa leva sull'istinto di conservazione della specie. Ma la chiusura preventiva porta sovente a esiti peggiori dei rischi da cui ci si voleva proteggere, si pensi alla diminuzione di benessere prodotta dal medioevo o alla caduta del commercio che produce il protezionismo economico.

Ambienti tossici ci sono sempre stati e hanno un certo fascino: Auden a riguardo dei populismi del ‘900 diceva “alle persone piace leggere le proprie poesie e annusare i propri peti”. Eccita l’idea di vivere al limite della legalità, piace ascoltare quello che ci si vuol sentire dire, assecondare le proprie inclinazioni, proibire i vizi altrui. I social ti fanno sentire considerato - come gli occhi dei santi delle chiese che sembrano guardare proprio te - e ogni like è una goccia di analgesico.

In una stanza dell'eco molte controversie appaiono insolubili mentre, da fuori, appaiono facilmente risolvibili, banali o irrilevanti. Molte volte quando gli individui sono tanto coinvolti in qualcosa non riescono a riconoscere le questioni per quello che sono, mentre chi le osserva dall’esterno vede la soluzione evidente. A riguardo possiamo utilizzare il teorema di incompletezza di Gödel (1931): "solo abbandonando le regole del paradosso, il paradosso può essere risolto".

La nostra società, tipicamente, è governata da relazioni verticali, dove c'è una gerarchia tra chi insegna e chi impara, tra medico e paziente, tra esperto e cliente. Invece, nei social network c'è un rapporto orizzontale, tra pari, in cui non si conoscono le credenziali di chi sostiene qualcosa, in cui la conoscenza di un interlocutore non è accreditata da titoli ma è informale. Per cui l’opinione su un tema tecnico o complesso di un Premio Nobel vale quanto quella di una persona qualsiasi. È come se si chiedesse un parere sul bosone di Higgs prima a Fabiola Gianotti e poi al mago di Lambrate. Si confonde la convergenza fattuale della scienza con il pensiero unico, come se usare il Teorema di Pitagora fosse un atto di sottomissione alla dittatura scientifica.

La voglia di riconoscimento delle proprie istanze dovrebbe tener conto dell’oggetto della disputa. Se il confronto è su temi d’opinione (metafisica) ci si basa sulla dialettica che non ha un esito definitivo e, pertanto, non dovrebbe rientrare in uno schema binario “giusto o sbagliato”. Invece, Cattaneo (2021) ricorda come la Scienza sia intransigente: si basa solo su evidenze falsificabili (Popper, 1934), su dati condivisi tratti da esperimenti riproducibili.

Talvolta, la cardinalità della conoscenza è così piatta (e bassa) che amplifica qualsiasi opinione, acriticamente. Inoltre, si sta affermando una fiducia selettiva nella scienza: si sentono persone in coda dall’ortopedico dire di non fidarsi dei virologi. E come se chi va dal meccanico non si fidasse del gommista. Il paradosso è che l’esito della società dell’informazione sia un individuo decadente, scisso, alieno, … a-sociale.

La fenomenologia dell'alieno digitale si manifesta con: 1) fondamentalismo, convinzioni granitiche e apodittiche, unite ad aggressività compulsiva e all’incapacità di cambiare condotta davanti a evidenze incontrovertibili, anche a costo di mettere a repentaglio la propria vita, 2) proselitismo, inteso come la ricerca continua di convincere altri ad aderire ai propri convincimenti, 3) vittimismo, una sorta di mania di persecuzione e, nei casi più gravi, una lieve sindrome di Münchhausen, 4) percezione superficiale, leggere i titoli anziché gli articoli, incorporando più rumore che segnale (Silver, 2012) e 5) povertà lessicale, una tendenza alla estrema semplificazione (la guerra ucraina in due parole).

Quest’ultimo punto è dirimente. È un problema rilevante perché, come sosteneva Heidegger, riusciamo a pensare limitatamente alle parole di cui disponiamo. E questo, in un mondo complesso e articolato, in cui l’intuizione euristica non è sufficiente, polarizza le persone tra chi governa e chi è governato dal sistema.

La grande ribalta che sta avendo la lettura non-binaria di alcuni fenomeni per troppo tempo semplificati e mortificati (uomo|donna, occupato|non occupato, destra|sinistra) è il segnale che il nativo digitale vuole, rivendica, la propria unicità, e non si sente soddisfatto in una rappresentazione dicotomica; rifiuta come superato il riduzionismo insito nelle logiche classificatorie, nelle profilazioni, nella stessa volontà di incasellare a tutti i costi in categorie o idealtipi. Non è più necessario, c’è abbastanza potenza di calcolo e di memoria per una rappresentazione in alta fedeltà.

Le interazioni tra “le macchine”, tra “loro e noi” e “tra noi” sono diventate esponenziali, creando un moltiplicatore informativo così potente che il volume di dati disponibili è superiore alla nostra capacità di elaborazione. Stiamo vivendo una singolarità tecnologica: così all’aumentare dei dati, paradossalmente, aumenta l’asimmetria informativa.

L’effetto collaterale di questa espansione permanente è un effetto inflazione sull’informazione circolante con una relativa riduzione della capacità di disambiguazione dei dati, ovvero di condurre ad una soluzione condivisa. Viene compromessa la funzione aletheica ovvero la capacità di portare alla verità, intesa come l’esito della verifica di una ipotesi. In un certo senso è la conferma del monito di Kierkegaard “i numeri non decidono la verità”.

Ciò, apparentemente, è in contraddizione rispetto ad una speculazione accademica e politica sempre più data-driven: in realtà, la misurazione di fenomeni complessi è sempre più difficoltosa, quindi dobbiamo diffidare dall’uso spregiudicato dei dati: non sono più il risultato finale. È la qualità del dato che rende le interpretazioni dei fenomeni più o meno buone ma, purtroppo, la capacità di leggere correttamente i numeri è bassa. Va migliorata, non solo perché richiesta nel mondo del lavoro ma, soprattutto, perché ne va della nostra autonomia di giudizio, della propria capacità di partecipazione democratica.

Infatti, il ruolo del dato sta cambiando – da parametro di governo a costituente della realtà – diventando cruciale nella tutela dei diritti individuali. C’è una forte responsabilità nei media e nei social nel maneggiare i dati: realizzano il trasferimento della conoscenza, determinano il valore delle aziende, orientano l’opinione pubblica … sono, compiutamente, il quarto e quinto potere.

La tecnologia è come il vento forte per una barca: può far andare veloci ma è difficile da governare. Oggi, è disponibile un patrimonio informativo sterminato, in cui Eraclito si sarebbe perso alla ricerca dell’inaspettato (famosi sono i casi di scoperte non premeditate: America, Penicillina, Viagra™). Tuttavia, la capacità di riconoscere ulteriori informazioni utili (significanti o segnali) nei tanti dati disponibili, richiede una maieutica digitale, una tecnica di identificazione. La potenza di calcolo unita al machine learning rende particolarmente fertile questo sterminato humus digitale, cogliendone i frutti spontanei. Pertanto, la capacità di trovare l'inaspettato (serendipity) applicata a enormi quantità di dati, per la Legge dei grandi numeri, diventa più di una piacevole sorpresa: è un valore atteso (Mandrone 2020).

Nei sistemi complessi la misurazione è difficile da realizzare perché la misura corrompe il fenomeno osservato. Continuamente – e spesso a mani nude – affrontiamo dilemmi sociali e morali, sanitari ed economici... Per compiere scelte consapevoli, governare la complessità e le stranezze digitali5 (Mandrone, 2017 e 2021) servono competenze, cultura e una nuova scatola degli attrezzi.

Com’è noto un "grande potere implica grande responsabilità" ma la tecnologia e la relativa etica non viaggiano di pari passo: sappiamo fare auto a guida autonoma ma non a chi dare la colpa se fanno un incidente. Popov (2015) fece un test di psicometria a Cambridge: l’intelligenza artificiale esaminando 10 like prevedeva i comportamenti di un utente meglio dei suoi amici; osservando 300 like era più precisa di sua madre.

Questa capacità di predizione, ad esempio, è un male (verremo corretti quando il nostro comportamento sarà difforme dal pensiero comune, dominante, dalla norma) o è un bene (consentirà di ridurre gli incidenti stradali, il crimine, il traffico)? Dipende.

Ogni innovazione tecnica ha un rischio etico associato al suo utilizzo.

La pervasività della società digitale tocca le libertà personali, le istituzioni democratiche, i set valoriali. Il Cardinal Martini (2015) sul finire del secolo scorso, comprese la difficoltà di governare una tecnologia strabordante, esposta ad una eterogenesi dei fini così forte da renderla imprevedibile negli esiti. Serve senso del limite, quello che ha fermato alcune propaggini della fisica o della medicina, si pensi all’utilizzo dell’energia nucleare o agli scenari aperti dalla clonazione: questi fronti del progresso possono sia migliorare il genere umano che distruggerlo. Va, dunque, posto un confine etico anche alle nuove possibilità digitali?

Per partecipare all’agone mediatico, essere social-attivi, abbiamo regalato con grande nonchalance porzioni della nostra privacy. Internet è stato una “zona franca”, un non-luogo che ha vissuto una libertà assoluta, sospeso sopra gli ordinamenti nazionali. Ma la libertà non è assenza di regole. Visto il ruolo che il web e le applicazioni digitali stanno assumendo nella nostra vita, la Commissione Europea (2022) ha proposto un documento di indirizzo (data act) in cui si intende contrastare il potere degli oligopoli tecnologici e affermare la sovranità digitale degli europei.

Se telefonando – o videochiamando o digitando – potessi fare qualsiasi cosa… La bulimia tecnologica ha effetti collaterali severi: virtualizzando tutto rischiamo di perdere le capacità sensoriali e di sopire gli animal spirits, quelli che fanno agire sentimenti e princìpi. Quando i costumi sociali sono alterati – come accadde per l’aids negli anni ‘80 e oggi con il covid – serve tempo perché le normali relazioni si ristabiliscano. È come se il corpo sociale fosse afflitto da una sorta di long digital: l’esposizione eccessiva alla tecnologia e l’immersione in una realtà artificiale, disallinea i set valoriali e le capacità relazionali, per molto tempo. Occorre una rieducazione sentimentale per re-imparare a lasciarsi condurre dagli stimoli socio-emotivi (Mandrone, 2022).

La madre di tutte le transizioni è la cultura: necessaria per governare nuovi rischi, opportunità inedite, fenomeni immateriali, denaro elettronico, tratti socioeconomici fluidi, contaminazioni organiche e inorganiche.

 

Mandrone Emiliano

 

 

NOTE:

1 Una versione semplificata di questo contributo è in corso di pubblicazione su Agenda Digitale.
2 Marucci nota che il termine fu coniato da Crash (1992) in riferimento ad un virus neurolinguistico che distruggeva le menti
3 Un processo simile alla distillazione: a mano a mano si separano le impurità, fino ad ottenere un concentrato in purezza.
4 Si recupera la retorica del male contraltare del bene, una sorta di equilibrio morale generale: ogni azione ha una reazione.
5 Digital oddities, ovvero i piani ulteriori della nostra vita che ci restituisce la dimensione digitale, le opportunità sovente incomprensibili o le nuove relazioni che si vengono a costituire, inaspettatamente. Un quadro più articolato, complesso… che richiede sensibilità specifiche e apertura mentale, conoscenza e competenza, per partecipare pienamente alla transizione.

 

 

Bibliografia

Cattaneo E. (2021), Armati di scienza, Raffaello Cortina Editore.

Commissione Europea, (2022), Data Act: Commission proposes measures for a fair and innovative data economy, Brussels (https://ec.europa.eu/)

Eco U. (2012), Inventing the Enemy, Mariner Books.

Gödel K. (1931), Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, Monatshefte für, Monatshefte für Mathematik, 38, n.1, pp.173-198.

Kikin-Gil R. (2021), Guidelines for Human-AI interaction, University of Washington.

Marucci M. (2022), Il solito vecchio metaverso, Etica & Economia.

Mandrone E. (2022), Fatto il Paese digitale va fatto il cittadino digitale, Agenda Digitale

Mandrone E. (2021), Digital oddities: technological change and cultural elaboration, Sinappsi, n.3, pp.36-59

Mandrone E. (2020), Scelte consapevoli in tempi di incertezza, www.lavoce.info, 4 Aprile 2000 Mandrone E. (2017), Il ruolo sociale dell’educazione economica. Evidenze, strumenti e tutele, Sinappsi, n. 1, pp. 7-33

Martini C. M. (2015), Le cattedre dei non credenti, (opera Omnia del Cardinal C.M. Martini), Bompiani.

Pariser E. (2012), The Filter Bubble: What The Internet Is Hiding From You, Penguin Pr.

Popper K. (1934), The Logic of Scientific Discovery, Berlin, Julius Springer

Popov S. (2015), Self-evaluation and mental Health: an experimental assessment, Journal of Evidence-Based Psychotherapies, 15, n.2, pp.219-236

Silver N., (2013), The Signal and the Noise: The Art and Science of Prediction, Penguin Books.

BORSE DI STUDIO FASS ADJ

B01 cop homo page 0001Progetto senza titolo

 

 PCSTiP FASS

foto Oik 2

Albino Barrera OP  -  Stefano Menghinello  -  Sabina Alkire

Introduction of Piotr Janas OP