PAOLO BENANTI
1. Lavoro come caratteristica dell’Homo sapiens
na rapida incursione in un dizionario etimologico della lingua italiana fa scoprire che il termine lavoro deriva dall’etimo latino labor il cui significato è fatica. Questa espressione indica, nel senso comune e ampio del termine, l’applicazione di una energia, sia essa umana, animale o meccanica, al conseguimento di un fine determinato: in questi termini si può quindi parlare di lavoro dell’uomo, di una macchina, di un computer e così via. Tuttavia con il termine lavoro si indica anche un aspetto fondamentale del nostro vivere sociale: tutta l’attività produttiva, compresa da un punto di vista economico, giuridico, sindacale intesa anche come fonte di reddito individuale o comunitario. La nostra costituzione dà al lavoro una funzione fondativa della società: “l’Italia è una Repubblica democratica fondata sul lavoro”. Tuttavia per poter comprendere cosa il lavoro significhi bisogna allargare ulteriormente la prospettiva.
Questa consapevolezza appartiene anche alla Dottrina Sociale della Chiesa: “il lavoro appartiene alla condizione originaria dell’uomo”1.
Il lavoro è quindi una dimensione tipica dell’essere umano, connessa alla sua propria specificità e strettamente interconnessa e interdipendente dalla cultura e dalle relazioni sociali dell’uomo. Oggi però una nuova rivoluzione sembra poter trasformare di nuovo tutto il quadro di riferimento. Se la nascita dell’agricoltura e degli allevamenti ha dato forma alle comunità umane e ai loro utensili spingendo la fatica, il labor, in determinate forme sociali strutturate con utensili specifici, se la rivoluzione industriale ha trasformato gli utensili in macchine, elementi che usavano preva- lentemente energia non umana per realizzare compiti anche complessi ma avevano bisogno delle abilità cognitive umane, oggi le macchine, per così dire, divengono macchine sapienti/autonome. L’avvento di robot e delle intelligenze artificiali ha il potere di essere rivoluzionario e secondo qualcuno di poter metter in crisi il concetto stesso di lavoro e di necessarietà dell’uomo nel processo produttivo o nelle professioni.
2. Nuovi artefatti: la Machina sapiens
L’avvento della ricerca digitale, dove tutto viene trasformato in dati numerici porta alla capacità di studiare il mondo secondo nuovi paradigmi gnoseologici: quello che conta è solo la correlazione tra due quantità di dati e non più una teoria coerente che spieghi tale correlazione. Oggi la correlazione viene usata per predire con sufficiente accuratezza, pur non avendo alcuna teoria scientifica che lo supporti, il rischio di impatto di asteroidi anche sconosciuti in vari luoghi della Terra, i siti istituzionali oggetto di attacchi terroristici, il voto dei singoli cittadini alle elezioni presidenziali USA, l’andamento del mercato azionario nel breve termine.
Quello che appare come esito di questa nuova rivoluzione è il dominio dell’informazione, un labirinto concettuale la cui definizione più diffusa è basata sull’altrettanto problematica categoria di dati. Questa interpretazione dell’informazione come connessa al concetto di dato ha portato a sviluppare la cosiddetta Definizione Generale di Informazione (DGI) espressa in termini di dati + significato. La DGI è ormai uno standard operativo, in particolare nei campi in cui i dati e le informazioni sono trattate come entità reificate2.
L’evoluzione tecnologica dell’informazione e del mondo compreso come una serie di dati si concretizza nelle intelligenze artificiali (AI) e nei robot: siamo in grado di costruire macchine che possono prendere decisioni autonome e coesistere con l’uomo. Si pensi alle macchine a guida autonoma che Uber, il noto servizio di trasporto automobilistico privato, già utilizza in alcune città come Pittsburgh, o a sistemi di radio chirurgia come il Cyberknife o i robot destinati al lavoro affianco all’uomo nei processi produttivi in fabbrica. Le AI, queste nuove tecnologie, sono pervasive. Stanno insinuandosi in ogni ambito della nostra esistenza. Tanto nei sistemi di produzione, incarnandosi in robot, quanto nei sistemi di gestione sostituendo i server e gli analisti. Ma anche nella vita quotidiana i sistemi di AI sono sempre più pervasivi. Gli smartphone di ultima generazione sono tutti venduti con un assistente dotato di intelligenza artificiale, Cortana, Siri o Google Hello – per citare solo i principali –, che trasforma il telefono da un hub di servizi e appli- cazioni a un vero e proprio partner che interagisce in maniera cognitiva con l’utente. Sono in fase di sviluppo sistemi di intelligenza artificiale, i bot, che saranno disponibili come partner virtuali da interrogare via voce o in chat che sono in grado di fornire servizi e prestazioni che prima erano esclusiva di particolari professioni: avvocati, medici e psicologi sono sempre più efficientemente sostituibili da bot dotati di intelligenza artificiale. Il mondo del lavoro conosce oggi una nuova frontiera: le interazioni e la coesistenza tra uomini e intelligenze artificiali. Prima di addentrarci ulteriormente nel significato di questa trasformazione dobbiamo considerare un implicito culturale che rischia di sviare la nostra comprensione del tema. Nello sviluppo delle intelligenze artificiali (AI) la divulgazione dei successi ottenuti da queste macchine è sempre stata presentata secondo un modello competitivo rispetto all’uomo. Per fare un esempio IBM ha presentato Deep Blue come l’intelligenza artificiale che nel 1996 riuscì a sconfiggere a scacchi il campione del mondo in carica, Garry Kasparov e sempre IBM nel 2011 ha realizzato Watson che ha sconfitto i campioni di un noto gioco televisivo sulla cultura generale Jeopardy!. Queste comparse mediatiche delle AI potrebbero farci pensare che questi sono sistemi che competono con l’uomo e che tra Homo sapiens e questa nuova machina sapiens/machina autonoma si sia instaurata una rivalità di natura evolutiva che vedrà un solo vincitore e condannerà lo sconfitto a una inesorabile estinzione. In realtà queste macchine non sono mai state costruite per competere con l’uomo ma per realizzare una nuova simbiosi tra l’uomo e i suoi artefatti: (homo+machina) sapiens3. Non sono le AI la minaccia di estinzione dell’uomo anche se la tecnologia può essere pericolosa per la nostra sopravvivenza come specie: l’uomo ha già rischiato di estinguersi perché battuto da una macchina molto stupida come la bomba atomica. Tuttavia esistono sfide estremamente delicate nella società contemporanea in cui la variabile più importante non è l’intelligenza ma il poco tempo a disposizione per decidere e le macchine cognitive trovano qui grande interesse applicativo.
Si aprono a questo livello tutta una serie di problematiche etiche su come validare la cognizione della macchina alla luce proprio della velocità della risposta che si cerca di implementare e ottenere. Tuttavia il pericolo maggiore non viene dalle AI in se stesse ma dal non conoscere queste tecnologie e dal lasciare decidere sul loro impiego a una classe dirigente assolutamente non preparata a gestire il tema.
Se l’orizzonte lavorativo del prossimo futuro – in realtà già del nostro presente – è quello di una cooperazione tra intelligenza umana e intelligenza artificiale e tra agenti umani e agenti robotici autonomi, diviene urgente cercare di capire in che maniera questa realtà mista, composta da agenti autonomi umani e agenti autonomi robotici, possa coesistere.
3. Primum non nocere
Il primo e più urgente punto che le intelligenze artificiali pongono nell’agenda dell’innovazione del lavoro è quello di adattare le nostre strutture sociali a questa nuova e inedita società fatta di agenti autonomi misti.
Una primissima sfida è di natura filosofica e antropologia. Queste frontiere delle innovazioni, la realizzazione di queste macchine sapiens, per utilizzare un termine molto evocativo, ci interroga in profondità sulla specificità dell’Homo sapiens e in particolare su quale sia la specifica componente e qualità umana del lavoro rispetto a quella macchina: le rivoluzioni industriali hanno dimostrato che non è l’energia, non è la velocità e, ora, che anche la cognizione e l’adattabilità alla situazione non sono specifiche solamente umane.
La ricerca di risposte su questo tema è quanto mai urgente e importante per non sancire un declino dell’uomo negli orizzonti del postumano. Gli appartenenti a questa corrente di pensiero propugnano l’idea di un uomo in crisi, incapace di saper gestire le macchine che lui stesso ha creato. L’uomo sarebbe destinato ad essere con- finato in un passato fatto di residui archeologici4.
Il postumano si configura, quindi, attorno all’idea centrale di un’umanità sconfitta dal suo stesso progresso5.
Un secondo, e altrettanto urgente tema, è quello di definire come e in che maniera si può garantire la coesistenza tra uomo e AI, tra uomo e robot. Per rispondere a questa domanda procederemo nel seguente modo. In primo luogo cercheremo di formulare una direttiva fonda- mentale che deve essere garantita dalle AI e dai robot e poi cercheremo di definire cosa questi sistemi cognitivi autonomi devono imparare per poter convivere e lavorare cooperativamente con l’uomo.
La prima e fondamentale direttiva da implementare può essere racchiusa nell’adagio latino primum non nocere. La realizzazione di tecnologie controllate da sistemi di AI porta con sé una serie di problemi legati alla gestione dell’autonomia decisionale di cui questi apparati godono. La capacità dei robot di mutare il loro comportamento in base alle condizioni in cui operano, per analogia con l’essere umano, viene definita autonomia. Per indicare tutte le complessità che derivano da questo tipo di libertà decisionale di queste macchine si è introdotto il termine Artificial Moral Agent (AMA): parlando di AMA si indica quel settore che studia come definire dei criteri informatici per creare una sorta di moralità artificiale nei sistemi AI portando alcuni studiosi a coniare l’espressione macchine morali per queti sistemi6. Quando si usa il termine autonomia legato al mondo della robotica si vuole intendere il funzionamento di sistemi di AI la cui program- mazione li rende in grado di adattare il loro comportamento in base alle circostanze in cui si trovano ad operare7. Un esempio classico di applicazione di questa direttiva fondamentale, chiamato situazione dei due carrelli, è stato formulato da Philippa Foot nel 1967 mentre si sperimentavano i primi sistemi di guida automatica dei mezzi per il trasporto di passeggeri negli aeroporti. Nel caso presentato dalla Foot un veicolo si avvicina a un incrocio e realizza che un altro veicolo, con cinque passeggeri, in direzione opposta è in traiettoria di collisione. Il primo veicolo può o continuare sulla sua traiettoria e urtare il veicolo che procede verso uccidendo i cinque passeggeri a bordo, o sterzare e colpire un pedone uccidendolo. La Foot si chiedeva: se noi fossimo alla guida del veicolo cosa faremmo? E un sistema robotizzato cosa dovrebbe fare? Giungendo alla conclu- sione che la macchina autonoma deve essere programmata per evitare assolutamente di ferire o uccidere l’essere umano e che, se in situazioni estreme, non fosse possibile evitare di nuocere all’uomo avrebbe dovuto scegliere il male minore8.
Tuttavia racchiudere tutta la questione degli agenti morali autonomi, dell’utilizzo di robot cognitivi in un ambiente di lavoro misto umanorobotico non può esaurirsi in questa direttiva primaria. Sfruttando un linguaggio evocativo potremmo dire che le macchine sapienti/autonome per poter coesistere con i lavoratori umani devono imparare almeno quattro cose. Questi quattro el- ementi possiamo capirli come una declinazione operativa della dignità insita nel lavoratore umano. Solo se le macchine sapranno interagire con l’uomo secondo queste direzioni allora non solo non nuoceranno alla persona ma ne sapranno tutelare la dignità e l’inventività senza mortificarne l’intrinseco valore.
a. Intuizione
Quando due esseri umani cooperano normalmente l’uno riesce ad anticipare e assecondare le intenzioni dell’altro perché riesce ad intuire cosa sta facendo o cosa vuole fare. Si pensi alla situazione in cui vediamo una persona che cammina con le braccia piene di pacchi. Istintivamente capiamo che la persona sta trasportando quei pacchi e la aiutiamo rendendole il lavoro più semplice o trasportando per lei parte del fardello che le ingombra le braccia. Questa capacità umana è alla base della grande duttilità che caratterizza la nostra specie e che ci ha permesso di organizzarci fin dai tempi più antichi riuscendo a cooperare nella caccia, nell’agricoltura e poi nel lavoro. In un ambiente misto uomo-robot le AI devono essere in grado di intuire cosa gli uomini vogliono fare e adattarsi alle loro intenzioni cooperando. Solo in un ambiente di lavoro in cui le macchine sapranno capire l’uomo e assecondare il suo agire potremo veder rispettato l’ingegno e la duttilità umana. La macchina si deve adattare all’uomo e alla sua unicità e non viceversa.
b. Intellegibilità
I robot in quanto macchine operatrici funzio- nano secondo algoritmi di ottimizzazione. I software ottimizzano l’uso energetico dei loro servomotori, le traiettorie cinematiche e le velocità operative. Se un robot deve prendere un contenitore cilindrico da una fila di contenitori il suo braccio meccanico scarterà verso il contenitore prescelto secondo una traiettoria di minimo consumo energetico e temporale. Un uomo di contro se deve prendere lo stesso barattolo si muoverà verso di quello in una maniera che fa capire a chi gli è intorno cosa stia tentando di fare. L’uomo è in grado, nel vedere un altro uomo che compie un’azione, di capire cosa stia per fare in forza non dell’ottimizzazione dell’azione altrui ma della sua intellegibilità. Il modo di compiere le azioni rende l’agito intellegibile e prevedibile. Se vogliamo garantire un ambiente di lavoro misto in cui l’uomo possa coesistere con la macchina il modo di compiere le azioni della macchina dovrà essere intellegibile. Dovremmo far sì che la persona che condivide con la macchina lo spazio di lavoro possa sempre essere in grado di intuire qual è l’azione che la macchina sta per compiere. Questa caratteristica è necessaria, tra l’altro, per permettere all’uomo di coesistere in sicurezza con la macchina non esponendosi mai a eventuali situazioni dannose. Non è l’ottimizzazione dell’agito della macchina la più importante finalità che deve caratterizzare i suoi algoritmi ma il rispetto dell’uomo.
c. Adattabilità
Un robot dotato di AI si adatta all’ambiente e alle circostanze per compiere delle azioni autonome. Tuttavia non si tratta di progettare e realizzare algoritmi di intelligenza artificiale che siano in grado di adattarsi solo all’imprevedibile condizione dell’ambiente donando alla macchina una sorta di consapevolezza sulla realtà che la circonda. In una situazione di cooperazione e lavoro mista tra uomo e macchina il robot deve adattarsi anche alla personalità umana con cui coopera. Per esemplificare questa caratteristica proviamo a fare un esempio. Supponiamo di avere un’automobile a guida autonoma. La macchina dovrà adattarsi alle condizioni del traffico: in condizioni di intenso traffico se la macchina non possiede degli efficienti algoritmi di adattabilità rischia di rimanere sempre ferma perché gli altri veicoli a guida umana le passeranno sempre avanti cercando di evitare l’ingorgo. Oppure se non fosse abbastanza adattabile rischierebbe di causare degli incidenti non capendo l’intenzione furtiva di cambiare corsia del guidatore che ha davanti. Tuttavia vi è un ulteriore e più importante adattamento che la macchina deve saper fare: quello alla sensibilità dei suoi passeggeri. Qualcuno potrebbe trovare la lentezza della macchina nel cambiare corsia esasperante o, al contrario, potrebbe trovare il suo stile di guida troppo aggressivo e vivere tutto il viaggio con l’insostenibile angoscia che un incidente sia imminente. La macchina deve adattarsi alla personalità con cui interagisce. L’uomo non è solo un essere razionale ma anche un essere emotivo e l’agire della macchina deve essere in grado di valutare e rispettare questa unica e peculiare caratteristica del suo partner di la- voro. La dignità della persona è espressa anche dalla sua unicità. Saper valorizzare e non mortificare questa unicità di natura razionale-emotiva è una caratteristica chiave per una coesistenza che non sia un detrimento della parte umana.
b. Adeguatezza degli obiettivi
Un robot è governato da degli algoritmi che ne determinano delle linee di condotta. Si pensi a uno di quei robot casalinghi in vendita nei negozi di elettrodomestici che in maniera autonoma pulisce il pavimento raccogliendo la polvere. I suoi algoritmi sono programmati per questo ma il robot è programmato per raccogliere la polvere o per raccogliere il massimo della polvere possibile? Se in un ambiente di sole macchine l’assolutezza dell’obiettivo è una policy adeguata in un ambiente misto di lavoro uomo-robot questo paradigma non sembra essere del tutto valido. Se il robot vuole interagire con la persona in una maniera che sia conveniente e rispettosa della sua dignità deve poter aggiustare i suoi fini guardando la persona e cercando di capire qual è l’obiettivo adeguato in quella situazione. Si pensi a una situazione in cui un lavoratore e un robot cooperino nella realizzazione di un artefatto. Il robot non può avere come unica policy l’assolutezza del suo obiettivo come se fosse la cosa più importante e assoluta ma deve saper adeguare il suo agire in funzione dell’agire e dell’obiettivo che ha la persona che con lui coopera. In altri termini si tratta di acquisire, ci si perdoni il termine, una sorta di umiltà artificiale che, tornando all’esempio del robot aspirapolvere, consenta alla macchina di comprendere se deve aspirare tutta la polvere possibile o in questo momento aspirare solo un po’ di polvere e poi tornare a compiere questa funzione più tardi perché sono sorte altre priorità nelle persone che in quel momento sono nella stanza. Si tratta di stabilire che la priorità operativa non è nell’algoritmo ma nella persona che è luogo e sede di dignità. In un ambiente misto è la persona e il suo valore unico ciò che stabilisce e gerarchizza le priorità: è il robot coopera con l’uomo e non l’uomo che assiste la macchina.
Se queste quattro direttrici possono essere quattro dimensioni di tutela della dignità della persona nella nuova e inedita relazione tra uomo e macchina sapiens/autonoma bisogna poterle garantire in maniera certa e sicura. Si devono allora sviluppare degli algoritmi di verifica indipendenti che sappiano in qualche modo quantificare e certificare questa capacità di intuizione, intellegibilità, adattabilità e adeguatezza degli obiettivi del robot. Questi algoritmi valutativi devono essere indipendenti e affidati ad enti terzi certificatori che si facciano garanti di questo. Serve implementare da parte del governo un framework operativo che, assumendo questa dimensione valoriale, la trasformi in strutture di standardizzazione, certificazione e controllo che tutelino la persona e il suo valore in questi ambienti misti uomo-robot. Si tratta di realizzare organismi che siano in qualche modo analoghi a quanto già in essere per la “Direttiva Macchine”: con l’entrata in vigore del DPR 459/1996 l’Italia era entrata a far parte dell’insieme degli Stati Europei che, avendo recepito la “Direttiva Macchine”, garantiscono la libera circolazione nel mercato comune europeo soltanto alle macchine che, rispettando determinati requisiti di sicurezza, possiedono la marcatura CE di conformità, la quale può essere rilasciata dal fabbricante o certificata da un organismo verificatore ufficiale. Ora non si tratta semplicemente di fare controlli sulla sicurezza di installazione e delle condizioni operative delle macchine ma di garantire che la componente autonoma di questi nuovi artefatti intelligenti rispetti sempre e in ogni condizione le direttive etiche fondamentali che abbiamo tracciato. Per cui non bastano standard ma servono algoritmi che sappiano valutare in maniera intelligente l’adeguatezza delle intelligenze artificiali destinate a coesistere e cooperare con il lavoratore umano. Solo in questa maniera potremmo non subire l’innovazione tecnologica ma guidarla e gestirla nell’ottica di un autentico sviluppo umano anche nell’era dei robot e delle intelligenze artificiali.
4. La governance dello sviluppo
Una corretta impostazione del dibattito etico dovrà tener conto quindi anche di tutti quei criteri che possano favorire o orientare verso il bene comune le innovazioni tecnologiche.
Sembra molto importante l’intuizione della necessità di creare organismi o istituzioni che garantiscano la governance delle tecnologie legate alle intelligenze artificiali. Solo realizzando dei luoghi istituzionali dove queste forme di dialogo etico e di regolamentazione delle biotecnologie possano avvenire si potrà affrontare una reale ricerca oggettiva del bene. Solo se le riflessioni e il confronto per un discernimento etico trovano una struttura politica che abbia realmente il potere di gestire le tecnologie legate alle intelligenze artificiali si può pensare a far fronte e gestire, secondo una sincera e oggettiva ricerca del bene, la complessità del mondo tecnologico con tutte le problematiche a questo connesse. L’alternativa, nella migliore delle ipotesi, è formulare proposte o valutazioni che si risolvano in un flatus vocis privo di efficacia storica.
La gestione della tecnica-tecnologia e il suo sviluppo in un prossimo futuro richiede, quindi, una gestione di tipo politico-economico. Per questo tipo di gestione si è soliti parlare di governance9, un termine che si riferisce all’esistenza di un nuovo modo di organizzare e amministrare territori e popolazioni10.
Il legame che si instaura tra governance e sviluppo è biunivoco: da un lato apporre il termine sviluppo affianco del termine governance indica il rimettere al centro del vivere sociale, come un fine, la persona; contemporaneamente indicare che lo sviluppo necessita di una governance significa assumere la dimensione etica non come un elemento giustapposto nella gestione e indirizzo dell’innovazione tecnologica ma riconoscere che questa porta una serie di domande di senso che si collocano proprio nel cuore di ogni autentico sviluppo.
Quindi un’autentica governance della tecnologia non si fonderà su considerazioni di ordine morali che si collochino
ai margini dello sviluppo e si [...] [concretizzino] nell’elaborare strumenti correttivi, sia a livello individuale, o comunque privato, sia a livello istitu- zionale [...] [ma cercherà] l’efficacia, anche dal punto di vista della produzione, di un’azione che coinvolga singoli e gruppi nella complessità di un impegno non solo settoriale, un impegno che non perda di vista la persona nella sua interezza11.
La governance dello sviluppo si presenta, per i significati che questo termine assume, come l’attuazione possibile e la corretta prassi di governo, frutto di quelle analisi etiche sul mondo della tecnologia radicate nella Dottrina Sociale della Chiesa, che anima la riflessione ecclesiale nell’ambito dell’azione intramondana del credente. La governance è lo spazio ove le considerazioni antropologiche ed etiche, in un mutuo scambio e dialogo, devono divenire forze efficaci per plasmare e guidare l’innovazione tecnologica, rendendola autentica fonte di sviluppo umano. Questo spazio di azione politico-economico, che costituisce la governance della tecnologia, si presenta allora come un appello obbligante alle coscienze: portare frutti nella carità per la vita del mondo12 si deve tradurre, quindi, nell’impegno per una governance della tecnologia.
È evidente, per la natura stessa dell’innovazione tecnologica, che una governance sarà efficace solo se si configura come momento di dialogo e confronto tra le diverse competenze fornite dalle scienze empiriche, dalla filosofia, dalla teologia, dalle analisi moral-teologiche e da ogni altra forma di sapere umano coinvolto nei fenomeni descritti13.
In particolare il ruolo della riflessione moralteologica in questo processo di governance, come emerso nelle considerazioni fatte, sta non tanto nell’individuare direttamente soluzioni tecniche ai vari problemi ma nel rendere presente, nel dibattito, la domanda critica sul senso dell’umano che l’innovazione tecnologica media e sulle modalità che possano garantire uno sviluppo umano autentico14. Inoltre la riflessione moral- teologica, forte di quei principii cardine che animano la Dottrina Sociale della Chiesa potrà contribuire a realizzare una governance della tecnologia che sia capace di tutelare la dignità della persona umana15.
NOTE
1 PONTIFICIO CONSIGLIO DELLA GIUSTIZIA E DELLA PACE,
Compendio della dottrina sociale della Chiesa, Libreria Editrice Vaticana, Città del Vaticano, 2004, n. 256.
2 Non abbiamo qui modo di affrontare la questione. Ri- mandiamo al testo di L. Floridi (L. FLORIDI, La rivoluzione dell’informazione, Codice, Torino 2012).
3 Cf. J. E. KELLY - S. HAMM, Macchine intelligenti. Watson e l’era del cognitive computing, Egea, Milano 2016, 5-42.
4 Cf. P. BENANTI, The Cyborg. Corpo e corporeità nel- l’epoca del postumano, Cittadella, Assisi 2012.
5 Il tema per quanto affascinante non può essere affrontato in questa sede, rimandiamo a F. OCCHETTA – P. BENANTI, “La politica di fronte alle sfide del postumano”, in La Civiltà Cattolica 3954, I (2015), 572-584.
6 Cf. W. WALLACH - C. ALLEN, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press, New York 2008, 55-79.
7 Cf. E. YUDKOWSKY, “Levels of Organization in General Intelligence”, in Artificial General Intelligence (Cognitive Technologies), (a cura di Goertzel, B., Pennachin, C.), Springer, Berlin 2007, 389-498.
8 Cf. W. WALLACH - C. ALLEN, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press, New York 2008, 13 e R. ARKIN, Governing Lethal Behavior in Autonomous Robots, Chapman & Hall, Boca Raton 2009, 37-47
9 Il termine anglosassone governance è derivato dal francese antico e, privo di un sostantivo corrispondente nella lingua italiana, negli ultimi venti anni è diventato popolare nel dibattito politico e accademico e tende a sostituire l’uso del termine government (cf. ORGANISATION FOR ECONOMIC CO-OPERATION AND DEVELOPMENT, OECD Economic Glossary. English-France, OECD, Paris 2006, 236).
10 La stessa definizione del concetto di governance ha subito cambiamenti e integrazioni, seppure in generale si può sostenere che economisti, politologi ed esperti di relazioni internazionali, lo hanno usato, innanzitutto, per marcare una distinzione, e una contrapposizione, con il go- vernment inteso quale istituzione, apparato e organizzazione (cf. ibidem, 236 e COMMISSIONE DELLE COMUNITÀ EUROPEE, «La governance - Un libro bianco» in Gazzetta Ufficiale dell’Unione Europea 287(2001), 1-29).
11 P. LACORTE, G. SCARAFILE, R. BALDUZZI (edd.), La governance dello sviluppo: etica, economia, politica, scienza, 43.
12 Questo è il compito che il Concilio Vaticano II identifica per la teologia morale: «Si ponga speciale cura nel perfezionare la teologia morale, in modo che la sua esposizione scientifica, più nutrita della dottrina della sacra Scrittura, illustri la grandezza della vocazione dei fedeli in Cristo e il loro obbligo di apportare frutto nella carità per la vita del mondo» (CONCILIO ECUMENICO VATICANO II, Decreto sulla formazione sacerdotale Optatam totius, 28 ottobre 1965, n.16).
13 Cf. A. RIGOBELLO, «Dinamiche interne ad un’etica coinvolta nella governabilità dello sviluppo», 43-48 e S. LATOUCHE, «Altri mondi sono possibili, non un’altra mon- dializzazione», in La governance dello sviluppo: etica, eco- nomia, politica, scienza, 25-42.
14 Sul ruolo della teologia morale in relazione alle altre discipline si veda: D. ABIGNENTE, S. BASTIANEL, Le vie del bene. Oggettività, storicità, intersoggettività; S. BASTIANEL,
«Storicità e assoluto in Teologia morale»,79-92; ID., Teologia morale fondamentale. Moralità personale, ethos, etica cri- stiana; R. GERARDI, Storia della morale. Interpretazioni teologiche dell’esperienza cristiana: periodi e correnti, autori e opere, Dehoniane, Bologna 2003, 477-503.
15 Cf. A. RIGOBELLO, «Dinamiche interne ad un’etica coinvolta nella governabilità dello sviluppo», 43-48.