Expirado
Cátedras

Ponencia (en italiano) del economista Stefano Zamagni para el seminario que organizó el Foro Ecuménico Social junto con el Dicasterio para el Servicio del Desarrollo Humano Integral.

1.             Introduzione

In questo scritto mi occuperò di un aspetto specifico, eppure di grande momento, del fenomeno delle tecnologie convergenti: in qual senso e in che modo la 4° Rivoluzione Industriale “tocca” la nostra condizione di vita e incide sull’articolazione delle nostre società. E’ ormai generalmente acquisito che quello attuale è un vero e proprio passaggio d’epoca; non dunque una naturale evoluzione o una semplice magnificazione di tendenze già in atto durante la lunga fase della società industriale. Ed è pure ampiamente noto che all’origine della attuale transizione, in aggiunta alla 4° Rivoluzione Industriale, v’è il fenomeno della globalizzazione. Ma mentre intorno a quest’ultimo la letteratura è già schiera, non altrettanto può dirsi in riferimento all’altro fenomeno di portata epocale. Non sappiamo ancora come le nuove tecnologie e la cultura che le governa modificheranno l’essenza del capitalismo degli anni prossimi. Sappiamo però che è in atto una nuova grande trasformazione di tipo polanyiano – come recita il titolo del libro di F. Seghezzi (La nuova grande trasformazione. Lavoro e persona nella quarta rivoluzione industriale, Adapt University Press, Bergamo, 2017).

In questa sede, non mi occuperò di illustrare e neppure di commentare le caratteristiche di natura  tecnica del nuovo modo di produzione conseguente alla rivoluzione digitale. Mi soffermerò, invece, sulle conseguenze che i cambiamenti strutturali in atto stanno avendo su tre fronti specifici: quello del lavoro umano, quello della democrazia; quello dell’etica pubblica. E’ maldestramente riduttivo identificare la quarta rivoluzione industriale unicamente come un nuovo paradigma tecnologico. Insistere, come purtroppo la più parte della letteratura in argomento va facendo, solamente su tale dimensione non permette di cogliere gli elementi di rottura sui fronti sociale e culturale che questo fenomeno emergente sta evidenziando. Il che non consente di impostare linee di intervento all’altezza delle sfide odierne. Conviene che precisi fin da subito la prospettiva di sguardo dalla quale mi colloco per  scrutare questa realtà. Chi scrive non si riconosce né nella posizione dei “laudatores temporis acti”, dei cosiddetti tecno-pessimisti, nè in quella degli esaltatori acritici delle “magnifiche sorti progressive” dell’umanità. Se hanno torto i laudatori della Quarta rivoluzione industriale, non hanno ragione i suoi denigratori. Considero, infatti, l’attuale traiettoria tecno-scientifica come qualcosa in sé positivo, e comunque inarrestabile, che però va governata con saggezza (cioè con ragionevolezza) e non solo con competenza (cioè con razionalità). Ha scritto il celebre filosofo della scienza G.H. von Wright (1987): “I giudizi di ragionevolezza sono orientati verso il valore; essi vertono […] su ciò che si ritiene buono o cattivo per l’uomo. Ciò che è ragionevole è senza dubbio anche razionale, ma ciò che è meramente razionale non è sempre ragionevole”. E’ ovvio che così sia, se si considera che la 4° Rivoluzione Industriale non è un dato di natura, ma è opera dell’uomo che vive in società e dunque da questi può (e deve) essere governata.

Per meglio comprendere il punto sollevato è opportuno spendere una parola di chiarimento sulla nozione di sviluppo, parola oggi fin troppo inflazionata. In senso etimologico, sviluppo indica l’azione di liberare dai viluppi, dai lacci e catene che inibiscono la libertà di agire. (La “s” con cui inizia la parola sta per “dis” e conferisce un senso contrario alla parola cui sta unita). È soprattutto ad Amartya Sen che si deve, in questo tempo, la insistenza sul nesso tra sviluppo e libertà: sviluppo come processo di espansione delle libertà reali di cui godono gli esseri umani (si veda il suo Sviluppo è Libertà, Milano, Mondadori, 2000). In biologia, sviluppo è sinonimo di crescita di un organismo. Nelle scienze sociali, invece, il termine indica il passaggio da una condizione a un’altra e quindi chiama in causa la nozione di cambiamento (come quando si dice: quel paese è passato dalla condizione di società agricola a quella di società industriale). In tal senso, il concetto di sviluppo è associabile a quello di progresso. Si badi però che quest’ultimo non è un concetto meramente descrittivo, giacché comporta un implicito, eppure indispensabile, giudizio di valore. Il progresso, infatti, non è un semplice cambiamento, bensì un cambiamento verso il meglio e quindi implica un incremento di valore. Se ne trae che il giudizio di progresso dipende dal valore che si intende prendere in considerazione. In altro modo, una valutazione del progresso e quindi dello sviluppo richiede la determinazione di che cosa debba procedere verso il meglio. I robot, anche quelli dotati di intelligenza artificiale, non sono, né mai saranno, adeguati alla bisogna.

Il punto centrale da annotare ai fini di quanto si dirà nei paragrafi successivi è che lo sviluppo non può essere ridotto alla sola crescita economica – ancor’oggi misurata da quell’indicatore a tutti noto che è il PIL –, la quale è bensì una sua dimensione, ma non l’unica di certo. Le altre due sono quella socio-relazionale e quella spirituale. Ma – si badi – le tre dimensioni stanno tra loro in una relazione moltiplicativa, non additiva. Il che significa che non è possibile sacrificare la dimensione, poniamo, socio-relazionale per fare aumentare quella della crescita – come oggi sta malauguratamente accadendo. In una produttoria, anche se un solo fattore viene annullato è l’intero prodotto che diventa zero. Non così in una sommatoria, dove l’azzeramento di un addendo non annulla la somma totale; anzi potrebbe persino accrescerla. E’ qui la grande differenza tra bene totale (la somma dei beni individuali) e bene comune (il prodotto dei beni individuali): è impossibile, a rigore, parlare di crescita solidale e inclusiva, mentre si può e si deve parlare di sviluppo solidale e inclusivo. In buona sostanza, lo sviluppo umano integrale è un progetto trasformazionale che ha a che vedere col cambiamento in senso migliorativo della vita delle persone. La crescita, invece, non è di per sé una trasformazione. Ed è per questo che, come la storia insegna, si sono dati casi di comunità o nazioni che sono declinate crescendo. Lo sviluppo appartiene all’ordine dei fini, mentre la crescita, che è un progetto accumulativo, appartiene all’ordine dei mezzi. Un apologo ironico, di autore ignoto, ci permette di afferrare il punto in questione. Un economista cercava di dimostrare che la crescita è il fattore decisivo per lo sviluppo. “Questa è la legge sia dell’economia sia della natura: ogni crescita è buona in se stessa”. Tra gli uditori della conferenza si levò una mano e una voce esitante esclamò: “Purtroppo, però, la pensa così anche la cellula cancerosa”!

            In quel che segue, dopo aver illustrato (par.2) talune caratteristiche salienti delle cosiddette tecnologie convergenti – quelle che risultano dalla combinazione sinergica delle nanotecnologie, biotecnologie, tecnologie dell’informazione, scienze cognitive: in acronimo NBIC –, passerò ad occuparmi delle tre questioni sopra indicate (parr.3-5) L’espressione “tecnologie convergenti” discende dalla circostanza che nella 4° rivoluzione industriale non c’è stata una nuova scoperta o innovazione di rottura, come invece è stato il caso in tutte e tre le rivoluzioni precedenti. (Per fare memoria: 1784 con la invenzione della macchina a vapore si afferma la prima rivoluzione industriale; 1870, con l’avvento dell’elettricità e della chimica, prende avvio la seconda; inizio anni 70, con la nascita dell’informatica, la terza rivoluzione industriale).  Le quattro nuove tecnologie del gruppo NBIC sono il frutto maturo della terza rivoluzione industriale, la quale cede il passo alla quarta verso la fine del secolo scorso.  (M. Rocco, W. Bainbridge, a cura di, Converging Technologies for Improving Human Performance, National Science Foundation, June 2002). Chiuderò il saggio con una breve riflessione sulla inadeguatezza della cultura individualistico-libertaria, oggi dominante, a raccogliere le sfide della transizione in corso.

 

2.              Le “res novae” della 4° rivoluzione industriale

 

La promessa di un potenziamento, e quindi di una trasformazione, sia dell’uomo sia della società, che le tecnologie convergenti del gruppo NBIC oggi fanno dà conto della straordinaria attenzione che la tecnoscienza va ricevendo in una pluralità di ambiti, da quello culturale a quello scientifico, da quello economico a quello politico. Il fine perseguito non è solamente il potenziamento della mente, e neppure solamente l’aumento della capacità diagnostica e terapeutica nei confronti di tutta una gamma di patologie, e neppure ancora il miglioramento dei modi di controllo e manipolazione delle informazioni.  Ciò verso cui si vuole tendere è l’artificializzazione dell’uomo e, al tempo stesso, l’antropomorfizzazione della macchina. E’ a Julien Huxley che si deve l’invenzione della parola transumanesimo, per descrivere un mondo futuro in cui, al posto delle opposizioni tra gli esseri, avremo una continua ibridazione dell’umano. Come movimento globale, il transumanesimo si è sviluppato nella Silicon Valley, grazie agli interventi di Google e Apple il cui scopo è costruire un “uomo aumentato” nelle sue capacità.  E’ su questo che  è oggi urgente sollevare il velo del silenzio, aprendo un dibattito di alto profilo. La questione, infatti, tocca il livello antropologico. Due le concezioni di uomo che si vanno confrontando: quella dell’uomo-persona e quella dell’uomo-macchina. Quest’ultima sta guadagnando terreno sulla prima. Il che spiega, tra l’altro, perché l’ideale dell’uomo-macchina stia determinando oggi una vera e propria emergenza educativa: la formazione/istruzione ha preso il posto dell’educazione. L’uomo-macchina “chiede” istruzione; non gli serve l’educazione. E’ alla teoria dell’equilibrazione che si fa riferimento, secondo la quale il motore dello sviluppo mentale del bambino e del giovane è un processo di adattamento cognitivo a impulsi provenienti dell’esterno. (Rinvio, per una stimolante trattazione critica, a L. Palazzani, Il potenziamento umano. Tecnoscienza, Etica e Diritto, Torino, 2015, dove viene pure affrontato il problema dell’editing del genoma, cioè la deliberata riscrittura di uno o più capitoli del patrimonio genetico contenuto nelle cellule.).

Nulla di più meccanicistico; una visione questa ispirata al principio dell’omeostasi, lo stesso che è alla base delle teorie cibernetiche. Un segnale inquietante di tale riduzionismo è la progressiva scomparsa della figura dell’educatore. Il maestro-insegnante è ridotto a facilitare o mediatore che non deve educare, ma solamente favorire il processo di autoapprendimento ovvero di autoformazione, perché ha valore solo ciò che si è fatto da sé. E’ questa una delle più devastanti conseguenze dell’individualismo libertario, di cui dirò nell’ultimo paragrafo. (Giunge alla memoria il pensiero di H. Arendt, secondo cui maestro è chi si assume la responsabilità del mondo in cui vive l’allievo). Non solo, ma l’antiautoritarismo declamato – non bisogna condizionare né guidare le scelte “libere” del soggetto – nasconde in realtà una visione autoritaria: solo l’esperto di autoformazione può parlare di scuola. Ma i metodi didattici non danno conoscenza, né consentono di misurarla in modo oggettivo, come si tende a credere. Può essere d’interesse ricordare che già oggi disponiamo di prove che denunciano la dipendenza da iPhone di un numero crescente di giovani – sindromi depressive, diminuzione delle capacità di concentrazione, soprattutto tra i giovani “drogati” di smartphone – (J. Twenge, iGen, New York 2017). Tanto che due tra i più grossi fondi d’investimento americani (Calstrs, fondo pensione degli insegnanti californiani, e l’hedge fund Jana Partners) hanno formalmente invitato Apple ad intervenire per modificare l’intensità e le modalità d’uso della nuova macchina e per approntare misure specificamente rivolte agli insegnanti. (La minaccia, neppure tanto velata, è il ritiro degli oltre due miliardi in azioni di Apple – un esempio questo di “voto col portafoglio”).

 Vediamo alcune delle più rilevanti novità associate al fenomeno di cui ci stiamo occupando. Una di queste è quella nuova modalità organizzativa della produzione (non solo manifatturiera) nota come Industria 4.0. Si tratta di una espressione coniata dalla tedesca Bosch e presentata per la prima volta alla fiera di Hannover nel 2011. Intelligenza artificiale, robotica, genomica, informatica, tra loro collegate secondo una relazione moltiplicativa, stanno letteralmente rivoluzionando sia il modo di produzione sia il senso del lavoro umano. La fusione tra mondo reale degli impianti e mondo virtuale dell’informazione, tra mondo fisico degli uomini e mondo digitale del dato ha fatto nascere un sistema misto cyber-fisico che mira a sciogliere quei nodi che i modelli del passato non sono stati in grado di realizzare: come ridurre gli sprechi; come raccogliere informazioni dal processo lavorativo e rielaborarle in tempo reale; come anticipare errori di progettazione per mezzo della virtualizzazione della fabbrica; come valorizzare appieno la creatività del lavoratore; come incorporare le specifiche richieste del cliente in tutte le fasi del processo di produzione. (Per un’efficace descrizione rinvio a A. Magone, “Tecnologia e fattore umano nella fabbrica digitale”, L’Industria, 3, 2016).

Chiaramente, affinché il Cyber-Physical System  (CPS) – il cuore del progetto Industria 4.0 – possa generare i risultati attesi è indispensabile che nell’impresa si realizzi una radicale innovazione organizzativa che abbandoni l’obsoleto modello ford-taylorista basato sulla gerarchia e su una spinta specializzazione delle mansioni. A poco serve acquisire le nuove macchine e  attivare le piattaforme tecnologiche se non si realizza il change management che sappia valorizzare i comportamenti cooperativi e sviluppare la partecipatory culture tra tutti coloro che operano nell’impresa. Ecco perché, ormai da qualche tempo, si va parlando dell’urgenza di inserire nelle imprese nuove figure professionali quali il “Digital Innovation Officer” responsabile dell’innovazione digitale; il “Technology Innovation Manager”, facilitatore dell’innovazione; il “Data Protection Officer” responsabile della protezione dati e della privacy;  il “Coding expert” che insegna come ordinare alla macchina di svolgere un determinato compito attraverso il linguaggio di programmazione (il coding appunto); e altre ancora. Si tratta di professioni indispensabili per gestire al meglio i mutamenti imposti dall’uso di “big data”, di “Internet delle cose” – espressione usata per primo da Kevin Ashton nel 1999 – e nel prossimo futuro di “Internet of the beings”, che rappresenta la terza fase della vita della rete. E’ proprio la mancanza di tali figure a dare conto di taluni paradossi, diversamente inspiegabili. Una conferma empirica della validità di tale osservazione ci viene da una recente indagine dell’OECD (Productivity Trends, Parigi, 2014) che è valsa a dare conferma al c.d. “paradosso di Solow”: nonostante l’enorme crescita della potenza dei computer e delle tecnologie digitali, la produttività totale dei fattori non è aumentata tanto quanto ci si doveva aspettare. Utilizzando i dati dei paesi dei G7, i ricercatori dell’OECD hanno calcolato che, mentre nel ventennio 1970-1990 la produttività è aumentata, nella media dei sette paesi più avanzati, del 2,6% all’anno, nel periodo 1991-2013, contraddistinto dal generale ingresso delle nuove tecnologie nell’attività d’impresa, la produttività è salita, in media, dell’1,7%.

Parecchie sono state le spiegazioni che sono state avanzate. Quella più plausibile fa riferimento al c.d “great war management problem”. Si tratta di questo. Gli anni precedenti lo scoppio della prima guerra mondiale registrarono uno strepitoso avanzamento della tecnologia militare, mentre la strategia militare rimase basicamente la stessa di quella prevalente all’epoca della guerra franco-prussiana del 1870. L’analogia con la situazione odierna è, mutatis mutandis, perfetta. Le nuove tecnologie si sono realizzate così rapidamente da rendere irrimediabilmente obsolete le strategie d’impresa. Si badi che quanto sta accadendo corrisponde al fenomeno dello “spiazzamento dei fini” quale si realizza nella burocrazia. Come da tempo ha spiegato il sociologo americano Robert Merton, regole e procedure che agli inizi dovevano servire a prevenire il caos amministrativo diventano esse stesse fini. Si lavora come se il rispetto delle regole fosse un fine in sé, e non invece strumento per il fine che l’impresa deve perseguire, e cioè la creazione di valore condiviso. (Ad onor del vero occorre dire che il calo registrato della produttività è, almeno in parte, dovuto ai metodi statistici tuttora in uso per misurare il PIL. Tali metodi riflettono ancora la transizione dall’agricoltura all’industria e dunque non sono adeguati a rappresentare il disallineamento, indotto dalle tecnologie convergenti, tra aumento dell’output e aumento del benessere umano).

Come bene ha chiarito F. Venier (“La forza lavoro digitale e il futuro dell’organizzazione”, Sviluppo e Organizzazione, sett. 2017), il fattore principale responsabile oggi degli aumenti di produttività è la digital fluency, costituita dall’insieme delle nuove competenze rese possibili dall’introduzione delle nuove tecnologie. Si tratta di una metacompetenza che va oltre la mera digital literacy, cioè la semplice conoscenza di programmi e applicazioni. Quando nel 2001 Marc Preusky tracciò la differenza tra nativi digitali e migranti digitali non poteva certo immaginare che la sua distinzione sarebbe divenuta obsoleta nell’arco del decennio successivo. Oggi, la distinzione che importa non è tra impresa digitale e non, ma tra imprese che sono digitalmente fluent – e che prosperano – e imprese che non lo sono – e quindi semplicemente sopravvivono. Le prime, infatti, hanno lavoratori che sono in grado di integrare la commercializzazione entro la progettazione, utilizzando i feedback delle vendite, il che si traduce in abbattimenti di costi e in aumenti dei livelli di competitività.

In buona sostanza, ci troviamo oggi di fronte ad una nuova segmentazione del mercato del lavoro, quella tra forza lavoro digitale e forza lavoro non digitale, delle cui conseguenze antropologiche ed economiche si dirà nel prossimo paragrafo. Qui mi limito a ribadire l’urgenza di aggiornare la cultura manageriale ereditata dal recente passato, una cultura che è incapace di colmare il profondo divario tra la logica della partecipazione esigita dalla fluency digitale che incoraggia la collaborazione orizzontale incurante delle relazioni gerarchiche e il modello ancora imperante nelle imprese, soprattutto italiane, che privilegia i processi lineari e il controllo gerarchico di tipo burocratico. Accade così che, grazie alla possibilità di impiegare forza lavoro digitale, le imprese nate digitali, non soggette ai vincoli rappresentati da modelli organizzativi del passato, finiscono col godere di un vantaggio comparato rispetto alle imprese digitalmente migranti. Si pensi a quel che potrà accadere a breve, con l’impiego su vasta scala, delle stampanti 3D, applicate non solo sul fronte della produzione, ma esteso a quello del consumo. Come noto, il modello della stampante 3D – la cosiddetta Rep Rap (Replication Rapid Prototyper) – è autoreplicante e libero. Potenzialmente, una stampante 3D potrebbe permettere alle imprese di produrre lotti di una sola unità di prodotto. Il che significa che essa può riprodurre le sue stesse parti (quelle che sono di plastica) e poiché gli schemi sono disponibili a tutti con pochi clic, ciascuno può col tempo apportare i suoi miglioramenti e condividerli con altri.

Il modo di concepire e di produrre della stampante è all’opposto dei gesti attenti dell’artigiano. Tale modo procede per “fabbricazione additiva”: il modello in tre dimensioni è scomposto in strati orizzontali molto sottili, così che l’oggetto è costruito partendo dalla base fino alla cima, come una sovrapposizione di lamelle. Il lavoro non incontra più la resistenza del legno o della pietra. Con il che il lavoro non è più un posto, ma un flusso, un’attività che può essere condotta in luoghi diversi. Creatività e innovatività vengono richieste a tutti i lavoratori e non solo a chi svolge ruoli dirigenziali. L’americana AT&T ha introdotto un sistema di “raccolta delle idee” entro l’azienda del seguente tipo: i lavoratori raggruppati in squadre presentano ai dirigenti  il proprio progetto come se fossero davanti a un “venture capitalist” che deve decidere se finanziarlo o meno. I lavoratori sono così indotti ad assumersi il rischio, almeno in parte – ciò che fa sorgere problemi affatto nuovi per quanto concerne gli assetti sia di governance sia proprietari. Giova ricordare che Adrian Bowyer – l’inventore della stampante 3D – aveva in animo di realizzare con la sua macchina ciò che Marx credeva di poter compiere con una rivoluzione politica. “Il Rep-Rap – scrisse – permetterà una appropriazione rivoluzionaria dei mezzi di produzione da parte del proletariato”, perché il consumatore potrà diventare anche produttore – è la figura del c.d. prosumer. In ogni quartiere – ha scritto Jeremy Rifkin – si troveranno stampanti 3D più performanti di quelle che un singolo cittadino potrebbe acquistare e manipolare e in questi luoghi i vicini di casa potranno aiutarsi per fabbricarsi tutto quanto serve alla vita domestica secondo i loro progetti. Naturalmente, il futuro prossimo si incaricherà di mostrare se si tratta di qualcosa di reale oppure di semplice utopia.

Un interessante precedente storico vale a farci comprendere la portata della posta in gioco. Nel Libro V della Ricchezza delle Nazioni (1776) Adam Smith scrive: “L’uomo che passa tutta la sua vita nel compiere poche semplici operazioni, i cui effetti sono forse gli stessi o quasi, non ha alcuna occasione di esercitare la sua intelligenza o la sua inventiva nel trovare espedienti, che possano superare difficoltà che non incontra mai”. E’ per questo che Smith auspica l’intervento deciso dello Stato per imporre un sistema di istruzione obbligatorio per tutti come mezzo per contrastare l’appiattimento delle facoltà dei lavoratori indotto da quel processo. Con l’avvento della prima Rivoluzione Industriale, però, si afferma un altro modo di concepire e quindi di servirsi della divisione del lavoro. Il grande economista David Ricardo e soprattutto l’ingegnere e matematico Charles Babbage ne sono gli artefici. L’idea da cui costoro partono è che, poiché gli individui sono diversi quanto a capacità e doti personali, ciascuno è portatore di uno specifico vantaggio comparato nell’attività lavorativa. Allora, la divisione del lavoro, e la specializzazione che ne consegue, diventano gli strumenti pratici per consentire alla società di trarre il massimo vantaggio dall’esistenza di abilità diverse tra gli individui. Come si comprende, mentre per Smith la divisione del lavoro è la “causa” delle differenze di capacità personali, per Ricardo e Babbage è vero il contrario: sono queste differenze a rendere conveniente la divisione del lavoro. (Abbacinato dalle idee di W. Leibnitz, che già nella seconda metà del XVII secolo si era speso per inventare la macchina calcolatrice, Babbage, agli inizi del XIX secolo, riteneva che col tempo si sarebbe arrivati ad una ragione calcolante sovraumana. Cfr. N. Bostrom, Superintelligenze. Tendenze. Pericoli. Strategie, Torino, Bollati Boringhieri, 2017).

E’ agevole cogliere le implicazioni di ordine “pedagogico” che discendono da questa inversione del nesso causale: laddove il “lavoratore alla Smith” deve investire in educazione continua per non perdere le proprie abilità (e ultimamente la propria identità), e quindi laddove la divisione del lavoro viene vista come occasione per favorire e incentivare l’acquisizione di nuove conoscenze con lo studio e la cultura, il “lavoratore alla Babbage” non possiede alcun motivo del genere, dal momento che la divisione del lavoro serve proprio a minimizzare la necessità dell’apprendimento da parte del lavoratore prima che questi entri nel processo produttivo: anzi, più spinto il processo di divisione del lavoro, più ristretto è il contenuto di conoscenza di ciascuna mansione e quindi meno si deve apprendere  prima di iniziare. Si ha così che mentre i lavoratori alla Smith “crescono” insieme al loro lavoro, quelli alla Babbage soggiacciono ad una minaccia terribile, quella di vedersi sostituiti in qualsiasi momento essendo connotati da un elevato grado di sostituibilità. Ora, mentre durante il periodo fordista è risultata vincente la concezione di Babbage – e non poteva essere diversamente -, il modello post-fordista “vendica” Smith: l’innovatività, sia di processo sia di prodotto, postula la centralità della risorsa umana con tutto ciò che questo comporta.

Prima di lasciare l’argomento, mi preme porre in luce un esito, forse non voluto ma gravido di conseguenze negative, della  attuale rivoluzione digitale. Si tratta dell’impatto che computer e informatica stanno avendo sul modo in cui i ricercatori si avvicinano alla verità scientifica. Si sta infatti affermando un modello di pensiero analogico, fondato cioè sulla verosimiglianza, piuttosto che sulla verità: l’analisi del reale avviene secondo modelli matematici di approssimazione affidati a programmi di calcolo che possono disporre di computer sempre più potenti. Come opportunamente rileva P. Benanti (“Il lavoro nell’epoca delle macchine sapiens”, La Società, 2, 2017), il mutamento della prospettiva epistemologica che si va imponendo è tale che la priorità della ricerca non è più la conoscenza della realtà, ma l’acquisizione di una sempre maggiore capacità di intervento (e di manipolazione) sulla stessa. Quanto a dire che il trionfo della tecnologia comporta la crisi della conoscenza scientifica, così come questa è stata interpretata a far tempo dalla rivoluzione scientifica del XVII secolo. Secondo il nuovo approccio, sono gli algoritmi l’essenza della realtà oggetto di studio, così che il progresso della conoscenza verrebbe a dipendere dalla disponibilità dei dati. Con notevole perspicacia, Chris Anderson, direttore di Wired, in uno scritto dal titolo rivelatore, The End of Theory (2008), scrive: “Gli scienziati si sono sempre basati su ipotesi ed esperimenti. […] Di fronte alla disponibilità di enormi quantità di dati, questo approccio – ipotesi, modello teorico e test – diventa obsoleto […] C’è ora una via migliore. I petabytes ci consentono di dire ‘la correlazione è sufficiente’. Possiamo smettere di costruire modelli teorici. Possiamo analizzare i dati senza alcuna ipotesi su cosa questi possano mostrare […] La disponibilità di un’enorme quantità di dati, unitamente agli strumenti statistici per elaborarli, offre una modalità completamente nuova per capire il mondo. La correlazione soppianta la causalità e le scienze possono avanzare addirittura senza modelli teorici coerenti, teoria unificata o un qualche tipo di spiegazione meccanicistica”. (Cit. in Benanti, p.38).

Forse aveva colto la sostanza della questione Umberto Eco quando, con grande anticipo sui tempi, ne Il nome della rosa aveva scritto: “Ciò di cui non si può teorizzare, si deve narrare” – lo storytelling, appunto. Non è questa la sede per discutere delle conseguenze veramente dirompenti dei nuovi paradigmi gnoseologici che oggi vanno guadagnando sempre più consensi. Ma è certo che nel momento in cui si ritiene che i nessi causali fra fenomeni possano essere tranquillamente sostituiti da valanghe di correlazioni, si viene a negare il fondamento stesso del metodo scientifico, di quel metodo che è valso a dare vita alle prime tre rivoluzioni industriali. Il punto è che se si abbandona la categoria della causalità si rinuncia a spiegare ciò che è e ciò che avviene; si rinuncia a tenere distinte la descrizione dei risultati dalla loro interpretazione. E senza spiegazione e interpretazione non si dà alcun progresso scientifico.

 

 

3.              Il futuro del lavoro umano nell’età dei robot

 

            I tecno-ottimisti ad oltranza basano la loro visione circa gli effetti della rivoluzione digitale sui livelli occupazionali sulla celebre profezia di J.M. Keynes. In una conferenza tenuta a Madrid nel 1930, pubblicata poi in forma di saggio in Possibilità economiche per i nostri nipoti (1930), il grande economista inglese scriveva: “Soffriamo per un attacco di pessimismo economico […] Abbiamo conosciuto un progresso tecnologico più rapido negli ultimi dieci anni che in tutta la storia precedente […]  La rapidità del cambiamento tecnico produce problemi difficili da risolvere. I Paesi che soffrono di più sono quelli che non sono all’avanguardia del progresso tecnico. Siamo colpiti da un nuovo malessere […]: la disoccupazione tecnologica. Una forma di disoccupazione causata dal fatto che scopriamo nuovi modi per risparmiare lavoro a una velocità superiore di quella alla quale scopriamo nuovi modi per impiegare il lavoro. Ma è soltanto un disallineamento temporaneo”.

Due annotazioni meritano attenzione. Per Keynes, la disoccupazione tecnologica è un fenomeno transitorio, destinato a scomparire gradualmente quando l’economia si fosse aggiustata alle novità rese possibili dalla seconda rivoluzione industriale – elettricità e chimica, per intenderci. Tanto che nel 2030 – il termine del periodo di aggiustamento congetturato da Keynes – quando le macchine avessero liberato gli uomini dal lavoro, l’umanità si sarebbe potuta dedicare alla coltivazione delle arti e del pensiero filosofico. Il Nostro non poteva certo immaginarsi che dopo la seconda, sarebbero scoppiate due altre rivoluzioni industriali, la cui cifra è la marcata accelerazione con cui si realizza il mutamento tecnologico: da intergenerazionale a intragenerazionale. E’ questa iperaccelerazione che non consente una metabolizzazione del nuovo: l’avanzamento tecno-scientifico corre più velocemente della riflessione etica.  Secondariamente, il meccanismo della distruzione creatrice, che già J. Schumpeter, quasi vent’anni prima, aveva indicato come il vero motore dello sviluppo capitalistico – si distrugge il vecchio per far crescere il nuovo, come l’agricoltore che pota la pianta per farla crescere più robusta e renderla più fruttifera – colpisce più pesantemente quelle economie la cui forza lavoro è meno capace di recepire il nuovo. E infatti sono i paesi emergenti quelli che oggi più risentono dei rischi occupazionali associati alla nuova ondata di automazione e ciò non solo perché il vantaggio, fino a tempi recenti assicurato del basso costo del lavoro, va ora scemando di rilevanza, ma anche e soprattutto perché il basso livello medio delle qualificazioni non consente  il passaggio dai vecchi ai nuovi tipi di lavoro. (Per una pregevole descrizione empirica dell’impatto delle tecnologie digitali sulla trasformazione del lavoro rinvio a G. Valenduc, P. Vendramin, “Work in the digital economy: sorting the old from the new”, ETUI, Bruxelles, 2016). D’altro canto, i tecno-pessimisti – alcuni dei quali finiscono sul terreno scivoloso del neoluddismo – si appoggiano su quanto lo storico del pensiero economico Robert Heilbroner ebbe a dichiarare nel 1965: “Man mano che le macchine continuano ad invadere la società, duplicando sempre più il numero dei compiti sociali, è il lavoro umano stesso che viene reso gradualmente ridondante. (cit. in D. Akst, “What can we learn from past axiety over automation”, Wilson Quarterly, 2, 2013). E pure si appoggiano sulla icastica affermazione di Wassily Leontief secondo cui “Il lavoro diventerà sempre meno importante.… Sempre più lavoratori saranno rimpiazzati dalle macchine. Non vedo che le nuove industrie potranno occupare tutti coloro che desiderano lavorare” (The New York Times, 1983).

Un recente rapporto di Nesta (il noto centro di ricerca britannico), The future of skills – Employment in 2030, pare confermare questo pessimismo quando chiarisce che non bastano più le skills specialistiche, che peraltro restano necessarie, ad assicurare l’occupabilità. Quel che in più la nuova traiettoria tecnologica richiede sono abilità di tipo relazionale, quali empatia, propensione al lavoro di squadra, autonomia. Ecco perché, come si esprime A. Donadio (HRevolution, Milano, Franco Angeli, 2017), uno dei problemi centrali del management oggi – ancora ben lungi dall’essere  stato affrontato – è quello di come passare dal “governare” all’”abilitare” le risorse umane per renderle capaci di innovatività. Una prima analisi rigorosa di come le nuove macchine sostituiscono il lavoro umano e di quali condizioni occorre tener conto se si vuole che il processo di sostituzione in atto non conduca ad un abbassamento dell’occupazione (e dei salari) è quella di D. Acemoglu e P. Restrepo, “The race between machine and man”, NBER, WP22252, June, 2017).

Sono dell’avviso che se il digitale cambia la relazione tra conoscenza e lavoro, mettendo in discussione i posti di lavoro tradizionali e se è vero che, come illustra Erik Brynjolfsson nel suo recente Machine, Platform, Crowd, (2017), la tecnologia ha sempre distrutto e creato lavoro, l’esito non è una società senza lavoro, ma una trasformazione certamente radicale dello stesso. Si consideri, infatti, che il meccanismo di sostituzione che ha funzionato, più o meno bene a seconda dei casi durante la prima e seconda rivoluzione industriale, oggi con l’intelligenza artificiale non funziona più. Allora le macchine sostituivano il lavoro fisico dell’uomo – dapprima in agricoltura e poi nell’industria – spingendo verso mestieri di maggiore valore cognitivo; ora l’intelligenza artificiale copre tutto lo spettro cognitivo. Si pensi, al solo scopo di fissare le idee, ai professionisti che svolgono mestieri come il lavoro paralegale di preparazione delle cause nelle “law firms”, il data scientist (chi estrae informazioni dai dati consentendo alle aziende di realizzare strategie ad hoc); i maker, gli artigiani digitali; e così via.  Ora, se è vero che non si può trascurare l’effetto spiazzamento nei confronti del lavoro che automazione e intelligenza artificiale vanno provocando, è del pari vero che – se si volesse – potrebbero essere attivate forze che spingono nella direzione opposta –  quella dell’aumento della domanda di lavoro. Penso all’effetto produttività: diminuendo il costo di produzione dei compiti automatizzati, l’economia si espande e ciò provoca un aumento della domanda di lavoro nei compiti non automatizzati. E penso anche all’effetto creazione di nuovi compiti e nuove attività in cui il lavoro gode di un vantaggio comparato rispetto alle macchine. (D. Acemoglu, P. Restrepo, “Artificial intelligence, automation and work”,  NBER, WP24196, Jan. 2018).  Stando così le cose, si tratta di decidere in quale direzione  si vuole che si attui sia la job transiton sia il reskilling e l’upskilling.  Già oggi si vedono le prime conseguenze della trasformazione del lavoro, alcune delle quali piuttosto preoccupanti, come si è espresso B. Stiegler: “La soluzione alla crisi in cui ci troviamo potrebbe prendere la forma di un neo-taylorismo digitale”: gli uomini lavorano al servizio delle macchine! In ogni caso, non possono essere dimenticati i costi sociali della transizione verso il nuovo modello di produzione: cosa ne è di coloro che durante la fase dell’aggiustamento strutturale restano ai margini del processo lavorativo o addirittura vanno ad ingrossare le fila degli “scarti umani”? Già J. Hicks nel suo Capital and Time (Oxford, 1973) aveva richiamato l’attenzione sui costi della “traversa”, sui costi cioè della transizione dal vecchio al nuovo equilibrio. Una preoccupazione questa accolta anche da Z. Bauman, che nel suo ultimo libro, Retrotopia, (Laterza, 2017), spiega perché l’atteggiamento verso il futuro sia così tanto cambiato: da tempo della speranza a incubo. Il che favorisce nostalgie – e talvolta regressioni. L’elaborazione del lutto per la fine del passato e la conquista di un approccio costruttivo per il futuro non avvengono spontaneamente, ma richiedono un rigoroso impegno culturale  capace di cambiare le categorie interpretative. (M. Magatti, Cambio di paradigma. Uscire dalla crisi pensando al futuro, Feltrinelli, 2017).

            In vista di ciò, è opportuno soffermare un poco l’attenzione sui limiti dell’attuale cultura del lavoro, del suo senso, della sua natura, della sua mancanza. Comincio dalla questione del senso. L’attuale temperie culturale   esalta e deprime, al tempo stesso, il lavoro. Per un verso, essa fa entrare il lavoro ovunque, facendolo diventate la “nuova misura di tutte le cose”; creando un nuovo tipo di uomo – l’homo laborans nelle parole di K. Marx e successivamente di H. Arendt. Per l’altro verso, nessuna cultura come l’attuale strumentalizza il lavoro per uno scopo sempre più “esterno” all’attività lavorativa stessa. Non lo valorizza in sé, rendendolo funzionale alla sola valorizzazione del capitale. D’altro canto e in modo compensativo, il lavoro viene finalizzato al consumo: si lavora di più per consumare quantità maggiori di beni posizionali nel senso di Thomas Schelling (1960). Ma non v’è chi non veda come il recupero della natura propria del lavoro deve partire dalla presa d’atto che il lavoro prima ancora che un diritto, è un bisogno insopprimibile della persona. E’ il bisogno che l’uomo avverte di trasformare la realtà di cui è parte e, così agendo, di edificare se stesso. Riconoscere che quello del lavoro è un bisogno fondamentale è un’affermazione assai più forte che dire che esso è un diritto. E ciò per la semplice ragione che, come la storia insegna, in certe epoche i diritti possono essere sospesi o addirittura negati; i bisogni, se fondamentali, no.  Sappiamo, che non sempre i bisogni possono essere espressi nella forma di diritti politici o sociali. Bisogni come fraternità, amore, dignità, senso di appartenenza, non possono essere rivendicati come diritti.

      Per cogliere il significato del lavoro come bisogno umano fondamentale ci si può riferire alla riflessione classica, da Aristotele a Tommaso d’Aquino, sull’agire umano. Due le forme di attività umana che tale pensiero distingue: l’azione transitiva e l’azione immanente. Mentre la prima connota un agire che produce qualcosa al di fuori di chi agisce, la seconda fa riferimento ad un agire che ha il suo termine ultimo nel soggetto stesso che agisce. In altro modo, il primo cambia la realtà in cui l’agente vive; il secondo cambia anche l’agente stesso. Ora, poiché nell’uomo non esiste un’attività talmente transitiva da non essere anche sempre immanente, ne deriva che la persona ha la priorità nei confronti del suo agire e quindi del suo lavoro. Duplice la conseguenza che discende dall’accoglimento del principio-persona.

            La prima di queste è bene resa dall’affermazione degli Scolastici “operari sequitur esse”: è la persona a decidere circa il suo operare; quanto a dire che l’autogenerazione è frutto dell’auto-determinazione della persona. Quando l’agire non è più sperimentato da chi lo compie come propria auto-determinazione e quindi propria auto-realizzazione, esso cessa di essere umano. Quando il lavoro non è più espressivo della persona, perché non comprende più il senso di ciò che sta facendo, il lavoro diventa schiavitù. L’agire diventa sempre più transitivo e la persona può essere sostituita con una macchina quando ciò risultasse più vantaggioso. Ma in ogni opera umana non si può separare ciò che essa significa da ciò che essa produce. (S. Zamagni, “Questioni etiche nell’economia globale”, 2018).

            La seconda conseguenza cui sopra accennavo chiama in causa la nozione di giustizia del lavoro. Il lavoro giusto non è solamente quello che assicura una remunerazione equa a chi lo ha svolto, ma anche quello che corrisponde al bisogno di autorealizzazione della persona che agisce e che è perciò in grado di dare pieno sviluppo alle sue capacità. In quanto attività basicamente trasformativa, il lavoro interviene sia sulla persona sia sulla società; cioè sia sul soggetto sia sul suo oggetto. Questi due esiti, che scaturiscono in modo congiunto dall’attività lavorativa, definiscono la cifra morale del lavoro. Proprio perché il lavoro è trasformativo della persona, il processo attraverso il quale vengono prodotti beni e servizi acquista valenza morale, non è qualcosa di assiologicamente neutrale. In altri termini, il luogo di lavoro non è semplicemente il luogo in cui certi input vengono trasformati, secondo certe regole, in output; ma è anche il luogo in cui si forma (o si trasforma) il carattere del lavoratore, come Alfred Marshall fu tra i primi economisti a riconoscere esplicitamente già alla fine del 19° secolo.

            La portata della grande sfida che è di fronte a noi è dunque come realizzare le condizioni per una autentica libertà del lavoro, intesa come possibilità concreta che il lavoratore ha di realizzare non solo la dimensione acquisitiva del lavoro – la dimensione che consente di entrare in possesso del potere d’acquisto con cui soddisfare i bisogni materiali – ma anche la sua dimensione espressiva. Dove risiede la difficoltà di una tale sfida? Nella circostanza che le nostre democrazie liberali mentre sono riuscite a realizzare (più o meno) le condizioni per la libertà nel lavoro – grazie alle lunghe lotte del movimento operaio e sindacale – paiono impotenti quando devono muovere passi verso la libertà del lavoro. La ragione è presto detta. Si tratta della tensione fondamentale tra la libertà dell’individuo di definire la propria concezione della vita buona e l’impossibilità per le democrazie liberali di dichiararsi neutrali tra modi di vita che contribuiscono a produrre e quelli che non vi contribuiscono. In altri termini, una democrazia liberale non può accettare che qualcuno, per vedere affermata la propria visione del mondo, possa vivere sul lavoro di altri. La tensione origina dalla circostanza che non tutti i tipi di lavoro sono accessibili a tutti e pertanto non c’è modo di garantire la congruità tra un lavoro che genera valore sociale e un lavoro che interpreti la concezione di vita buona delle persone.

La riforma protestante per prima ha sollevato la questione della libertà del lavoro.  Nella teologia luterana, la cacciata dall’Eden non coincide tanto con la condanna dell’uomo alla fatica e alla pena del lavoro, quanto piuttosto con la perdita della libertà del lavoro. Prima della caduta, infatti, Adamo ed Eva lavoravano bensì, ma le loro attività erano svolte in assoluta libertà, con l’unico scopo di piacere a Dio. Che le condizioni storiche attuali siano ancora alquanto lontane dal poter consentire di rendere fruibile il diritto alla libertà del lavoro è cosa a tutti nota. Tuttavia ciò non può dispensarci dalla ricerca di strategie credibili di avvicinamento a quell’obiettivo.

            Passo ora alla questione della “mancanza” di lavoro. (Si veda, in proposito, l’ormai classico saggio di C.B. Frey, M. Osborne, “The future of employment”, Oxford Martin Programme, W.P, sept. 2013, secondo cui il 47% degli occupati statunitensi sarebbe esposto al rischio di sostituzione. Una risposta critica a questa previsione, ingiustificatamente apocalittica, è quella di M. Arntz, T. Gregory, U. Zierahn, (“The risk of automation for jobs in the OECD countries”, Oecd, WP 189, Parigi, 2016) i quali, pur non negando l’effetto di sostituzione (cioè di spiazzamento del lavoro) associato alla pervasiva introduzione del digitale, sottolineano come l’evoluzione tecnologica generi un effetto trasformativo del lavoro che è in grado di più che compensare il primo. Perché pare così difficile avere ragione, oggi, della disoccupazione e soprattutto della inoccupazione? E' forse la non conoscenza delle cause del fenomeno oppure la non disponibilità degli strumenti di intervento a rendere così difficile la soluzione del problema? Non lo credo proprio. Ritengo piuttosto che la disoccupazione e la cattiva occupazione di oggi sia la conseguenza di una organizzazione sociale incapace di articolarsi nel modo più adatto a valorizzare le risorse umane a disposizione.  E’ un fatto che le nuove tecnologie della Quarta Rivoluzione Industriale liberano tempo sociale dal processo produttivo, un tempo che l’attuale assetto istituzionale del lavoro trasforma in disoccupazione oppure in precarietà sistemica.  In altro modo, l’aumento, a livello del sistema economico, della disponibilità di tempo – un tempo utilizzabile per una pluralità di usi diversi – continua ad essere utilizzato per la produzione di merci (o di servizi alla produzione delle merci) di cui potremmo tranquillamente fare a meno e che invece siamo "costretti" a consumare, mentre non riusciamo a consumare altri beni e servizi perché non vi è chi è in grado di fornirceli. Il risultato di questo stato di cose è che troppi sforzi ideativi vengono indirizzati su tentativi di creare nuove occasioni di lavoro effimere o precarie anziché essere impiegati per riprogettare la vita di una società post-industriale fortunatamente capace di lasciare alle “nuove macchine” le mansioni ripetitive e quindi potenzialmente capace di utilizzare il tempo così liberato per impieghi che allarghino gli spazi di libertà dei cittadini.

            Per abbozzare una difesa della tesi, una precisazione è opportuna.  La disoccupazione dice di una carenza di posti di lavoro, cioè di impieghi, sul mercato del lavoro.  Ma vi sono parecchie altre offerte e domande di lavoro che non transitano per il mercato del lavoro.  Si pensi al lavoro di cura dentro e fuori della famiglia; al lavoro che entra nella produzione di servizi alla persona; al lavoro erogato all’interno delle organizzazioni di terzo settore, etc.: si tratta di attività lavorative che la società avvalora, addirittura intervenendo a livello legislativo con norme che ne decretano le regole di svolgimento, senza però che esse siano sottoposte alle regole del mercato del lavoro. E' dunque necessario tenere distinta la nozione di impiego o posto di lavoro dalla nozione, assai più ampia, di attività lavorativa.  Quando si parla di disoccupazione il riferimento è sempre e solo alla categoria dell’impiego.  Accade così che la società postindustriale, può registrare un problema di insufficienza di posti di lavoro – cioè di disoccupazione – pur essendo vero che essa denuncia un problema di eccesso di domanda di attività lavorative, domanda che non trova risposta.  Quanto a dire che un paese può registrare, ad un tempo, una situazione di elevata disoccupazione e di una ancora più elevata domanda non soddisfatta di attività lavorative.        

            Ora, in ciascuna fase dello sviluppo storico è la società stessa, con le sue istituzioni, a fissare i confini tra la sfera degli impieghi e la sfera delle attività lavorative, vale a dire tra il lavoro remunerato secondo le regole del mercato del lavoro – il lavoro salariato, appunto – e il lavoro remunerato secondo altre regole o secondo altre modalità.  Ebbene, il confine tra la sfera dell’impiego e quella delle attività lavorative è oggi sostanzialmente lo stesso di quello in essere durante la lunga fase di sviluppo della società fordista.  E’ questa la vera rigidità che occorre superare, e in fretta, se si vuole avviare a soluzione il problema qui in questione.  Pensare, infatti, di dare oggi un lavoro a tutti sotto forma di impiego, cioè di posto di lavoro salariato, sarebbe pura utopia o, peggio, pericolosa menzogna.  Infatti, mentre nella società industriale, l’espansione dei consumi e la lentezza del progresso tecnico permettevano al mercato del lavoro sia di assorbire la nuova manodopera sia di riassorbire la vecchia manodopera resa esuberante, dall’utilizzo delle “macchine”, nella società postindustriale questi margini di intervento sono praticamente negati.  Ecco perché occorre intervenire sul confine di cui si è appena detto.

            Infatti, è bensì vero che politiche di riduzione del costo del lavoro (e, in particolare, del salario) unitamente a politiche di sostegno e di rilancio della domanda aggregata potrebbero accrescere – in alcuni settori – la produzione più rapidamente dell’aumento della produttività e contribuire così alla riduzione della disoccupazione.  Ma a quale prezzo un tale risultato positivo verrebbe raggiunto?  Al prezzo di accettare come naturale una nuova classe sociale, quella dei working poors, dei “poveri che lavorano”; di soggetti cioè che percepiscono bensì un reddito da lavoro, ma questo si colloca al di sotto della soglia di decenza.  Oggi sappiamo che è la competitività l’orizzonte sotto il quale impostare qualsiasi discorso volto a creare posti di lavoro. Solamente imprese competitive possono nascere e crescere e così facendo possono creare impiego: i posti di lavoro aumentano con l’aumento dei margini di competitività delle imprese. E’ questa la nuova regola aurea dell’occupazione.  Si tratta di una novità di non poco conto rispetto al più recente passato, quando la (quasi) piena occupazione poteva venire assicurata dal mantenimento in vita dei “rami secchi” dell’economia ad opera del settore pubblico, oppure dalla celebre legge di Okun, secondo cui la crescita del prodotto sempre si accompagnerebbe alla crescita occupazionale. Oggi sappiamo che tale legge è stata resa vana dal fenomeno del jobless growth.   Non è allora difficile comprendere le ragioni per le quali la regola aurea è   così difficile da tradurre nella pratica.   (Cfr. S. Benzell, J. Sachs, “Robots are us: some economics of human replacement”, NBER, 20941, Feb. 2015).

            La ragione principale è che le nuove tecnologie aumentano la produttività media del sistema più di quanto si riesca ad aumentare la produzione di beni e servizi.  E’ stato stimato che nei paesi dell’area OCSE la produttività media aumenta del 3% circa all’anno.  Ora non v’è chi non veda come sia praticamente impossibile aumentare, anno dopo anno, la domanda media dei beni del 3%.  Si pensi a quanto è accaduto nel settore agricolo, prima e nell’industria di base, poi (siderurgia, cemento, chimica): all’aumento della produttività si è accompagnato un aumento percentualmente minore della produzione e perciò una drastica riduzione dell’occupazione.  Infatti, se una società che registra aumenti costanti ed elevati della produttività media vuole mantenere immutato il suo livello di impiego – non di occupazione, si badi – essa deve aumentare i propri consumi allo stesso ritmo con cui si accresce la produttività.  E poiché il consumo di beni e soprattutto di servizi richiede tempo, occorre consumare sempre più freneticamente per conservare inalterato il livello di impiego.  Ma già A. Linder, nel suo celebre saggio del 1970, aveva mostrato come l’aumento della intensità di consumo conduca ad un esito paradossale: il tentativo di consumare quantità sempre maggiori di beni entro uno stesso tempo di consumo diminuisce, anziché aumentare, l’utilità degli individui, quell’utilità che l'agente razionale secondo il mainstream economico dovrebbe invece cercare di massimizzare.  In effetti, puntare alla crescita dell’intensità di consumo se può servire alla bisogna nelle prime fasi dello sviluppo industriale, fasi in cui si realizza il modello della produzione di massa,  tende a produrre una diminuzione di benessere, quando questo processo viene, in larga misura, realizzato.

V’è una seconda importante ragione che rende sconsigliabile l’applicazione della regola aurea: infatti, essa se applicata appieno, tenderebbe a produrre problemi seri sui fronti sia della coesione sociale sia della tenuta democratica della società. Il lavoro sarà nella società post-industriale un bene raro e prezioso, privilegio di pochi?  Le nuove tecnologie uccideranno sempre di più occupazione, nonostante la retorica di chi inneggia alle risorse umane come il vero capitale delle aziende dell'epoca industriale? Perché le ricette finora proposte dai vari governi non sono risultate efficaci, sia che si tratti dell'idea "lavorare meno per lavorare tutti", sia infine che si tratti dei cosiddetti lavori socialmente utili, sia ancora che si tratti di attuare la massima flessibilizzazione possibile dei rapporti di lavoro?

            Vedo di spiegarmi. La sostituzione del lavoro con capitale - da cui i vari casi di disoccupazione tecnologica -  è un fenomeno antico che ha cominciato a manifestarsi a partire almeno dalla prima rivoluzione industriale, una stagione caratterizzata dalla grande esplosione sociale luddista che negli anni 1808-1820 coinvolse la Francia e soprattutto l’Inghilterra. Ma oggi esso assume connotazioni diverse per due ragioni. Primo, tale processo investe anche le attività immateriali (cioè terziarie) dove lavorano i "colletti bianchi", quelli cioè occupati negli uffici. Secondo, il capitale che sostituisce il lavoro non è rappresentato da macchine qualsiasi ma dalle tecnologie dell'informazione e della comunicazione (TIC). Ad esempio, nei paesi avanzati le TIC pesano oggi per oltre un terzo del totale degli investimenti in capitale fisso.

Chiaramente le TIC hanno effetti di segno opposto sull'occupazione. Cosa fare per assicurare che l'effetto positivo prevalga su quello negativo? Si consideri l'esempio degli ospedali, dove sono stati fatti grandi investimenti in TIC. Queste organizzazioni non hanno affatto tagliato gli organici. Anzi, per far funzionare le nuove apparecchiature complesse è stato necessario assumere nuovo personale. Qui, le TIC si qualificano come strumenti e non come fattori di produzione. Quali altri esempi potrebbero essere citati? Il fatto è che sono a rischio oggi tutte quelle attività umane passivamente basate su "procedure" standardizzate e quindi ripetitive. Per esse, e solo per esse, le nuove tecnologie sono "job-killer". Non così per quelle attività umane che coniugano le nuove tecnologie con i nuovi bisogni connessi a fattori demografici e sociali, oppure a nuovi stili di vita.

Gli esempi, a tale riguardo, sono ormai schiera. Nel saggio, Eat people and other unapologetic rules for game-changing entrepreneurs (2011), A. Kessler descrive con dovizia di particolari come le nuove tecnologie, mentre annulleranno parecchie tipologie di carriere (portalettere eliminati da Twitter; bibliotecari resi ridondanti da Google; ecc.), creeranno spazi nuovi per quei lavori creativi che generano nuovo valore aggiunto e che non si limitano a ridistribuirlo. Si può fare l’esempio di un software come il Computer Aided Diagnosis che va rendendo obsoleta il compito del radiologo tradizionale, perché è in grado di leggere una lastra radiologica con maggior precisione ed in minor tempo. Ancora. Software come eDiscovery realizzano lo scanning di una pluralità di documenti in pochi secondi, rendendo di fatto non più conveniente il lavoro dell’avvocato o del legale tradizionale.  Del pari, i siti delle principali compagnie aeree, dove è possibile scegliere la tariffa aerea più conveniente, tendono a spiazzare il lavoro degli impiegati nelle agenzie di viaggio. E così via. (S. Zamagni, “Giustizia sociale, lavoro, bene comune”, in C. Danani et Al. (a cura di), L’umano tra cura e misura, Vita e Pensiero, 2015).

Il senso degli esempi è chiaro: è il lavoro manuale o ripetitivo e quello che non richiede scambio con l’utenza che andrà ad essere sempre più sostituito dalle nuove macchine; mentre si salverà quel lavoro (manuale o intellettuale) che non può essere fungibile – come accade nei servizi alle persone – oppure che postula particolari strutture di relazione con la controparte. In buona sostanza, knowledge economy e creator economy continueranno a rafforzarsi a spese dei vecchi colletti sia blu che bianchi. Accade così che mentre aumenta l’occupazione nella progettazione di nuovi servizi informatici, nelle telecomunicazioni, nell’elaborazione dati – si veda il dinamismo di gruppi come Google, Apple, Genentech, Amazon, ecc. nel contendersi la creative class – si vanno sempre più riducendo gli spazi occupazionali per i livelli professionali intermedi – quelli, associati, per intenderci, a titoli di studio equipollenti alla laurea triennale. Si pensi a forme nuove di lavoro come il crowd work – grazie al quale un lavoratore da qualsiasi luogo può connettersi ad una piattaforma digitale e trarre da essa commesse che decide di evadere come vuole – lo smart working – che consente al lavoratore di prestare attività lavorativa a favore della sua azienda collegandosi ad una piattaforma virtuale secondo tempi decisi dallo stesso e senza vincoli di etero-direzione. La Banca Mondiale, nel Rapporto 2016 The Global Opportunity in Online Outsourcing, stima che nel 2020 l’11% dei lavoratori sperimenterà questa nuova forma di lavoro. Non è difficile immaginarsi le ricadute di simili tendenze sui fronti sia del diritto del lavoro sia dell’innovazione organizzativa. (Cfr. E. Occhetta, Il lavoro promesso, Ancora-La Civiltà Cattolica, Milano, 2017).

Un’immagine, particolarmente evocativa, può aiutare a comprendere meglio la natura del problema sollevato. Si pensi ad una piramide e ad una clessidra. Fino all’avvento della globalizzazione e della terza rivoluzione industriale l’ordine produttivo poteva essere adeguatamente rappresentato da una piramide. Alla base si collocavano i lavori di routine per svolgere i quali non v’è bisogno di alcuna competenza specifica, né di particolari processi formativi. Salendo verso il vertice si registra una sorta di stratificazione delle mansioni che procede in parallelo con l’avanzamento degli studi svolti. Chi arrivava alla laurea aveva la quasi certezza di arrivare ad occupare, prima o poi, una posizione di medio o anche di medio-alto profilo. D’altro canto chi dimostrava di possedere particolari doti e competenze giungeva al vertice della piramide, uno spazio questo che restava comunque limitato a pochi, dal momento che le organizzazioni di lavoro non avevano necessità che fossero in molti a pensare in grande e a progettare con lungimiranza. Poiché la conoscenza era prevalentemente di tipo codificato (e non già tacito) era sufficiente collocare poche persone nelle posizioni apicali, le quali si sarebbero poi occupate di applicare la celebre regola di F. Taylor “one man, one job”. (Si pensi all’esempio della catena di montaggio).

Lo straordinario processo di ristrutturazione dell’economia, in atto da almeno un quarto di secolo, ha trasformato la piramide in una clessidra. La base inferiore è più o meno la stessa: quanto a dire che oggi, come ieri, c’è ancora bisogno di chi deve svolgere compiti standardizzati. Se così non fosse, come darsi conto delle circa novecentomila badanti presenti in Italia e dei circa due milioni di immigrati che lavorano in agricoltura (raccolta frutta o verdura), nella pesca, nei lavori domestici e altro ancora? Le differenze tra le due figure riguardano piuttosto, per un verso, i livelli occupazionali intermedi che nella clessidra sono assai pochi, e per l’altro verso, i livelli superiori che, a differenza che nella piramide, occupano ora la base alta della clessidra. Il fatto è che le plurime organizzazioni di lavoro tendono oggi a privilegiare, nelle loro richieste, o i molto esperti e superspecializzati in grado di far vincere alle imprese la sfida competitiva globale oppure coloro che accettano di collocarsi ai gradini bassi della gerarchia lavorativa. Ciò che gradualmente va riducendosi è la domanda dei livelli intermedi di competenza e/o di specializzazione. Si badi che ciò sta accadendo non solo per il lavoro dipendente, ma anche per quello autonomo. (Si pensi a quanto sta avvenendo nel mondo delle professioni).  Di qui la vistosa perdita di potere – non solo economico – dei cosiddetti ceti medi nei paesi dell’Occidente avanzato,  come la “curva dell’elefante” di B. Milanovic chiaramente illustra. (Global Inequality, 2016). Per una analisi rigorosa di come le tecnologie della quarta rivoluzione industriale riescano a causare un aumento della diseguaglianza nella distribuzione dei redditi, rinvio a A. Korinek, J. Stiglitz, “Artificial intelligence and its implications for income distribution and unemployment”, NBER, WP24174, Dec.2017).

            Si pone la domanda: perché pare così difficile avere ragione di quella rigidità?  Perché, in altre parole, così forti sono le resistenze a prendere atto della circostanza che la attuale disoccupazione è essenzialmente legata al mutamento profondo che è intervenuto nella   organizzazione della produzione?  La risposta che trovo più convincente è che ancora diffusa tra gli esperti è l’idea che si possa intervenire con successo sulla disoccupazione operando sui rimedi tradizionali, quelli cioè che sono stati applicati in tempi più o meno recenti per far fronte alle tre grandi categorie di disoccupazione: quella associata all’alto costo del lavoro; quella dovuta a carenza di domanda effettiva; quella tecnologica.  Ma non è così. Occorre allora mutare lo sguardo sulla realtà. (M. Ford, Il futuro senza lavoro, Il Saggiatore, 2017).

            Il fatto è che, rimanendo all’interno dello schema concettuale che identifica la piena occupazione con il pieno impiego, il raggiungimento di quest’ultimo obiettivo entra in rotta di collisione con il raggiungimento di obiettivi altrettanto leciti e importanti – quali una crescita ecologicamente sostenibile; un modello di consumo che non generi alienazione distorcendo le preferenze individuali; una società non stratificata e tendenzialmente “includente”.  Per dirla in altri termini, il limite invalicabile di tutte le proposte, anche ingegnose, volte ad alleviare la piaga della disoccupazione è quello di generare, nelle nostre società, pericolosi trade-offs: per distribuire lavoro a tutti si va a giustificare un modello di consumo neo-consumista; oppure si legittimano forme nuove di povertà (le cosiddette nuove povertà); oppure ancora si restringono gli spazi di libertà dei cittadini. Tutto ciò è inaccettabile sotto i profili sia etico sia politico.  Sono dell’avviso che quando si arriva a prendere atto di questo, si può trovare il coraggio di osare vie nuove. 

            Quel che è urgente favorire, con politiche adeguate, è il trasferimento del lavoro liberato dal settore capitalistico dell’economia al settore sociale della stessa.  Come ho scritto nel saggio (con L. Bruni), L’economia civile, Il Mulino, Bologna, 2015, il prodotto dell’economia sociale è connotato da una duplice caratteristica.  La prima è che la categoria di beni che il settore sociale dell’economia tende a produrre, e per la quale esso possiede un ben definito vantaggio comparato, è la categoria dei beni comuni e dei beni relazionali (servizi alla persona, la c.d. care economy; beni meritori; green economy, alcuni tipi di beni pubblici locali, industrie creative, cultura). Si tratta di beni che possono essere prodotti e fruiti in modo ottimale soltanto assieme da coloro i quali ne sono, ad un tempo, gli stessi produttori e consumatori.

            La seconda caratteristica è che il lavoro che si svolge all’interno delle tante organizzazioni che compongono il variegato mondo dell’economia sociale presenta proprietà diverse da quelle del lavoro dipendente salariato che sopra ho chiamato impiego.  Si tratta di attività ad alta intensità di manodopera che producono utilità immediatamente fruibili dalla collettività e nelle quali la pressione per aumenti di produttività è debole o nulla. Fino a che il fordismo è stato considerato l’unico orizzonte della modernità, il lavoro dipendente salariato poteva a ragione proporsi come il prototipo del lavoro tout-court.  Era inevitabile allora che il lavoro autonomo; il lavoro para-subordinato; il lavoro coordinato; il lavoro associato (si pensi, a quest’ultimo riguardo, alla figura del socio-lavoratore di una impresa cooperativa) venissero considerati un’anomalia.  Oggi, è vero il contrario.  I nuovi lavori, cioè le attività lavorative, stanno surclassando quelli tradizionali, cioè gli impieghi. Ecco perché è necessario far decollare un robusto settore di economia sociale per assicurare l’assorbimento del lavoro “liberato”.  In buona sostanza, il settore capitalistico dell’economia non potrà mai assorbire tutta la forza lavoro disponibile. Quel che occorre fare è irrobustire il settore sociale dell’economia, dandogli ali, cioè possibilità concrete di espansione. E’ questo quanto esige la  biodiversità economica.

            Quel che occorre dire, in tutti i modi immaginabili e possibili, è che è il fare impresa la via maestra per creare lavoro. Perché il lavoro va creato. Non ci si può accontentare di ridistribuire quello che già c’è. Ma - si badi bene - l'impresa che crea lavoro non è solo quella privata di tipo capitalistico ma anche l'impresa sociale (l'impresa cioè il cui principio regolativo   è il principio di reciprocità, quale esso si esprime nelle imprese cooperative, nelle imprese sociali, nelle società benefit). Ciò è possibile ad una fondamentale condizione: che si realizzi il travaso della domanda verso categorie di beni come quelli comuni e quelli relazionali.  Come sempre più spesso si sente affermare, alla base del nuovo modello di crescita c’è una specifica domanda di qualità della vita.  Ma la domanda di qualità va ben al di là di una mera domanda di beni manifatturieri (o agricoli) “ben fatti”.  E’ piuttosto una domanda di attenzione, di cura, di servizio, di partecipazione – in buona sostanza, di relazionalità.  In altri termini, la qualità cui si fa riferimento non è tanto quella dei prodotti (beni e servizi) oggetto di consumo, quanto piuttosto la qualità delle relazioni umane. (S. Zamagni, “Libertà del lavoro e giustizia del lavoro”, Quaderni di Economia del Lavoro, 3, 2016). 

4.         Il disallineamento tra democrazia e capitalismo nell’era della 4° Rivoluzione Industriale 

  Un preoccupante  processo di destrutturazione che la 4° rivoluzione industriale ha contribuito ad accelerare è quello riguardante il rapporto tra politica ed economia. La storia ci informa che dalla prima Rivoluzione Industriale fino agli anni '70 del XX secolo (anni in cui si è soliti far iniziare il processo qui in discussione) è sempre accaduto che fosse il potere politico a fissare le priorità dell’attività economica, a stabilire le regole del gioco economico e a farle rispettare. Come ha osservato E. Hobsbawn (Il secolo breve,1996), perfino quando gli stati avevano raggiunto la consapevolezza di dover lasciare buona parte degli affari dei loro cittadini alle organizzazioni della società civile e alle forze del laisser-faire – come accadde in Gran Bretagna intorno alla metà dell’Ottocento -  essi avevano a loro disposizione capacità e strumenti di gran lunga maggiori di quelli delle monarchie assolute dell’epoca pre-rivoluzionaria. E aggiunge: “Che i governi fossero liberali, autoritari, social-democratici, fascisti o comunisti, in cima a questi trend i parametri della vita dei cittadini erano quasi totalmente determinati da ciò che i loro stati facevano o omettevano di fare” (p. 270). E infatti i Paesi economicamente più avanzati sono sempre stati quelli che hanno avuto alle spalle governi stabili e autorevoli (pensiamo a Gran Bretagna prima e Stati Uniti poi). Se si studia attentamente il periodo della belle époque, che termina con lo scoppio della prima guerra mondiale, si scopre che ascesa dello stato e intensificazione delle relazioni economiche internazionali hanno proceduto di pari passo. La novità di oggi è la rottura di quella saldatura. I governi nazionali si vedono costretti a cedere quote di sovranità ad altri soggetti emergenti dalla società, oltre che dall’economia, con il risultato che le decisioni economiche tendono a fare aggio rispetto alle decisioni di natura politica. L’economia mal sopporta la collaborazione di uno stato che, per assicurare la coesione sociale al proprio interno, intendesse porre vincoli e gravami sull’operato delle imprese.

            E’ così accaduto che le frecce che tradizionalmente i governi nazionali hanno avuto a loro disposizione per indirizzare l’attività economica si sono come spuntate. Alludo soprattutto allo strumento fiscale, a quello monetario e a quello del tasso di cambio. La politica poteva godere di una sostanziale libertà nel fissare il grado della pressione tributaria, il tasso ufficiale di sconto e il tasso di cambio. Come non ricordare il fenomeno delle cosiddette svalutazioni competitive, che tanta parte hanno avuto nel determinare i successi economici soprattutto dei piccoli stati? Lo stesso dicasi della pressione tributaria. Quando lo Stato, per un motivo o per l’altro, riteneva necessario aumentare la spesa sociale poteva servirsi dello strumento fiscale per mobilizzare le risorse necessarie. Oggi, nessun governo nazionale potrebbe permettersi di fare altrettanto: la fuga di capitali e delle stesse attività produttive annullerebbe ogni effetto. La competizione tra Paesi riguarda proprio, anche se non solamente, la corsa verso l’abbassamento della pressione tributaria. L'elemento nuovo che qui si vuole sottolineare è che gli strumenti che tradizionalmente hanno reso importante, e in certi casi determinante, l’intervento della politica e dei governi nazionali nella sfera dell’economia, oggi sono diventati di fatto inservibili. Il che non vuol dire, come qualcuno in maniera frettolosa vorrebbe far credere, che è finita la stagione della politica. Vuol dire, piuttosto, che non possiamo più pensare di servirci degli strumenti tradizionali. In definitiva, mentre durante la lunga fase storica del fordismo il punto di vista "nazionale" era capace di conciliare, per così dire, gli interessi dello Stato, delle imprese, dei cittadini ("Ciò che è bene per la Ford è bene per il paese" - si poteva dire negli USA), oggi tale coincidenza di obiettivi va scomparendo. L'interesse dello Stato a conservare la sua quota di sovranità sul territorio non coincide di necessità con l'interesse delle imprese a muoversi liberamente sui mercati internazionali alla ricerca delle migliori opportunità di profitto, né con l'interesse dei cittadini ad ottenere qualità migliori dei prodotti di cui fanno domanda e soprattutto ad acquisire più ampi spazi di autogoverno del territorio.

            Parecchie, e non più isolate, sono ormai le voci di intellettuali, centri di ricerca, organizzazioni della società civile, politici, perfino imprenditori e manager dei nuovi settori tecnologici, che si pongono il problema dei rischi che il modello di democrazia liberale sta oggi correndo. In La souveraineté numerique (Parigi, Ed. Stock, 2013), Pierre Bellanger, imprenditore francese del digitale, sintetizza in questi termini la posta in gioco: “Internet non si è aggiunto al mondo che conosciamo. Lo sostituisce. Internet risucchia i nostri posti di lavoro, i nostri dati personali, le nostre vite private, la nostra proprietà intellettuale, la nostra prosperità […] la nostra libertà”. Non si potrà certo negare che i fatti e le cifre non gli stiano dando ragione. Gli fa eco Evan Williams, fondatore di Twitter (2006), che nell’intervista a L. Berberi sul Corriere della Sera del 22 maggio 2017 dichiara: “Pensavo che se avessimo dato a tutti la possibilità di esprimersi liberamente e scambiarsi idee e informazioni, il mondo sarebbe diventato automaticamente migliore. Mi sbagliavo… Internet finisce per premiare gli estremi e influisce sulla democrazia”. L’anonimato virtuale, salutato inizialmente con soddisfazione avrebbe permesso perché alle voci represse di esprimersi con libertà, ha finito con l’alimentare i peggiori istinti. Sean Parker, ex presidente di Facebook, si è recentemente definito un obiettore di coscienza dei social media, dopo aver preso atto che “Facebook e gli altri hanno costruito il loro successo sullo sfruttamento della vulnerabilità della psicologia umana: Dio solo sa cosa stanno facendo al cervello dei nostri figli”. (Intervista di M. Gaggi, Corriere della Sera, 19 dic. 2017).

            Il risultato è che le nuove fonti di interazione e di informazione non ci stanno rendendo più intelligenti, né più sociali. Twitter, Facebook, Reddit e altri siti – osserva T. Nichols (The Death of Expertise, Oxford, 2017) – avrebbero la potenzialità per fare da veicolo ad una discussione intelligente, ma troppo spesso scadono nel banale. Sulla rete, le persone si aggregano con quelli che già la pensano allo stesso modo. L’indisponibilità ad ascoltare le opinioni altrui ci rende meno capaci di pensare e di argomentare. Non si tollera la contestazione. Tutte le opinioni hanno lo stesso valore. D’altro canto l’anonimato dei social media induce gli utenti a discutere come se ogni partecipante fosse identico ad un altro. Accade così che il narcisismo intellettuale del commentatore occasionale soppianta le norme che abitualmente governano le interazioni faccia a faccia. La possibilità di parlare senza essere costretti ad ascoltare, unita al c.d. “coraggio da tastiera” (che consente alle persone di dirsi elettronicamente cose che mai si direbbero de visu) uccide il vero dialogo democratico, favorendo il populismo. Invece di pensare in modo critico e di verificare le fonti, sulla rete si ripetono spesso concetti altrui oppure si amplificano e si deformano, senza controllo, pregiudizi personali. Il tutto a discapito della partecipazione democratica.

Non v’è dunque da meravigliarsi se in questa fase storica si registra in Occidente l’erosione dei valori democratici. E’ un fatto che fino a tempi recenti il capitalismo, quale modello di ordine socioeconomico, è sempre stato associato, in modo inestricabile, alla democrazia come modello di ordine politico- istituzionale – pur essendo vero che vi sono stati periodi, peraltro di durata limitata, nei quali questa associazione è venuta a mancare: si pensi alla Corea del Sud, al Cile, oltre che a quanto è accaduto all’Europa nella prima metà del ‘900. La grande novità dell’oggi è che quel legame tra democrazia e capitalismo si va dissolvendo. Si parla, infatti, di orientalismo (Edward Said, Orientalism, 1978) per significare che quella occidentale non è più la civiltà di riferimento per guidare il processo di sviluppo economico.

             La novità sconcertante – che tanti paiono non aver ancora colto appieno – è che il nuovo capitalismo finanziario (che ha fatto seguito a quello industriale) non ha problemi ad adattarsi a una pluralità di matrici religiose, culturali, etniche. Sappiamo infatti che la finanza speculativa è diventata fine a se stessa, cioè autoreferenziale, e dunque ha un rapporto sempre più remoto e astratto con il valore economico reale la cui creazione essa dovrebbe favorire. In altro modo, le attività speculative nel mercato finanziario privano di ogni stabilità il rapporto tra il valore dei beni e il modo in cui esso viene rappresentato dai nuovi strumenti finanziari. Non così sono andate le cose con il capitalismo “nazionale” che invece si è eretto sui valori e sulle tradizioni occidentali nel momento in cui si è imposto sul precedente modello di ordine sociale.

La res nova è dunque che si può avere capitalismo senza democrazia e, più in generale, prescindendo dai cosiddetti valori occidentali. In particolare, il capitalismo “globale” non ha bisogno di fare leva sull’utilitarismo Benthamiano e sull’individualismo libertario per affermarsi. Anzi, la sua diffusione a macchia d’olio molto deve alla sua capacità di esonerarsi dall’impegno a valori come quello della dignità della persona e a quelli della democrazia liberale. In India, per esempio, si antepongono i legami comunitari al successo personale e si alimenta l’identità nazionale per ostacolare l’invasione dei valori occidentali, pur essendo vero che questo paese ha da tempo imboccato la via della modernizzazione capitalistica. Si pensi ai “valori asiatici” propugnati da Lee Kuan Yew, il padre della Città-stato di Singapore. In Cina, poi, l’autorità giudiziaria può imprigionare chi gioca in Borsa allo scoperto. E così via, con una miriade di altri esempi. Nel 1992 gli USA producevano il 20% dell’output mondiale e la Cina il 5%. Nel 2016, la quota degli USA è scesa al 16% o quella della Cina è salita al 18%. (Per questi e altri dati rinvio a IMF, World Economic Outlook, New York, ott. 2017). Eppure, in Cina si continua a confondere la “rule of law”, vero pilastro del principio democratico, con la “rule by law” che rinvia ad uno Stato neopatrimoniale. Ancora, nel grande paese asiatico si parla di “diritti dell’uomo” (rights of man) e non già di “diritti umani” (human rights). (Per chiarire la differenza: i diritti dell’uomo arrivano all’individuo dallo Stato che li genera; i diritti umani giungono all’individuo dalla natura, con lo Stato che si limita a riconoscerli e difenderli). (Si veda di Deng Chundong, autorevole membro della Accademia Cinese delle Scienze Sociali, il suo “The Chinese Dream, the American Dream and the World Dream”, International Critical Thought, 5, 2015).

E’ dunque errato pensare che la persistenza delle tradizioni e delle norme sociali di comportamento premoderne rappresenti  un ostacolo al capitalismo globale. Al contrario, la fedeltà a queste tradizioni e principi è ciò che permette a paesi come la Cina, Singapore, India e tanti altri ancora di percorrere la strada del processo capitalistico in modo persino più radicale che nei paesi dell’Occidente. E’ facile darsene conto: è assai più agevole invocare l’identità nazionale per legittimare sacrifici e imposizioni di natura antidemocratica ai propri cittadini. Nel 1992, a ridosso della caduta del muro di Berlino, F. Fukuyama pubblicò il  ben noto libro La fine della storia. E’ nota la tesi: il liberalismo e il capitalismo occidentali avevano finalmente vinto la propria battaglia contro i totalitarismi e i tradizionalismi vari. La superiorità intellettuale dell’Occidente era schiacciante e prima o poi tutto il mondo si sarebbe adeguato. Anche le “democrature” avevano dovuto adottare almeno la forma esteriore dell’assetto politico-istituzionale occidentale. Quella forza terribile capace di produrre in Europa le due ideologie totalitarie aveva anche prodotto gli anticorpi necessari per sconfiggerle.   La storia aveva una sua teleologia, un fine cui tendere.

Ma la storia riserva sempre sorprese. Sta accadendo infatti che la “nostra” democrazia liberale va cedendo spazio al populismo, a quella concezione che considera il popolo non più come categoria sociologica, ma come categoria morale. La competizione politica – per l’ideologia populista - è tra le virtù (che appartengono al popolo) e le non virtù (che appartengono al non popolo) e il leader è colui che riesce ad incarnare lo spirito del popolo. Per questo, il populismo respinge la democrazia rappresentativa a favore della democrazia diretta. Facebook, ad esempio, sta diventando qualcosa di più di un “social network”. Esso va configurandosi come una sorta di infrastruttura sociale per dare alle persone la possibilità di costruire una comunità globale; vale a dire il sostrato della nuova “democrazia connessa”, dove Facebook diviene appunto la nuova agorà. Si badi che anche le c.d. varianti “democratiche” del populismo non hanno mai avuto successo e si sono ben presto trasformate in regimi autoritari perché si vuol fare crollare l’esistente in nome di alternative palingenetiche, inafferrabili nei loro contenuti. Si pensi al caso recente della Turchia, dove si stanno rivalutando i valori di comunità chiuse, isolate e rette da un uomo forte o anche ai casi della Polonia, Ungheria, Russia, dove un autoritarismo morbido si combina con il nazionalismo. (Osservo di sfuggita che nei paesi asiatici del termine populismo non c’è quasi traccia e pour cause: perché in questi paesi il modello di democrazia liberale mai ha messo radici).

Come ciò è potuto accadere?  E’ sostenibile un’economia di mercato capitalistico al di fuori di un ordine sociale di tipo democratico? E’ un fatto che l’ordine sociale del capitalismo dell’Occidente si trova  oggi privo di una direzione perché ha eroso il suo fondamento. E’ agevole darsene conto. La società industriale ha avuto una sua base territoriale nazionale; non così la società post-industriale nella quale il mercato è assai più largo della sovranità e il bisogno di sicurezza domina il bisogno di libertà.  Dopo aver tollerato, anzi favorito, nei decenni passati la prevalenza dell’economico sul politico, del mercato sulla democrazia, il nostro mondo è oggi alla ricerca di un senso. Né il “Plattform Kapitalismus”, come lo chiamano i tedeschi, cioè il capitalismo di piattaforma, è robusto abbastanza per supportare un modello di democrazia come quella liberale. Soprattutto perché “gli algoritmi – ha scritto la matematica americana Cathy O’Neil – sono opinioni inserite in un codice. La gente pensa che siano oggettivi, ma è un trucco del marketing”. Le opinioni, invero, sono tutt’altro che oggettive. La fede nella rigidità delle procedure e nella certezza del risultato che l’algoritmo fonda – l’algoritmo infatti è solo una implacabile successione di istruzioni in codice binario – nulla ha a che vedere con il principio democratico.

Gideon Rachman (Easternization, London, 2016) ha parlato di “trappola di Tucidide”, con riferimento esplicito al conflitto fra Atene, potenza egemone, e Sparta, potenza emergente, per indicare il processo in atto di “orientalizzazione” del mondo, come esempio sui generis di nemesi storica. Nel 2015, i paesi emergenti, praticamente quasi tutti quelli “orientali”, hanno prodotto il 58% del Pil mondiale; i paesi ricchi dell’Occidente il restante 42% (dati FMI). Per dirla con Alain Touraine, abbiamo vissuto in un mondo mediterraneo per parecchi secoli; poi in un mondo Atlantico dal XVI secolo in poi. Oggi siamo entrati in un mondo Pacifico. Il movimento culturale americano “Conscious capitalism”, nato per iniziativa di CEO di importanti corporations, da anni va riflettendo su questo tema.  (Si veda Philip Kotler, Confronting Capitalism, 2015, per un resoconto efficace). Anche in Europa, si avvertono i segnali di questa presa di coscienza.

Pochi dati bastano per darci conto di quanto rilevante sia oggi il processo di concentrazione del potere economico nella stagione della 4° rivoluzione industriale. Un decennio fa, la classifica mondiale delle principali imprese per valore azionario vedeva nelle prime tre posizioni imprese del settore petrolifero (Exxon, Mobil, Gazprom) e una del settore manifatturiero (General Electric). Oggi, nelle prime tre posizioni troviamo imprese del comparto IT (Apple, Google, Microsoft, seguito da Amazon e Facebook). D’altro canto, mentre agli inizi degli anni 90 le tre più grosse imprese di Detroit (General Motors, Ford, Chrysler) impiegavano 1,2 milioni di persone a fronte di una capitalizzazione complessive di 36 miliardi di dollari oggi le tre più grosse aziende tecnologiche (Google, Facebook, Apple) occupano circa 137.000 persone con una capitalizzazione superiore ai 1000 miliardi di dollari. Ancora. I due più importanti datori di lavoro privati al mondo, MacDonald e Wal-Mart (il colosso americano della grande distribuzione) complessivamente occupano quattro milioni di persone. Il loro valore di borsa è di circa 325 miliardi di dollari, pari in media ad un valore di 81.250 dollari generato da ciascun lavoratore. Si tratta di cifra irrisoria per le star della nuova economia: Alibaba, Facebook e Google danno lavoro ad appena 80 mila persone, ma complessivamente valgono quasi 800 miliardi di dollari, pari a circa dieci milioni di dollari a dipendente.  (Cfr. D. Ciferri, “Luci e ombre nel mercato del lavoro in Italia”, La Società, 6, 2017).

Il processo di spinta monopolizzazione in atto da anni nel settore delle nuove tecnologie, unitamente ad altri fattori causali, spiega perché la quota di reddito destinata al lavoro – la c.d. wage share – sia andata progressivamente diminuendo. Recenti stime OCSE indicano una riduzione media della wage share nei paesi avanzati di oltre il 10% nel periodo 1970-2014. (In Italia, la medesima percentuale è stata del 13%). E’ chiaro che alla diminuzione della wage-share corrisponde un aumento dell’indice di Gini che misura il livello di disuguaglianza nella distribuzione dei redditi. In un lavoro recente, Mordecai Kurz ha cercato di misurare gli effetti economici del potere di monopolio attribuibile alla grande trasformazione tecnologica in atto.  Calcolando la componente del valore totale dei titoli azionari dovuta al monopolio – che Kurz chiama “monopoly wealth” – l’Autore trova che fino agli inizi degli anni Ottanta, tale componente era praticamente nulla. Negli anni successivi, quando le nuove tecnologie iniziano a diffondersi a macchia d’olio, la “monoply wealth” aumenta in modo vertiginoso, raggiungendol’82% del valore totale della capitalizzazione di borsa delle imprese maggiormente coinvolte con le piattaforme digitali. (M. Kurz, “The New Monopolists”, Project Syndicate; Sept. 22, 2017).

              Quanto sta avvenendo ci riporta all’inizio del ‘900, quando il tema del curse of bigness (la maledizione dell’essere grandi) fu al centro delle preoccupazioni del presidente americano W. Wilson. Il suo consigliere speciale, Louis Brandeis, affermato studioso di diritto che diverrà poi membro della Corte Suprema, temeva i monopoli, proprio perché “in una società democratica, l’esistenza di grandi centri di potere privati è pericolosa per la vitalità di un popolo libero”. A distanza di oltre un secolo, Brandeis riprese la raccomandazione di Albert Gallatin, firmatario della Dichiarazione di Indipendenza degli Stati Uniti d’America, che nel 1795, parlando al Congresso americano, così si espresse: “Il principio democratico su cui è stata fondata questa nazione non deve essere ristretto ai soli processi politici, ma deve trovare concreta applicazione al settore industriale dell’economia”. (US Senate, Government Printing Office, Washington, 1939, p.72). Non ci si deve allora meravigliare se proprio negli Stati Uniti si stiano levando, da più parti, voci che invitano a procedere, senza indugi, allo smembramento dei grandi dell’hi-tech sul modello di quanto accaduto nel 1982 con il colosso della telefonia AT&T. (E’ di questa idea, tra i tanti, S. Galloway della New York University nel suo The four, the hidden Dna of Amazon, Apple, Facebook and Google, Penguin, 2017).

Grazie al suo umanesimo, la democrazia si presenta come un valore universale, ma in realtà è sempre in pericolo: per i suoi nemici esterni è l’espressione ipocrita della potenza dell’Occidente, mentre al suo interno l’individualismo possessivo la sta può rendendo una scatola vuota. E’ questa la grande sfida dell’oggi i cui termini sono efficacemente illustrati da Wolfgang Streeck quando scrive (2013) che nelle “tarde” democrazie capitalistiche vi sono in realtà due elettorati tra loro in disaccordo: il “popolo dello Stato” che vota per i suoi rappresentanti politici sotto l’assunto che costoro guidino la nave dello Stato verso l’approdo desiderato dall’elettorato, e il “popolo del mercato” che compra i titoli di Stato e così agendo decide se la nave dello Stato galleggia o affonda. Mentre il primo popolo vede lo Stato come la corporazione di tutte le corporazioni, il popolo del mercato concepisce lo Stato meramente come una entità al suo servizio. Sulla medesima lunghezza d’onda si muove Cass Sunstein (# Republic: Divided Democracy in the Age of Social Media,2017) quando sottolinea la distinzione tra la libertà del consumatore, che gode oggi di un’ampia gamma di scelta e la libertà cittadino che prende parte alla democrazia rappresentativa. Le nuove tecnologie convergenti mentre promuovono la libertà del consumatore, restringono la libertà del cittadino, limitando l’accesso a quelle conoscenze che servono per prendere decisioni ponderate. Se non si trovano i modi – che di certo esistono – di comporre un tale disaccordo, difficilmente si potrà difendere il modello di civilitas che l’Occidente ha forgiato.

L’erosione dei valori democratici in Occidente è stata svelata l’anno passato in un saggio, assai discusso, di R. Foa e Y. Mounk, uscito prima dell’elezione di Trump alla presidenza americana. Uno dei dati più sensazionali del rapporto è che un americano su sei vede di buon occhio un “governo militare”, mentre nel 1995 solo uno su sedici condivideva tale opinione. E se oltre il 70% degli americani negli anni Trenta riteneva essenziale vivere in una democrazia, solo il 30% di quelli nati negli anni Ottanta è dello stesso parere. Cifre analoghe, sia pure meno marcate, si registrano anche in Europa. Si aggiunga che l’incidenza geopolitica della civilizzazione europea – la maggiore piattaforma di diritti umani che l’umanità abbia conosciuto – è oggi ulteriormente minacciata dal fatto che, da qui al 2050, la popolazione europea si sarà ridotta al 7% della popolazione mondiale. Lo squilibrio della competizione di valori sulla scena della globalizzazione sarà allora particolarmente impegnativa.

Già Aristotele, nella Politica, aveva avvertito che la democrazia presuppone una relativa uguaglianza: “il possesso di beni in quantità misurata e adeguata” e “un benessere duraturo” per tutti. Sosteneva, infatti, che se in una democrazia perfetta fosse esistita una minoranza di persone molto ricche e un gran numero di poveri, questi ultimi si sarebbero serviti dei loro diritti democratici per ridistribuire a proprio vantaggio le risorse. Chiaramente, ciò non poteva essere considerato giusto da Aristotele, il quale intravvedeva due vie di uscita: ridurre la povertà – cosa da lui auspicata – oppure eliminare la democrazia. (James Madison si porrà il medesimo problema all’epoca della “Constitutional Convention”, ma opterà per l’altra proposta, quella di ridurre la democrazia per mezzo di ben congegnate regole elettorali e ciò in forza del principio giustificativo per cui primo dovere del governo è quello di “difendere la minoranza degli opulenti” dalla maggioranza dei diseredati).

Tocqueville si muove sulla medesima linea dello stagirita quando osserva che la povertà è sia dannosa per la convivenza sociale e dunque per la democrazia, sia pericolosa per il progresso economico della società. La cosa veramente notevole dell’intellettuale francese è che egli è il primo autore a comprendere appieno la differenza tra povertà assoluta e povertà relativa – come oggi vengono denominate queste due forme di povertà. Scrive il nostro nel saggio Il pauperismo – pubblicato nel 1835 -: “L’uomo civilizzato è… infinitamente più esposto alle vicissitudini del fato che non l’uomo selvaggio. Ciò che al secondo capita di tanto in tanto… al primo può succedere in ogni momento e in circostanze del tutto ordinarie. Con la sfera dei suoi godimenti egli ha allargato anche quella dei suoi bisogni ed espone così un più vasto bersaglio ai colpi dell’avversa fortuna. … Presso i popoli di elevata civilizzazione, le cose la cui mancanza ha come effetto di generare la miseria sono molteplici; nello stato selvaggio è povero soltanto chi non trova da mangiare”. (1998); p.114) Ed ecco la proposta, veramente sorprendente considerata l’epoca storica: “Esistono due tipi di beneficenza: la prima induce ogni individuo ad alleviare, a misura delle sue possibilità, il male che si trova alla sua portata. Essa è antica come il mondo… La seconda, meno istintiva, più ragionata, contraddistinta da minore passione ma spesso più efficace, indica la società stessa ad occuparsi delle avversità dei suoi membri e a provvedere in modo sistematico all’attenuazione delle loro sofferenze”. (Ib.p.115). Come si vede, è qui anticipato, in termini affatto moderni, l’argomento secondo cui la democrazia postula un qualche intervento della società per “attenuare le sofferenze” dei cittadini. Il che è quanto non sta oggi accadendo: le istituzioni economiche di tipo inclusivo non assicurano affatto istituzioni politiche inclusive. E’ come se il progresso economico garantito dal capitalismo digitale “esigesse” un regresso politico e perciò una riduzione degli spazi di libertà (positiva).

5.            Talune implicazioni etiche della 4° rivoluzione industriale

E’ sul fronte dell’etica pubblica che le conseguenze della diffusione nelle nostre società delle tecnologie convergenti vanno ponendo i problemi più delicati, primo fra tutti quello di capire come la digitalizzazione della nostra vita stia riuscendo a modificare anche il modo di percepirla. Eppure, è proprio su tale fronte che si registra una sorta di “fin de non recevoir” da parte dell’alta cultura, scientifica e filosofica. Di due (soli) aspetti particolari desidero qui dire in breve. Il primo concerne la questione della fiducia: può l’intelligenza artificiale creare la fiducia che è necessaria per il corretto funzionamento delle nostre economie di mercato? Il secondo aspetto chiama in causa il problema della responsabilità, di cosa significhi essere responsabili nell’era della digitalizzazione. Sono le “smart machines” agenti morali e dunque responsabili? Saranno gli algoritmi a governarci, in tutti i casi in cui le persone non sono in grado di comprendere appieno le questioni sulle quali debbono esprimere valutazioni? Comincio dal primo aspetto.

Generale è il consenso sul fatto che è la fiducia uno dei fattori decisivi per assicurare i vantaggi dell’agire collettivo e, per questa via, sostenere il processo di sviluppo. E’ agevole darsene conto. Tutti gli scambi che avvengono nel mercato sono incorporati in contratti: espliciti o impliciti; spot o a termine; completi o incompleti; contestabili o no. Eccezion fatta per quelli spot, tutti gli altri tipi di contratto hanno bisogno di un qualche meccanismo per essere resi esecutivi.  Sappiamo che l’esecutorietà dei contratti – come fare in modo che i termini e le obbligazioni contrattuali vengano onorate – dipende, in forme e gradi diversi, dalle norme legali, dalle norme sociali di comportamento prevalenti in una determinata comunità e dalla fiducia reciproca. Ebbene, quando i primi due fattori non bastano ad assicurare l’esecutorietà dei contratti, è alla fiducia che si ricorre per far funzionare il mercato. Ciò è specialmente vero ai giorni nostri, dato che globalizzazione e quarta rivoluzione industriale hanno reciso i tradizionali legami (di sangue, di religione, di tradizione) che in passato funzionavano come surrogati, più o meno perfetti, della fiducia.

Si noti il paradosso tipico dell’attuale fase storica. Mentre la fiducia nei confronti delle istituzioni, sia politiche sia economiche, va declinando per una pluralità di ragioni, tra cui l’aumento endemico della corruzione, il mercato globale è conquistato sempre più da imprese e organizzazioni che chiedono ai loro clienti e utenti prove di fiducia, mai viste in passato. E’ come se gli individui stessero imparando la lezione della ben nota vicenda della Tosca di Puccini: la mutua sfiducia genera sempre risultati subottimali. (Cfr. H. Leibenstein, “On some economic aspects of a fragile input: trust”, in R. Feiwel, a cura di, Essays in honour of Kenneth Arrow, MIT, Press, 1987). Si pensi alla concessione dell’uso della propria abitazione a estranei totali (Airbnb) o alla condivisione di viaggi in auto con persone affatto sconosciute (Uber, Blablacar). Sta cioè accadendo che alla diminuzione della fiducia istituzionale di tipo verticale fa riscontro un aumento della fiducia personale, cioè la fiducia orizzontale tra persone. Per Tim Wu, affermato giurista  della Columbia University, quello cui stiamo assistendo è un massiccio trasferimento di fiducia sociale: abbandonata la fiducia nelle istituzioni, ci si rivolge alla tecnologia. “La fiducia – scrive R. Botsman (Di chi possiamo fidarci, Milano, Hoepli, 2017) – è la nuova valuta dell’economia mondiale. E’ un vero moltiplicatore di opportunità di guadagno perché consente di far fruttare beni sottoutilizzati”. Si pensi al fenomeno delle criptomonete – la più nota delle quali, ma non certo l’unica, è il bitcoin – che sono valute digitali che si scambiano tra pari. Le transazioni non sono garantite da alcuna autorità centrale, ma convalidate dagli stessi partecipanti alla rete mediante un algoritmo. Al tempo stesso, la forza di queste criptomonete è che esse consentono di effettuare transazioni anonime non soggette a tassazione e al riparo da confisca da parte dello Stato. L’infrastruttura che ne è alla base è il blockchain, che è un registro di proprietà distribuita su cui sono annotati tutti gli scambi, senza possibilità di modifica. La tecnologia blockchain – finora utilizzata praticamente solo  in ambito finanziario – consente già oggi una vasta gamma di applicazioni, da quelle in ambito sociale a quelle di tipo politico-amministrativo. Si pensi alla gestione dei processi amministrativi, dove la blockclain può certificare in modo certo e per sempre un determinato atto senza bisogno di un soggetto Terzo certificatore. Si consideri anche che le Nazioni Unite stanno progettando di avvalersi della medesima tecnologia per la gestione degli aiuti, di varia natura, ai profughi e migranti. E così via. (M. Gaggi, “Il sogno di blockchain”, Lettura, 4 febb. 2018).

Il cuore del paradosso odierno è in ciò che l’economia di mercato contemporanea ha ancora più bisogno di quella del passato di fiducia reciproca per poter funzionare al meglio. Al tempo stesso, però, gli straordinari livelli di efficienza finora raggiunti dai nostri sistemi economici sembrano far dimenticare che è necessario rinforzare le reti fiduciarie tra persone perchè il mercato mentre “consuma” sempre più fiducia non riesce, stante l’attuale assetto istituzionale, a produrne a sufficienza. Di qui l’inquietante dilemma sociale: chiediamo sempre più efficienza per accrescere il benessere materiale, la ricchezza, la sicurezza, ma per conseguire un tale obiettivo decumuliamo irresponsabilmente il patrimonio di fiducia che abbiamo ereditato dalle generazioni passate. (Patrimonio è parola che viene da “patres munus”: il dono dei padri). Si badi che un’economia di comando può ben fare a meno della fiducia per assicurare il proprio funzionamento, non così una economia di mercato, come si è detto sopra. Ai tempi dell’URSS (“La fiducia è bene, il controllo è meglio”, era solito dire Lenin) non si avvertiva alcun bisogno di investire sulla fiducia interpersonale; bastava e avanzava quella istituzionale. (L. De Biase, “L’algoritmo della fiducia, “Vita, Genn. 2018).

Che fare per sciogliere questo dilemma? E’ nota la proposta di David Hume. Per il fondatore dell’empirismo filosofico (e iniziatore del non cognitivismo etico)  la disposizione ad accordare fiducia, e a ripagare la fiducia concessa, trova il proprio fondamento nei vantaggi personali che scaturiscono da una buona reputazione. “Possiamo soddisfare i nostri appetiti meglio in un modo indiretto e artificiale … E’ così che imparo a prestare un servigio ad un altro senza provare per lui una vera benevolenza. Infatti io prevedo che egli mi renderà il servigio attendendosene un altro dello stesso tipo, per conservare la medesima reciprocità di buoni uffici con me o con altri” (Trattato sulla natura umana [1740] 1971, pp. 552-3). E’ quasi incredibile che un grande filosofo come Hume sia potuto cadere in una così patente svista concettuale, quella di confondere la reciprocità con una sequenza di scambi auto-interessati. La reciprocità, a differenza dello scambio di equivalenti, è un insieme di relazioni di dono tra loro interrelate. La cosa ancora più strana è che il pensiero filosofico successivo mai abbia rilevato la contraddizione pragmatica in cui cade Hume quando, poche righe sopra il brano riportato, fa l’esempio dei due coltivatori di grano che finiscono in disgrazia per mancanza di garanzie reciproche. Si legge sempre nel Trattato: “Il tuo grano è maturo, oggi, il mio lo sarà domani. E’ utile per entrambi se io oggi lavoro con te e tu domani dai una mano a me. Ma io non provo nessun particolare sentimento di benevolenza nei tuoi confronti e so che neppure tu lo provi per me. Perciò io oggi non lavorerò per te perché non ho alcuna garanzia che domani tu mostrerai gratitudine nei miei confronti.  Così ti lascio lavorare da solo oggi e tu ti comporterai allo stesso modo domani. Ma il maltempo sopravviene e così entrambi finiamo per perdere i nostri raccolti per mancanza di fiducia reciproca e di una garanzia”. (Ivi).

Anche la soluzione dell’imperativo categorico kantiano non ci è di grande aiuto agli scopi presenti. “Segui la regola che, se ognuno la seguisse, tu potresti volerne il risultato”. E’ questo un principio di eguaglianza del dovere. Tuttavia, la teoria di Kant soffre di una evidente aporia quando si cercasse di porla in pratica. Infatti, l’individuo kantiano sceglie la regola (la massima) che va ad applicare assumendo che anche tutti gli altri la applichino. Ma poiché persone diverse, in generale, hanno preferenze diverse circa il risultato finale, anche le regole kantiane da esse preferite saranno a priori diverse. Ne consegue che ciascuno seguirà la sua regola preferita (da cui la sua azione) assumendo che gli altri agiscano nel modo in cui in realtà essi non agiranno affatto. Ciò significa che il principio kantiano non può applicarsi a se stesso; non può validare se stesso: davvero una seria incongruenza logica per una dottrina morale che ambisce ad essere universale. Solamente se tutti gli individui fossero tra loro identici quanto al loro sistema preferenziale l’aporia in questione scomparirebbe. Ma è evidente che se così fosse il principio kantiano perderebbe tutta la sua rilevanza pratica.

La recente economia comportamentale, sulla base di esperimenti di laboratorio e di taluni risultati conseguiti dalle neuroscienze, va oggi suggerendo la seguente via d’uscita dal dilemma sopra indicato. In un lavoro collettaneo pubblicato sulla prestigiosa rivista americana Science (2006) si legge che se si disattiva, mediante stimolazione magnetica transcranica, una particolare zona della corteccia cerebrale, i soggetti aumentano notevolmente il loro comportamento prosociale, il che conduce ad un sostanziale incremento del loro grado di fiducia. In particolare, somministrando per via nasale una certa quantità di ossitocina (un ormone naturalmente prodotto dall’organismo di molti mammiferi) si è scoperto che esso deattiva l’attività cerebrale di una specifica regione del cervello (l’amigdala) deputata a controllare il comportamento degli individui nei rapporti fiduciari. (D. Narvaez, Neurobiology and the Development of Human Morality, Norton, New York, 2014).  Si pensi anche agli interventi volti al potenziamento cognitivo che agiscono su capacità come l’attenzione, la memoria, la tendenza all’affaticamento intellettuale. Già vengono praticate tecniche come la stimolazione celebrale profonda (deep brain stimulation) che prevede l’impianto di un microchip nel cervello; come la stimolazione transcronica a corrente diretta (transcranical direct current stimulation) che prevede la stimolazione dell’encefalo con dosi di corrente elettrica.

 Pochi anni fa, un gruppo di ricercatori dell’Università di Berkeley hanno testato su un campione di trentacinque soggetti un farmaco “in grado di produrre artificialmente sentimenti di bontà e di benevolenza verso gli altri” (Current Biology, 3, 2014). I risultati ottenuti confermerebbero che il tolcapone, altro ormone umano, contribuisce ad accrescere il tasso di equanimità nei confronti anche di sconosciuti e ad accrescere, per questa via, la propensione alla fiducia. (Si tratta di tentativi che mirano al mood enhancement delle persone, per modificarne il carattere e aumentarne il benessere psicologico, contrastando la disposizione alla tristezza e all’introversione).  Non è questa la sede per discutere della plausibilità di risultati simili e per giudicare l’efficacia, nella pratica, di proposte come quella di somministrare per via chimica molecole atte a potenziare la nostra moralità. Mi limito ad osservare che il tentativo di attribuire l’origine del senso morale alla biologia, tentativo che riduce tale senso a mera chimica cerebrale, se da un lato può sortire effetti desiderati rispetto a ciò che è funzionale al buon andamento degli affari, dall’altro riduce lo spazio della libertà (positiva) e quindi della responsabilità individuale. Vedere il pensiero morale come intrinseco al cervello umano, piuttosto che come prodotto di volontà e di cultura, comporterebbe un arretramento rispetto alla già problematica e riduttiva figura dell’homo oeconomicus.

Non v’è chi non veda come approcci del genere si collochino, al di là delle apparenze o delle dichiarazioni ufficiali, nell’ambito di quel grande progetto, politico e filosofico insieme, che è il transumanesimo, la cui ambizione è sia fondere l’uomo con la macchina per ampliarne le  potenzialità in modo indefinito sia (e soprattutto) arrivare a dimostrare che la coscienza non è un ente esclusivamente umano. L’obiettivo qui non è tanto commerciale o finanziario: è politico, e in un certo senso religioso e ciò nel senso che il progetto ambisce a trasformare – non tanto a migliorare - il nostro modo di vivere, oltre che i nostri valori di riferimento. Il transumanesimo è l’apologia di un corpo e di un cervello umani “aumentati”, arricchiti cioè dall’intelligenza artificiale, il cui utilizzo consentirebbe di separare la mente dal corpo e quindi di affermare che il nostro cervello per funzionare non avrebbe necessità di avere un corpo, e questo permetterebbe di sviluppare argomenti riguardanti il significato della persona e della sua unità. Può essere d’interesse ricordare che la parola robot deriva dal ceco “robota” che significa, letteralmente, lavoro forzato. Essa appare per la prima volta nel romanzo di fantascienza di Karl Capek nel 1920, RUR – Rossum’ Universal Robots. Il romanzo descrive il sogno del capo azienda di RUR che preconizza l’avvento di un tempo in cui i prezzi dei beni sarebbero scesi a zero grazie agli aumenti di produttività assicurati dai robot e nel quale fatica e povertà sarebbero state sconfitte. Ma il sogno svanisce quando i robot “decidono” di eliminare i loro creatori, uccidendo tutti gli uomini. Nella stagione della quarta rivoluzione, la componente meccanica dei robot – che li rendeva poco versatili e perciò scarsamente vantaggiosi – è stata sostituita da quella elettronico-informatica. E’ così che si è giunti alla manifattura cognitiva, nella quale i robot si pongono sul piano degli umani, comprendendo il contesto in cui operano. (YuMi è uno dei primi robot collaborativi immessi nel mercato che operano non solo nella fabbrica, ma anche nel settore dei servizi).

La strategia perseguita da Ray Kurzweil, responsabile del progetto che Google va da qualche tempo implementando, mira alla produzione di cyborg dotati di sembianze fisiche e capacità cognitive simili a quelle dell’homo sapiens.  E’ l’obiettivo del playing God (recitare la parte di Dio) che nasconde il desiderio di prendere in mano le redini dell’evoluzione.  (R. Kurzweil, Come creare una mente, Milano, 2013). Per una trattazione generale, si veda C.F. Camerer, “The potential of neuroeconomics”, Economics and Philosophy, 24, 2008). L’approccio fisicalista (secondo cui esisterebbe soltanto una realtà – quella fisica – che le scienze cognitive cercano di comprendere per spiegare come si genera la conoscenza), accolto dalle neuroscience pone in discussione il nesso tra responsabilità e libertà. Veniamo da una lunga stagione durante la quale era assodato ritenere che alla libertà come espressione della responsabilità corrispondesse la responsabilità come consenso all’applicazione della stessa libertà. Cosa significa per un operatore lavorare tutto il giorno con un robot collaborativo? Sappiamo già come l’avvento dei social network e l’uso degli smartphone stiano cambiando le nostre abitudini e i nostri stili di vita. Ma possiamo pensare un futuro in cui l’uomo trascorre tutta  la sua giornata lavorativa “dialogando” – si fa per dire – con un robot, senza cadere in forme nuove e più gravi di alienazione? Può essere d’interesse riportare il pensiero di Gramsci su una questione del genere. Riferendosi alla famosa frase di F. Taylor sul “gorilla ammaestrato”, Gramsci scrive: “Il Taylor esprime con cinismo brutale il fine della società americana: sviluppare nel lavoratore al massimo grado gli atteggiamenti macchinali ed automatici, spezzare il vecchio nesso psico-fisico del lavoro professionale qualificato che domandava una certa partecipazione attiva dell’intelligenza, della fantasia, dell’iniziativa del lavoratore e ridurre le operazioni produttive al solo aspetto fisico macchinale. Ma in realtà non si tratta di novità originali: si tratta solo della fase più recente di un lungo processo che si è iniziato col nascere dello stesso industrialismo, fase che è solo più intensa delle precedenti e si manifesta in forma più brutali, ma che essa pure verrà superata con la creazione di un nuovo nesso psico-fisico di un tipo differente da quelli precedenti e indubbiamente di un tipo superiore”. (A. Gramsci, Quaderni dal  Carcere, Q 22, 11; “Americanismo e fordismo”).

L’interrogativo posto ci introduce al tema della responsabilità – il secondo aspetto di cui ho scritto all’inizio del paragrafo – intrigante quanto pochi. Come sappiamo, la responsabilità possiede significati diversi. Si può dire responsabilità per significare una libertà che ha il senso della responsabilità. Ma si può dire responsabilità in senso molto diverso quando si è incaricati di un compito di cui si deve rispondere.  (E’ il concetto americano di “accountability”).  Infine, si può dire responsabilità per indicare che si è colpevoli di un’attività portata a compimento. In tal senso, “io sono responsabile” significa che sono colpevole di qualcosa. Responsabilità e libertà risultano pertanto fortemente correlate, anche se, in tempi recenti, sull’onda degli avanzamenti registrati sul fronte delle neuroscienze, si tende  ad allentare il nesso tra libertà e responsabilità.  Si considerino gli interventi di potenziamento cui ho fatto cenno dianzi. Il soggetto potenziato prenderebbe le sue decisioni non sulle   ragioni pro e contro, ma in seguito all’influsso causale esercitato sul suo cervello dai mezzi di manipolazione biotecnologica. Quanto a dire che per migliorare la performance degli esseri umani li si priva della loro autonomia morale, che è il bene più prezioso. (Sul tema, si veda l’importante riflessione di P. Donati, “Globalization of markets, distant harms and the need for a relational ethics”, Rivista Internazionale di Scienze Sociali, 1, 2017).

Mentre sembra relativamente facile identificare la responsabilità diretta degli agenti – come quando il proprietario di uno sweatshop sfrutta il lavoro minorile per trarne un vantaggio – che dire dell’azione economica che è intrapresa con l’intenzione di non svantaggiare nessuno e tuttavia provoca effetti negativi in capo ad altri? Ad esempio, di chi è la responsabilità della disoccupazione, della povertà, delle disuguaglianze, etc? Le risposte tradizionali, in economia, consistono nel sostenere che si tratta di conseguenze non volute delle azioni intenzionali (le “unintended consequences of intentional actions” di cui ha parlato la Scuola dei moralisti scozzesi del 18° secolo). E dunque l’unica cosa da fare è di attribuire alla società il compito di porre rimedio (o di alleviare) le conseguenze negative. E infatti il welfare state è sorto e si è sviluppato precisamente per rendere collettiva e impersonale la responsabilità dei singoli. Ma è veramente così? Siamo sicuri che i meccanismi del libero mercato siano inevitabili e che gli effetti  che ne derivano siano inattesi, come si tende a far credere?

Valga un solo esempio. Albert Carr nel saggio “Is business bluffing ethical?” (Harvard Business Review, 1968) – il saggio più citato di sempre in teoria della finanza – scrive: “La finanza, dove si cerca di fare agli altri ciò che non si desidera gli altri facciano a noi (sic!) dovrebbe essere guidata da un insieme di standard etici diversi da quelli della morale comune o della religione: gli standard etici del gioco. Se un’azione non è strettamente illegale, e può dare un profitto, allora compierla è un obbligo dell’uomo d’affari”. E’ questo modo di pensare – fondato sulla tesi della doppia moralità – che è all’origine di tutti i grandi scandali finanziari, tra cui quelli dell’ultimo ventennio. Come, tra i primi, aveva notato Z. Bauman, l’organizzazione sociale della seconda modernità è stata pensata e disegnata per neutralizzare la responsabilità diretta e indiretta degli agenti. La strategia adottata – di grande raffinatezza intellettuale – è stata quella, per un verso, di allungare la distanza (spaziale e temporale) tra l’azione e le sue conseguenze e, per l’altro verso, di realizzare una grossa concentrazione di attività economica senza una centralizzazione di potere. E’ in ciò il carattere specifico dell’impresa adiaforica, una figura di impresa ignota alle epoche precedenti la seconda guerra mondiale e il cui fine è quello di annullare la questione della responsabilità morale dell’azione organizzata. Adiaforica è la responsabilità “tecnica” che non può essere giudicata in termini morali di bene/male. L’azione adiaforica va valutata in termini solamente funzionali, sulla base del principio che tutto ciò che è possibile per gli agenti sia anche eticamente lecito, senza che si possa giudicare eticamente il sistema, come Luhmann ha insegnato.

Ebbene, la responsabilità adiaforica ha ricevuto, in tempi recenti, nuovo impulso proprio dalla 4a rivoluzione industriale, la quale va producendo “mezzi” che sono alla ricerca di “domande” o di problemi da risolvere. Esattamente il contrario di quanto era accaduto con le precedenti rivoluzioni industriali. Invero, cosa ne è del principio di responsabilità nella società degli algoritmi? Dalle nuove tecnologie industriali alla diagnostica medica, dai social networks ai voli degli aerei, dai big data ai motori di ricerca: ci affidiamo a complesse procedure cui deleghiamo la buona riuscita di operazioni che gli esseri umani, da soli, non saprebbero eseguire. Eppure, gli algoritmi sono irresponsabili, pur non essendo neutrali, né oggettivi, come invece erroneamente si crede. Quando un programma commette un errore non ne paga le conseguenze, perché si ritiene che la matematica resti al di fuori della moralità. Ma non è così, perché gli algoritmi non sono pura matematica; sono opinioni umane incastonate in linguaggio matematico. E dunque discriminano, al pari dei decisori umani. Ad esempio, il processo delle assunzioni di lavoro si va sempre più automatizzando, perché si pensa di rendere obiettivo il reclutamento del personale, eliminando pregiudizi. Ma le dinamiche discriminatorie, anziché diminuire, stanno aumentando nelle nostre società. (P. Zellini, “Saranno gli algoritmi a governarci?”, Repubblica, 12 marzo, 2017).

Generalizzando un istante, il vero problema delle smart machines comincia nel momento in cui queste compiono azioni che coinvolgono la necessità di scegliere oppure di decidere. Il soldato-robot, l’automobile-robot, la scopa-robot potrebbero compiere scelte esiziali per vite non robotiche. Di chi è la responsabilità in questi casi? Quale il messaggio subliminale della recente provocazione di Bill Gates di tassare i robot, che andrebbero dotati di personalità elettronica, al pari delle corporations che sono dotate di personalità giuridica? Come ha lucidamente spiegato Gunther Anders, (L’uomo è antiquato. Sulla distribuzione della vita nell’epoca della terza rivoluzione industriale,  Torino, Bollati Boringhieri, 2002) - il XXI secolo ha inaugurato l’era dell’irresponsabilità umana, immunizzando i soggetti dalle loro relazioni. Le “smart machines” (quelle dotate di intelligenza artificiale) sono in grado di prendere decisioni autonome, che hanno implicazioni sia sociali sia morali. (Si veda  il caso dell’auto senza pilota Tesla, creata da Elon Musk, che nel maggio 2016 uccise un passeggero). Come assicurare, allora, che le decisioni prese da tali oggetti siano eticamente accettabili? Dato che queste macchine possono causare danni di ogni sorta, come fare in modo che esse siano poste in grado di differenziare tra decisioni corrette” e “sbagliate” ? E nel caso in cui un qualche danno non possa essere evitato - si pensi al caso dell’auto senza conducente che deve scegliere se gettarsi contro un altro veicolo uccidendone i passeggeri oppure investire dei bambini che attraversano la strada -, come istruire (nel senso di programmare) tali macchine a scegliere il danno minore? Gli esempi in letteratura sono ormai schiera. E tutti concordano sulla necessità di dotare l’IA di un qualche canone etico, per sciogliere dilemmi morali del tipo “guida autonoma”. (Rinvio all’accurato lavoro di L. Palazzani, Dalla bioetica alla tecnoetica: nuove sfide al diritto, Torino, Giappichelli, 2017).

Le divergenze nascono nel momento in cui si deve scegliere il modo (cioè l’approccio) secondo cui procedere: top-down (i principi etici sono programmati nella macchina intelligente: l’uomo trasferisce all’intelligenza artificiale la sua visione etica del mondo) oppure bottom-up (la macchina impara a prendere decisioni eticamente sensibili dall’osservazione del comportamento umano in situazioni reali). Entrambi gli approcci pongono problemi seri, che non sono tanto di natura tecnica quanto piuttosto concernono la grossa questione se le macchine intelligenti debbano o meno essere considerate agenti morali (cioè moral machines). Siamo appena agli inizi di un dibattito culturale e scientifico che già si preannuncia affascinante e preoccupante ad un tempo. Si veda, ad esempio, la recente presa di posizione di A. Etzioni e O. Etzioni (“Incorporating Ethics into Artificial Intelligence”, Journal of Ethics, March, 2017) che negano la possibilità di attribuire lo status di agente morale all’Intelligenza Artificiale e dunque negano ogni fondamento al programma di ricerca della Internet Ethics che studia gli aspetti etici della Internet Communication nelle sue varie articolazioni..

Da ciò essi traggono la conclusione che non vi sarebbe alcun bisogno di insegnare etica alle macchine, anche se ciò potesse essere fattibile. Non è del medesimo parere, ad esempio, il gruppo di ricerca che opera per la Neurolink Corporation, in California, che da qualche tempo sta sviluppando tecnologie digitali per realizzare connessioni tra computer e mente umana e che sta progettando un uomo-cyber con microchip nel cervello.  Sulla intricata e delicata questione concernente la possibilità di attribuire “personalità elettronica” ai robot intelligenti e, più in generale, la opportunità di favorire il passaggio dalla selezione naturale darwiniana alla scelta deliberata del processo di selezione mediante la scorciatoia biotecnologica, si vedano: N. Bostrom, “Welcome to a world of exponential change”, in P. Miller, J. Wilsdon, a cura di, Better Humans? The Politics of Human Enhancement and Life Extension, Demos, London, 2006 e S.M. Kampowski, D. Moltisanti, a cura di, Migliorare l’uomo? La sfida dell’enhancement, Cantagalli, Siena, 2011. Una riflessione importante è quella di Adriano Fabris che distingue tra “etica di internet” e “etica in internet”.

Può essere opportuno considerare che, nel dibattito corrente, due diversi modi di concettualizzare l’IA si vanno confrontando. Come chiarisce L. Palazzani, il primo concerne software che cercano di ragionare e di prendere decisioni cognitive al modo in cui gli umani lo fanno. Per tale concezione, l’IA aspirerebbe a rimpiazzare l’uomo. (Il famoso test di Turing ha a che vedere con  questo tipo di IA). Il secondo modo mira invece a fornire un’assistenza smart agli attori umani. Si tratta di una IA partner dell’uomo, spesso indicata come “Intelligence Augmentation” ovvero “Cognitive augmentation”. Nel concreto, Google si sta muovendo nella prima direzione; l’obiettivo dichiarato è quello di arrivare a fondere l’uomo con la macchina per accrescerne, senza limite, le  capacità; IBM, con il suo cognitive computing, nella seconda. Nel 2013, IBM ha lanciato il sistema di Intelligenza Artificiale “Thomas Watson” in omaggio al nome del suo primo presidente. Watson risponde alle domande poste in linguaggio naturale su qualsiasi tematica. Nella prima pagina del sito dedicato a Watson si legge: “Watson è una tecnologia cognitiva che può pensare come un essere umano”. Si tratterà di vedere se la macchina potrà diventare più intelligente dell’uomo. In ogni caso, resta vero che le risposte standardizzate che Watson (o altra macchina) potrà dare non saranno  mai più efficaci di quelle che possono dare persone in grado di comprendere i problemi di altre persone. Invero, le macchine, per quanto intelligenti, mai saranno capaci di empatia, perché non  dotate di sentimenti morali.  In ogni caso, è oggi più che mai irrisolto il problema di conoscere come e quanto lo sviluppo delle tecnologie potenziative avrà effetti relativamente ai valori della giustizia e dell’eguaglianza sociale. Nella misura in cui queste tecnologie non potranno mai essere fruite da tutti, in quanto assai costose, si pone la questione dell’incremento delle diseguaglianze sociali, già oggi insopportabilmente elevate. Il rischio serio è quello di formare una società parallela costituita dalla fascia di popolazione più ricca che progressivamente si distacca dai più poveri non potenziati.   (M. Sandel, Contro la perfezione. L’etica nell’età dell’ingegneria genetica, Milano, Vita e Pensiero, 2008).

6.     Al posto di una conclusione: oltre l’individualismo libertario 

       E’ quando ci si confronta con problemi come quelli di cui si è trattato nelle pagine precedenti che si arriva a comprendere i limiti seri dell’individualismo libertario quale fondamento antropologico della matrice culturale oggi prevalente, soprattutto in Occidente. Come noto, l’individualismo è la posizione filosofica secondo cui è l’individuo che attribuisce valore alle cose e alle relazioni interpersonali. Ed è sempre l’individuo il solo a decidere cosa è bene e cosa è male; quel che è lecito e illecito. In altro modo, è bene tutto ciò cui l’individuo attribuisce valore. Non esistono valori oggettivi per l’individualismo assiologico, ma solo valori soggettivi ovvero preferenze legittime. Nel saggio Individualmente insieme (Diabasis, 2008), Z. Bauman chiarisce che “il fatto di concepire i propri membri come degli individui [e non come persone] è il contrassegno distintivo della società moderna” (p.29). L’individualizzazione, prosegue Baumann, “consiste nella trasformazione dell’identità umana da un qualcosa di dato a un compito, e nell’attribuzione agli attori della responsabilità rispetto alla realizzazione di questo compito e delle conseguenze delle loro azioni” (p.31). La tesi di Baumann, dunque, è che “l’individualizzazione garantisce a un numero sempre crescente di uomini e donne un’inedita libertà di sperimentazione, ma porta con sé anche il compito inedito di far fronte alle sue conseguenze”. Pertanto il divario, in continuo aumento, tra il “diritto all’autoaffermazione” da un lato e la “capacità di controllare i contesti sociali” nei quali questa autorealizzazione dovrebbe aver luogo, “pare essere la principale contraddizione della seconda modernità” (p.39).

    D’altro canto, il libertarismo è la tesi avanzata da non pochi filosofi secondo cui per fondare la libertà e la responsabilità individuale è necessario ricorrere all’idea di autocausazione. Ad esempio, G. Strawson, tra i tanti, nel saggio Free Agents (2012), sostiene che pienamente libero è solamente l’agente auto-causato, auto-creato o, con le sue parole, causa sui, quasi fosse Dio. Si può ora capire perché dal connubio tra individualismo e libertarismo, cioè dall’individualismo libertario, sia potuta scaturire la parola d’ordine di questa epoca: “volo ergo sum”, cioè “io sono quel che voglio”. La radicalizzazione dell’individualismo in termini libertari, e quindi antisociali, ha portato a concludere che ogni individuo ha “diritto” di espandersi fin dove la sua potenza glielo consente. E’ la libertà come scioglimento dai legami l’idea oggi dominante nei circoli culturali. Poiché limiterebbero la libertà, i legami sono ciò che deve essere sciolto. Equiparando erroneamente il concetto di legame a quello di vincolo si confondono i condizionamenti della libertà – i vincoli – con le condizioni della libertà – i legami, appunto. (Cfr. L. Dumont, Saggi sull’individualismo, Adelphi, Milano, 2013).  Si ponga mente a questa  differenza. Mentre la libertà dei moderni era basicamente politica – la possibilità di essere padroni delle condizioni materiali e sociali della propria esistenza – la libertà individualistica dei post-moderni è la rivendicazione del diritto individuale di fare tutto ciò che è tecnicamente possibile. Godiamo di una schiera di queste libertà, ma non più la libertà di incidere concretamente su quello che Marx chiamava le condizioni sociali e materiali della società in cui si vive. Si consideri, infatti, quel che oggi sta avvenendo con le nuove tecnologie. Per un verso, il nostro spazio di libertà si va dilatando grazie alle opportunità offerte dal potenziamento tecnologico delle nostre capacità comunicative. Per l’altro verso, per sfruttare tali opportunità in modo appieno, la nostra libertà si esercita nella subordinazione acritica alla struttura della rete. Pare proprio che stia ritornando, nella società di oggi, quello che nel 16° secolo Etienne de la Boetie aveva profeticamente denominato “servitù volontaria”.

            E’ questo un aspetto che Michel Foucault ha colto con rara perspicacia quando, affrontando il problema dell’accesso alla verità, si chiede se è vero che oggi viviamo in un tempo in cui è il mercato a essere diventato un “luogo di verità”, dove cioè la vita intera dei soggetti è sussunta all’efficienza economica e dove è ancora il mercato a far sì che il governo, “per essere un buon governo”, debba funzionare secondo quel luogo di veridizione: “il mercato deve dire il vero  e deve farlo in relazione alla pratica di governo. E’ il suo ruolo di veridizione che d’ora in poi, e in modo chiaramente indiretto, lo porterà a comandare, dettare, prescrivere i meccanismi giurisdizionali, sulla cui presenza o assenza il mercato dovrà articolarsi”. E’ d’interesse che perfino un protagonista della rivoluzione digitale come J. Taplin abbia scritto (Move fast and break things, London, Macmillan, 2017): “I libertari che controllano alcune delle principali imprese di Internet non credono affatto nella democrazia. Gli uomini che guidano questi monopoli credono in una oligarchia in cui solamente i più brillanti e ricchi riescono a determinare il nostro futuro”. (p.3). Si tenga presente che le varie posizioni trans-umaniste sono tutte e di impianto  individualistico.  Ma c’è una oltre grave conseguenza di tale impianto  culturale sugli sviluppi recenti della teoria economica intorno alla quarta rivoluzione industriale. Se si consulta l’ampia e ben documentata rassegna critica di A. Goldfart e C. Tucker (Digital Economics, NBER, 23684, Ago.217) – rassegna che prende in considerazione oltre quattrocento lavori sul tema – si noterà che il solo lato dell’offerta è fatto oggetto di attenzione e di analisi: quanto le nuove tecnologie riducono i costi di produzione, accrescono la produttività, permettendo di accrescere le quote di mercato, ecc. Ma nulla si dice dell’impatto della digitalizzazione sulla struttura delle preferenze delle persone, sul loro stile di vita, sulle loro mappe cognitive. Trascurare il lato della domanda, come se alle persone nulla importasse della “numerocrazia”, associata alla “onnimetrica”, oggi dilagante (la tendenza a misurare tutte le dimensioni della vita umana) non promette nulla di buono!

     Sorge spontanea la domanda: dove rintracciare l’origine della diffusione a macchia d’olio della cultura individualistico-libertaria? Per rispondere, giova ricordare che il termine individuum nasce nell’ambito della filosofia scolastica medievale ed è il calco del greco atomos.  (E’ di Severino Boezio la definizione della persona come “naturae relationalis individua substantia”). Ma è a partire dalla fine del Settecento, quando la visione civile dell’economia scompare sia dalla ricerca scientifica sia dal dibattito politico-culturale, che l’individualismo inizia ad accoppiarsi con il libertarismo. Parecchie e di diversa natura le ragioni di tale innesto. Mi limito ad indicare le due più rilevanti. Per un verso, la diffusione negli ambienti dell’alta cultura europea, della filosofia utilitarista di Jeremy Bentham, la cui opera principale, che è del 1789, impiegherà parecchi decenni prima di entrare, in posizione egemone, nel discorso economico. E’ con la morale utilitaristica e non già con l’etica protestante - come taluno ritiene ancora -che prende piede dentro la scienza economica l’antropologia iper-minimalista dell’homo oeconomicus e con essa la metodologia dell’atomismo sociale. Notevole per chiarezza e per profondità di significato il seguente passo di Bentham: “La comunità è un corpo fittizio, composto di soggetti individuali che si considera come se costituissero le sue membra. L’interesse della comunità è cosa? – la somma degli interessi dei parecchi membri che la compongono”.

    Per l’altro verso, l’affermazione piena della società industriale a seguito della prima rivoluzione industriale. Quella industriale è una società che produce merci. La macchina predomina ovunque e i ritmi della vita sono meccanicamente cadenzati. L’energia sostituisce, in gran parte, la forza muscolare e dà conto degli enormi incrementi di produttività, che a loro volta si accompagnano alla produzione di massa. Energia e macchina trasformano la natura del lavoro: le abilità personali sono scomposte in componenti elementari. Di qui l’esigenza del coordinamento e dell’organizzazione. Si fa avanti così un mondo in cui gli uomini sono visualizzati come “cose”, perché è più facile coordinare “cose” che  uomini, e nel quale la persona è separata dal ruolo che svolge. Le organizzazioni, in primis le imprese, si occupano dei ruoli, non tanto delle persone. E ciò avviene non solamente all’interno della fabbrica, ma nella società intera. E’ in ciò il senso profondo del ford-taylorismo come tentativo (riuscito) di teorizzare e di tradurre in pratica questo modello di ordine sociale. L’affermazione della “catena di montaggio” trova il suo correlato nella diffusione del consumismo; donde la schizofrenia tipica dei “tempi moderni”: da un lato, si esaspera la perdita di senso del lavoro (l’alienazione dovuta alla spersonalizzazione della figura del lavoratore); dall’altro lato, a mo’ di compensazione, si rende il consumo opulento. Il pensiero marxista e le sue articolazioni politiche nel corso del Novecento si adopereranno, con alterni ma modesti successi, per offrire vie d’uscita ad un tale modello di società.

Queste due ragioni, tra loro diversissime quanto a presupposti filosofici e a conseguenze politiche, hanno finito col generare a livello economico, un risultato forse inatteso: l’affermazione di un’idea di mercato antitetica a quella della tradizione di pensiero dell’economia civile. Un’ idea che vede il mercato come istituzione fondata su una duplice norma: l’impersonalità delle relazioni di scambio (tanto meno conosco la mia controparte tanto maggiore sarà il mio vantaggio, perché gli affari riescono meglio con gli sconosciuti!); la motivazione esclusivamente auto-interessata di coloro che vi partecipano, con il che “sentimenti morali” quali la simpatia, la reciprocità, la fraternità etc., non giocano alcun ruolo significativo nell’arena del mercato. E’ così accaduto che la progressiva e maestosa espansione delle relazioni di mercato nel corso dell’ultimo secolo e mezzo ha finito con il rafforzare quell’ interpretazione pessimistica del carattere degli esseri umani che già era stata teorizzata da Hobbes e da Mandeville, secondo i quali solo le dure leggi del mercato riuscirebbero a domarne gli impulsi perversi e le pulsioni di tipo anarchico. La visione caricaturale della natura umana che così si è imposta ha contribuito ad accreditare un duplice errore: che la sfera del mercato coincida con quella dell’egoismo, con il luogo in cui ognuno persegue, al meglio, i propri interessi individuali e, simmetricamente, che la sfera dello Stato coincida con quella della solidarietà, del perseguimento cioè degli interessi collettivi. E’ su tale fondamento che è stato eretto il ben noto, modello dicotomico Stato-mercato: un modello in forza del quale lo Stato viene identificato con la sfera del pubblico e il mercato con la sfera del privato.  (Si veda, al riguardo, la riflessione di J. Habermas, Morale, diritto, politica, Torino, Ed. Comunità, 2001).

Quale componente della nostra infrastrutturazione concettuale deve cambiare perché si possa andare oltre la concezione individualistico-libertaria oggi dilagante?  In primo luogo, occorre abbandonare quel pessimismo antropologico che risale a Guicciardini e Machiavelli, passa per Hobbes e Mandeville e giunge fino alla moderna sistemazione del mainstream economico. Si tratta dell’assunto secondo cui gli esseri umani sono individui troppo opportunisti e autointeressati per pensare che essi possano prendere in qualche considerazione, nel loro agire, categorie come i sentimenti morali, la reciprocità, il bene comune e altre ancora. Ha scritto B. Mandeville nel suo celebre La favola delle api. Vizi privati, pubblici benefici, (1713): “Penso di aver dimostrato che né le qualità amichevoli e i gentili affetti che sono naturali nell’uomo, né le virtù che è capace di acquisire… sono i fondamenti della società. Lo sono invece quel che chiamiamo il male nel mondo. Questo è il gran principio che ci rende creature sociali, la base solida, la vita, e il sostegno di tutti i commerci e le occupazioni, senza eccezioni”.

E’ su un tale cinismo antropologico – fondato, si badi, su un assunto e non già su riscontri tratti dal mondo reale – che si è andato costruendo quell’imponente edificio del self-interest che è tuttora il paradigma dominante in economia. E’ chiaro, o così dovrebbe risultare ad una attenta riflessione, che entro l’orizzonte dell’homo oeconomicus non ci può essere spazio per sciogliere i dilemmi etici generati dalle tecnologie convergenti. Infatti, per questa prospettiva di discorso quello umano è un essere unidimensionale, in grado di muoversi per raggiungere un solo scopo. Le altre dimensioni, da quella politica a quelle sociale, emozionale, religiosa devono essere tenute rigorosamente in disparte o, tuttalpiù, possono contribuire a comporre il sistema di vincoli sotto i quali va massimizzata la funzione obiettivo degli agenti. La categoria del “comune” conosce due dimensioni: l’essere-in-comune e  ciò che si ha in comune. Ebbene, non v’è chi non veda come per risolvere il problema di ciò che si ha in comune occorre che i soggetti coinvolti riconoscano il loro essere-in-comune.

Chiaramente, una concezione del genere avrebbe un senso se fosse vero che tutti (o gran parte de) gli individui fossero soggetti autointeressati e asociali. Ma l’evidenza fattuale, che è ormai assai abbondante, basata sia su esperimenti di laboratorio sia su indagini empiriche, ci informa che così non è, perché è maggioranza il numero di coloro che nella realtà esibiscono comportamenti pro-sociali (ad esempio, si sacrificano per conseguire fini collettivi) e non auto interessati (ad esempio, praticano in modo sistematico il dono come gratuità). Ecco perché Lynn Stout (Cultivating Conscience. How Good Laws Make Good People, Princeton, Princeton University Press, 2011) avanza con decisione la proposta di prendere sul serio, nella teoria del diritto, l’idea di coscienza, di quella forza interiore che ispira comportamenti pro-sociali e non egoistici. Concettualizzare la legge come una sorta di sistema di prezzi che fa pagare i danni dovuti a negligenze varie e al non rispetto dei termini contrattuali, ha come effetto, certamente negativo, quello di aumentare il costo della coscienza. Insegnare l’egoismo è una profezia che si autoavvera.

Sappiamo che i tratti comportamentali che si osservano nella realtà (pro-sociali, asociali, antisociali) sono ovunque presenti nelle società. Quel che muta da una società all’altra è la loro combinazione: in alcune fasi storiche prevalgono comportamenti antisociali e/o asociali, in altre quelli prosociali, con esiti sul piano economico e su quello del progresso civile che è facile immaginare. Si pone la domanda: da cosa dipende che in una data società, in un dato periodo storico, la composizione organica dei tratti comportamentali veda la prevalenza dell’un tipo o dell’altro? Ebbene, un fattore decisivo, anche se non l’unico, è il modo in cui si arriva ad articolare il sistema legislativo. Se il legislatore, facendo propria una antropologia di tipo hobbesiano, confeziona norme che caricano sulle spalle di tutti i cittadini pesanti sanzioni e punizioni allo scopo di assicurare la prevenzione di atti illegali da parte degli antisociali è evidente che i cittadini prosociali (e quelli asociali), che non avrebbero certo bisogno di quei deterrenti, non riusciranno a sopportare il costo e quindi, sia pure obtorto collo, tenderanno a modificare per via endogena il proprio sistema motivazionale. Come scrive Stout (2011), se si vuole che aumentino le persone buone, non si deve tentarle ad essere cattive. Su tale questione torna oggi più attuale che mai il pensiero e il monito del grande illuminista napoletano Giacinto Dragonetti. Pubblicando nel 1766 il suo Delle virtù e dei premi, in rispettosa ma ferma critica del celebrato Dei delitti e delle pene  (1764) di Cesare Beccaria, Dragonetti prende sul serio l’affermazione degli Scolastici secondo cui la virtù è più contagiosa del vizio, a condizione che venga fatta conoscere. E’ per questo che l’apparato delle leggi deve, in primis, prevedere premi (non incentivi) ai virtuosi e, in secundis, comminare pene ai malfattori. (L’opera di Dragonetti, tradotta all’epoca in quattro lingue straniere, verrà citata da Thomas Paine nella Dichiarazione di Indipendenza degli Stati Uniti nel 1776. In Italia verrà gettata alle ortiche!).

E’ questo il cosiddetto meccanismo del crowding out (spiazzamento): leggi di marca hobbesiana tendono a far aumentare nella popolazione la percentuale delle motivazioni estrinseche e quindi ad accrescere la diffusione dei comportamenti di tipo antisociale. Proprio perchè i tipi antisociali non sono poi così tanto disturbati dal costo dell’enforcement delle norme legali, dal momento che cercheranno sempre in vari modi di eluderle. (Si veda quel che accade con l’evasione e l’elusione fiscale). Alla luce di quanto precede, siamo ora in grado di comprendere come e dove intervenire se si vogliono accelerare i tempi per far avanzare pratiche che contrastino la diffusione di comportamenti individualistici. Fintanto che si pensa a quello economico come ad un tipo di agire la cui logica non può che essere quella dell’homo oeconomicus  è evidente che mai si arriverà ad ammettere che possa esistere un modo civile di gestire l’economia.  Ma ciò dipende dalla teoria, cioè dall’occhiale col quale si scruta la realtà e non già dalla realtà stessa.  E’ al paradigma dell’economia civile e alle sue categoria di pensiero  che si deve tornare se si vuole che l’attuale seconda grande trasformazione – la prima fu quella indagata da Karl Polanyi (1944) – costituisca un vero e proprio progresso dei popoli, miri cioè allo sviluppo umano integrale. (L. Bruni, S. Zamagni, L’economia civile, Bologna, Il mUlino, 2015).

La seconda strategia da porre in campo per contenere entro limiti convenienti l’individualismo è quella di tornare a porre al centro del discorso pubblico il principio di fraternità – parola questa già presente nella bandiera della Rivoluzione Francese del 1789.   E’ merito grande della cultura europea quello di aver saputo declinare, in termini sia istituzionali sia economici, il principio di fraternità facendolo diventare un asse portante dell’ordine sociale. E’ stata la scuola di pensiero francescana a dare a questo termine il significato che essa ha conservato nel corso del tempo. Ci sono pagine della Regola di Francesco che aiutano bene a comprendere il senso proprio del principio di fraternità. Che è quello di costituire, ad un tempo, il complemento e il superamento del principio di solidarietà. Infatti, mentre la solidarietà è il principio di organizzazione sociale che consente ai diseguali di diventare eguali, il principio di fraternità è quel principio di organizzazione sociale che consente agli eguali di esser diversi.  La fraternità consente a persone che sono eguali nella loro dignità e nei loro diritti fondamentali di esprimere diversamente il loro piano di vita, o il loro carisma. Le stagioni che abbiamo lasciato alle spalle, l’800 e soprattutto il ‘900, sono state caratterizzate da grosse battaglie, sia culturali sia politiche, in nome della solidarietà e questa è stata cosa buona; si pensi alla storia del movimento sindacale e alla lotta per la conquista dei diritti civili. Il punto è che la buona società non può accontentarsi dell’orizzonte della solidarietà, perché una società che fosse solo solidale, e non anche fraterna, sarebbe una società dalla quale ognuno cercherebbe di allontanarsi. Il fatto è che mentre la società fraterna è anche una società solidale, il viceversa non è vero.

            Non solo, ma dove non c’è gratuità non può esserci speranza. La gratuità, infatti, non è una virtù etica, come  è la giustizia. Essa riguarda la dimensione sovraetica dell’agire umano; la sua logica è quella della sovrabbondanza. La logica della giustizia, invece, è quella dell’equivalenza, come già Aristotele insegnava. Capiamo allora perché la speranza non possa ancorarsi alla giustizia. In una società, per ipotesi, solo perfettamente giusta non vi sarebbe spazio per la speranza. Cosa potrebbero mai sperare i suoi cittadini? Non così in una società dove il principio di fraternità fosse riuscito a mettere radici profonde, proprio perché la speranza si nutre di sovrabbondanza.

Aver dimenticato il fatto che non è sostenibile una società di umani in cui si estingue il senso di fraternità e in cui tutto si riduce, per un verso, a migliorare le transazioni basate sullo scambio di equivalenti e, per l’altro verso, ad aumentare i trasferimenti attuati da strutture assistenziali di natura pubblica, ci dà conto del perché, nonostante la qualità delle forze intellettuali in campo, non si sia ancora addivenuti ad una soluzione credibile di quel trade-off. Non è capace di futuro la società in cui si dissolve il principio di fraternità; non è cioè capace di progredire quella società in cui esiste solamente il “dare per avere” oppure il “dare per dovere”. Ecco perché, né la visione liberal-individualista del mondo, in cui tutto (o quasi) è scambio, né la visione statocentrica della società, in cui tutto (o quasi) è doverosità, sono guide sicure per farci uscire dalle secche in cui la quarta rivoluzione industriale sta mettendo a dura prova la tenuta del nostro modello di civilizzazione.