Menu Chiudi

Epistemologia e fondamenti dell’informatica nella società delle comunicazioni

torna ad articoli di I.

Epistemologia e fondamenti dell’informatica nella società delle comunicazioni

di Franco Eugeni

Indice

Introduzione

  1. Verso una visione epistemologica delle discipline informatiche
  • L’aspetto epistemologico della cultura, oggi ………………………….                                           
  • I desideri dell’uomo tecnologico e il suo stereotipo nell’immaginario collettivo………       
  • Sulle radici del sapere informatico ………………………………………..                                              
  • Il pensiero boudoniano e l’azione congiunta dell’uomo-macchina                                  
  • Verso la nozione di paradigma cooperativo…………………………… 
  • Conclusioni finali…………………………………………………………………. Note……………………………………………………………………………………………. 
  • Bibliografia…………………………………………………………………………………. 
  • Le Appendici sono scaricabili a parte.

Il presente  articolo è apparso nella sua prima edizione sul sito  http://www.apav.it  il 19 Settembre 2000, ha avuto due revisioni nel Settembre 2001 e nel Settembre 2008.

INTRODUZIONE

Dalle prime grandi macchine dell’inizio del XX secolo, a partire dagli anni ’40 la versatilità dei calcolatori è diventata più realistica potendola delegare ai programmi immagazzinati in memoria.  Ma i calcolatori nella loro forma attuale, ivi inclusa la loro permeazione nella società, nascono negli anni ’70 e hanno una veloce espansione; se ne occupano dapprima i militari americani, quindi le università, fino alla grande esplosione di Internet e della posta elettronica che più o meno è collocabile attorno al 1998! Un intero esercito di “persone parlanti informatichese”, il nuovo linguaggio internazionale che si è sovrapposto alle nostre lingue, è sceso in campo e ha invaso ogni campo dell’azione sociale!

Sentiamo ormai quotidianamente parole del tipo: word, chip, bit, byte, megabyte, giga, scanner, mouse, laserjet, ram, modem, office, desktop, bancomat, file, e-mail, internet, chat line, virus, excel, ecc. E sentiamo, analogamente, frasi come: ti faccio una mail, ho scaricato da internet, vedo sul web, ti cerco in chat!

Queste parole iniziamo a capirle, a volte solo perché le abbiamo sentite dire ripetutamente, di altre ne abbiamo una conoscenza parziale, ma quanti di noi saprebbero dire cosa significhi esattamente aspirina, cambio automatico, come funziona un televisore o una radio, come è fatto un forno a microonde, quali sono i problemi dell’acqua o delle centrali nucleari o del medio-oriente. Sì, a volte si confonde il sapere con l’intuire vagamente o anche con l’abitudine ad un’azione sociale ripetuta. Non ci meravigliamo più se  vediamo in uno schermo il nostro stomaco dall’interno, i bambini prima che nascano e il loro sesso, se entriamo con una sonda nel nostro cuore, se comperiamo un libro negli Stati Uniti da librerie con negozi virtuali, con forme di pagamento automatizzate, e lo riceviamo dopo 48 ore. Come azione sociale partecipiamo alle aste in “e-bay”, prenotiamo alberghi e spettacoli vedendo direttamente sul monitor del nostro pc dove sarà il nostro posto, prenotiamo viaggi, mettendoci in relazione con un interlocutore muto,  che comincia ad essere una mascherina sempre eguale, familiare: diventa un amico, quasi come incontrare un locale McDonald per ottenere una cheeseburger in piena Cina!

Tutto questo è alla base della odierna Scienza della Comunicazione: la comunicazione che ha invaso tutti i campi! Fino ad oggi, da quel mitico 1945 – anno ufficiale di nascita del calcolatore elettronico – il nostro imperitivo è stato “…avanti, sempre avanti, …si può spingere di più, avanti nella vita a testa in su!” come recitano i versi di una nota canzone di Giorgio Gaber. Magari non siamo tanto a testa in su, quando siamo davanti al Computer, ma l’idea è ugualmente chiara.

Questo lungo articolo vuole essere un inizio di una lunga riflessione. I punti focali delle nostre tesi vengono da molto lontano. La storia delle macchine da calcolo è molto antica e risale all’abaco, molte problematiche sono state poste, risolte parzialmente, dimenticate, riscoperte. I fondamenti, l’epistemologia delle scienze informatiche, il tentativo di innestare una Filosofia della Scienza sull’azione sociale dell’informatica per la Comunicazione ci sembra una sfida didattica e scientifica che ci sentiamo di correre.

1.- Verso una visione  Epistemologia delle discipline informatiche

1.1     L’aspetto epistemologico della cultura, oggi

Lo scopo principale della ricerca che portiamo avanti in questo secondo quaderno di Epistemologia e Fondamenti dell’Informatica nella Società delle Comunicazioni, non è solo quello didattico che si rivolge a quelli che saranno i nostri lettori, siano essi studenti di Scienze della Comunicazione o Scienze Politiche o anche di Ingegneria, ma anche e principalmente quello di aprire un dibattito, tra giovani e meno giovani, verso questa visione critica dell’informatica che si presenta a noi come multiforme, sfuggente ed ampia, in notevole espansione giornaliera, con molteplici paradigmi forse differenziati e tuttavia così apparentemente rispondente a tante aspettative e a tanti bisogni che l’uomo di oggi sembra avere e sembra moltiplicare nella sua evoluzione verso l’uomo tecnologico.

Nel presentare le idee di base, sia per ragioni didattiche, sia per chiarezza nostra, di riordino e riorganizzazione, entriamo in argomento con l’indicare sommariamente quelli che oggi si considerano i modelli e i metodi maggiormente in uso nell’Epistemologia e nella Filosofia della Scienza.

Tra questi termini vogliamo lasciare, come è oggi molto in uso, delle differenze di sfumature.

Epistemologia, dal greco episthmh, come derivazione etimologica proviene da episteme logos, ossia “discorso sulla conoscenza”. Indipendentemente dai contenuti della conoscenza specifica relativa alla ricerca, questo discorso si muove ad un livello differente e sovrastante l’ambito specifico, indaga su linguaggi, strutture, forme, metodologie. Pone questioni interdisciplinali quali il significato e le differenze tra fondamenti e deduzioni di leggi scientifiche, e si occupa dei rapporti tra le differenti formulazioni e dell’impianto logico-concettuale della scienza in generale.

Volendo distinguere l’Epistemologia dalla Filosofia della Scienza occorre precisare che la Filosofia della Scienza è una disciplina che, pur occupandosi delle medesime problematiche, tende in maggior grado alla diretta osservazione della  pratica scientifica specifica della disciplina. Si tende così a parlare di Filosofia della Matematica, della Fisica, della Biologia ma  anche di Filosofia dell’Economia e magari dell’Informatica, in un discorso sulla conoscenza che si rileghi maggiormente con quanto accade all’interno delle discipline scientifiche stesse, indagando in esse su fondamenti, metodi, strutturazioni, modelli, tradizioni, rivoluzioni, aperture al mondo reale e ad innovazioni e modalità operative.

Ancora seguendo Tagliagambe[1], rimarchiamo che

“Oggi si tende, sulla scorta di Von Foerster – un esperto di Intelligenza artificiale e di Cibernetica – a dare una derivazione etimologica diversa, meno plausibile sotto il profilo puramente linguistico però più significativa sotto il profilo concettuale, cioè epi-istenai, “stare sopra”, che rende bene l’idea di una articolazione in più livelli del discorso che riguarda la conoscenza, cosa che d’altronde troviamo anche nelle lingue moderne, come ad esempio nel termine inglese understand.”

Così Epistemologia e Filosofia della Scienza ci appaiono come due angolazioni da cui osservare le nostre problematiche e per questo ci piace mettere subito in evidenza che l’attività filosofico-epistemologica non è un’attività che può essere fatta da studiosi che abbiano solo marginalmente operato da ricercatori, nei campi che è loro desiderio inquadrare in una visione propria della Filosofia della Scienza. In altre parole ogni ricercatore, una volta raggiunta la maturità di conoscenza in una determinato ampio settore di ricerca, sarebbe auspocabile conducesse da sè la sua corretta indagine epistemologica. Essendo ampio conoscitore delle metodologia e delle tecniche usate e dei dettagli di quel sapere appare un candidato idoneo per l’indagine epistemologica e per operare una sana e costruttiva meta-riflessione.

Nella sostanza la metodologia di massima è la seguente:

  • tendenza ad elaborare ed esportare i metodi usati per le prova;
  • tendenza a costruire in modo rigoroso dei metodi di giustificazione;
  • tendenza a fare ricorso ed affinare i metodi di interpretazione;
  • tendenza ad enunciare criteri generali di validità, i limiti dei risultati scientifici ottenuti unitamente ad un suo inquadramento in un modello generale che ne costituisce il paradigma.

Una delle funzioni dell’epistemologia, in ordine ad esportare i metodi propri di un settore di ricerca,  è la ricerca di un criterio generativo su tutto ciò che possa essere espandibile, mediante la formulazione di principi che si sia in grado di trapiantare altrove, avendone riconosciuto la validità ed i limiti. Un criterio assurgerà poi a divenire un paradigma solo quando se ne sia dato una piena giustificazione epistemologica. Ciò significa che dal criterio generativo sono stati enucleati i criteri  generali ed i principi fondazionali che lo governano.

Può capitare, naturalmente, che studiosi che non si siano dedicati a specifici campi di pertinenza siano talmente abili e sensibili da osservare ricerche altrui e darne una correttissima visione corredata da un’ampia analisi epistemologica. Tuttavia notiamo che molti grandi della Storia delle Scienze sono stati epistemologi e scienziati, sono stati rinnovatori delle teorie scientifiche ove hanno prodotto risultati, sono stati ottimi analizzatori dei limiti e degli sviluppi delle loro aree di afferenza. Osserviamo ancora che uno studioso specifico per condurre una ricerca epistemologica del suo sapere dovrà allontanarsi necessariamente dai dettagli e acquisire lo spirito che ci conduce nelle meta-riflessioni. Infatti i principi generali da enucleare, mediante indagini, quasi mai condotte in grande profondità, devono essere sufficientemente larghi da poter contenere potenzialmente tutte le novità ed evitare tutte le meccanicizzazioni, e questo senza troppo dettaglio da impedirne l’espansione. La meta-riflessione non sembra necessitare di indagini profonde anche perché la meccanicizzazione del processo non tende a  riprodursi quasi  mai allo stesso modo, mai uguale due volte!

Così quanto il ricercatore ha enunciato oggi, può essere superato domani, e allora che lo si ripresenti differemente occorre operare un drastico cambio di paradigma. Ciò naturalmente si inserisce nella teoria fallibilista della Scienza (Lakatos, 1970) e si può far risalire anche ai dibattiti tra i matematici per le geometrie non euclidee e tra i fisici per la Teoria della Relatività. Da notare che in entrambi i casi si è costruita un teoria nuova che, superando la vecchia, ci ha condotto ad una riformulazione ed ad un ampliamento e quindi ad un cambio di paradigma, pur consentendoci di non abbandonare le vecchie teorie: la geometria euclidea e la fisica newtoniana.

Questa operazione viene indicata con il termine coupe epistemologique che si traduce come salto o taglio epistemologico; un salto generativo che produce un nuovo ambiente epistemologico nel quale osservare il fenomeno o la teoria.

Con il compiere un cosiddetto salto epistemologico, con questo brillante stato di emergenze che taluno ha battezzato serendipity[2], si è condotti a far nascere una teoria tra emergenze e permanenze relative ai  discorsi sul nostro sapere. Nasce la filosofia emergentista del cosiddetto costruttivismo. Quello che emerge e che ci piace far notare è questo atteggiamento al quale ci leghiamo  tutte le volte che andiamo a chiudere un campo d’indagine. In realtà, nel chiuderlo, noi lasciamo aperta una porta, attraverso la quale transitiamo in un altro campo di verità, che si connette ed esalta il precedente, vive di luce propria e permette di operare profonde sinergie! Del resto quanto detto ci sembra una buona sintesi della riflessione meta-filosofica. E’ stato proprio Kant che ci ha dato i limiti della conoscenza umana, ma in effetti nel dare questi limiti ha indicato esattamente fino a che punto, e come, la nostra mente funziona, assegnando le categorie dello spazio e del tempo. Il vantaggio della meta-riflessione di ciò che si fa in un modo intuitivo, spontaneo e a volte automatico, viene in tal modo regolamentato entro ben precisi criteri di validità.

Da questo punto di vista ci mettiamo nell’ottica di chi ne voglia analizzare gli elementi e i principi costitutivi, cioè le regole dell’intera scienza, regole dalle quali  discendono una certa varietà di campi applicativi ed una certa serie di scoperte scientifiche.

Se la scoperta delle Teorie Relativistiche ha messo in luce il carattere fallibile della geometria tradizionale come modello per lo spazio fisico, è anche vero che la fisica newtoniana continua ad essere il filo conduttore in tante problematiche lontane dalle sofisticate ipotesi generative della Relatività. La ricerca della dinamica della scoperta scientifica sembra spesso avere la prevalenza sulla sua struttura logica che rappresenta più il momento della revisione e conquista paradigmatica. Questa tradizione neo-razionalista italo-francese ha le sue figure significative in Enriquez e Castellana , in Bachelard, in Gonseth ma anche e specialmente in Popper  e forse anche in Kuhn.

Volendo trarre una conclusione da quanto sopra esposto  l’epistemologia ci appare come un  momento di bilancio, nel quale lo scienziato, confrontandosi con l’intero mondo della Scienza, prende reale consapevolezza di ciò che è stato fatto e che fa. Per questa via dunque la particolare scoperta scientifica, nella realtà legata a fatti concreti, si inserisce nello scibile umano e ne nasce una corretta interpretazione della scoperta stessa, dei suoi limiti e della sua portata.

La scoperta scientifica avviene in genere in una maniera, nel più dei casi, giudicata caotica, in contrapposizione di emergenze e permanenze,  talvolta anche casuale e certamente disordinata. Una volta ottenuti i risultati si opera un passo successivo, quello della necessità della giustificazione ed è in questa fase che emerge anche il concetto di rigore scientifico. In un momento, ancora successivo,  ci si pone il  problema di esaminare  se una data legge è costituzionalmente coerente, e se e come possa emergere un paradigma e se esiste un criterio generativo.

L’Epistemologia, nella concenzione attuale, si ritiene si divida in tre grandi settori:

  1. epistemologia delle scienze formali,
  2. epistemologia delle scienze naturali,
  3. epistemologia delle scienze sociali e umane.

Su questi tre settori generali si sono effettuate delle specializzazioni; per esempio, nell’ambito della epistemologia delle scienze formali, vi è chi si occupa di epistemologia della matematica e chi invece si occupa di epistemologia della fisica. In particolare è nella crisi dei fondamenti, che si può maggiormente vedere la capacità dell‘epistemologo di ritrovare le basi fondamentali del  ricostruire. Così se nel caso dell’epistemologia della matematica ci si occupa della crisi dei fondamenti della geometria, da questa nascono le geometrie non euclidee e magari altre “geometrie non …”. Nel caso invece della epistemologia della logica ci si occupa delle logiche polivalenti; nella epistemologia della fisica si studia, ad esempio, il momento di crisi che ha segnato il passaggio dalla meccanicistica alla fisica quantistica.

 

 

¨¨¨¨¨

 

 

 

 

1.2       I desideri dell’uomo tecnologico e gli stereotipi dell’immaginario collettivo

 

Dal tempo dei primi libri e della trasmissione del sapere attraverso manoscritti la fantasia dell’uomo è sempre andata ben oltre la conoscenza scientifica, spesso fungendo da guida anticipatrice per problematiche sociali, economiche ma anche da monito per la società nei confronti dello sviluppo futuro. Questo fenomeno appare in forma molto significativa nelle opere dello scrittore francese Jules VERNE (1828-1905) da taluni considerato l’inventore del romanzo di science-fiction. La sua copiosa produzione, si riassume qui in alcune opere significative per il discorso che noi stiamo presentando. Ricordiamo: Cinq semaines en ballon (1863), Paris au XXe siecle (1863 – pubblicato dalla Hachette  solo nel 1994), Voyage au centre de la Terre(1864),  De la terre a la Lune (1865) , Vingt mille lieus sous le mers (1869), Autor de la Lune (1870), Une ville flottante (1874),  L’ ile mistérieuse(1875), La Maison à vapeur (1880),  Le Rayon vert (1882), Robur le Conquérant (1886), L’ ile à héliques (1895, inedito in Italia), Le villane aérien (1901).

Nei romanzi di Verne troviamo alcune idee che certamente precorsero molte ed interessanti successive realizzazioni. Particolarmente interessante il romanzo Dalla terra alla Luna, nel quale appaiono dati relativi ad un possibile sbarco sulla luna, incredibili se confrontati con il vero sbarco. La tematica della Luna presenta ben più antichi precursori tra i quali Luciano di Samosata (120-180 d.C.) che fu scrittore, oratore e filosofo greco,  ritenuto rappresentante del movimento retorico “seconda sofistica”. Luciano fu autore di dialoghi su satire religiose e filosofiche e di bizzarre avventure. Ricordiamo: Icaromenippa, Vera Historia, Lucio o L’asino, Dialoghi degli Dei, Dialoghi marini, Dialoghi dei morti, Modo di scrivere la storia. Per tornare al tema, nel suo Vera Historia narra di un vascello che viene risucchiato, durante una tempesta, verso la Luna da uno strano ciclone. Trova assurde creature, uccelli a tre teste, enormi ragni in guerra tra loro. Il romanzo è di un realismo impressionante.

In J. Verne, Paris au XXe siecle (1863) troviamo delle anticipazioni del mondo moderno, fissato nel romanzo nell’anno 1961. Troviamo l’idea del computer, con esso una specie di posta elettronica e fax telegrafico ed una società fondata sulla comunicazione:

“… Michel si voltò e vide la macchina n.4. Era una macchina calcolatrice.  Ormai era lontano il tempo in cui Pascal costruiva quegli strumenti arcaici la cui concezione allora parve tanto mirabile. Da quell’epoca l’architetto Perrault, il conte di Stanhope, Thomas de Colmar, Mauerl e Javet apportarono felici innovazioni a questo genere di apparecchio.

La Banca Casmodage possedeva autentici capolavori; effettivamente i suoi strumenti assomigliavano a vasti pianoforti; premendo i tasti di una tastiera, si ottenevano istantaneamente totali, resti, prodotti, quozienti, regole di proporzione, calcoli di ammortamento e di interessi composti per periodi infiniti a tutti i tassi possibili. C’erano certe note acute che restituivano fino al centocinquanta per cento! Niente di più strabiliante di quelle macchine che avrebbero battuto senza fatica i vari Mondeux. (Henry M., personaggio noto per le sue prodigiose capacità di calcolo).     

Bisognava tuttavia saperle suonare, sicché Michel dovette prendere lezioni di ditteggiatura.

Risulta evidente che Michel aveva preso servizio in una banca che chiamava in aiuto e adottava tutte le risorse della meccanica. D’altronde, all’epoca, l’abbondanza degli affari e la molteplicità degli scambi comunicativi conferirono alle semplici forniture da ufficio un’importanza straordinaria. E così, il fattorino della Casmodage&Co. Non maneggiava meno di tremila lettere al giorno, smistate in tutti gli angoli del vecchio e del nuovo mondo. Una macchina Lenoir della potenza di quindici cavalli non cessava di copiare quelle lettere, che cinquecento impiegati  inviavano senza requie.

Eppure la telegrafia elettrica avrebbe dovuto abbattere significativamente il numero di lettere, visto che recenti perfezionamenti permettevano allora al mittente di corrispondere direttamente con il destinatario; il segreto della corrispondenza restava così salvaguardato, e gli affari più considerevoli potevano essere trattati a distanza. Ogni casa aveva i suoi fili privati, secondo il sistema Wheastone, da tempo in uso in Inghilterra. Gli andamenti degli innumerevoli titoli quotati sul libero mercato si scrivevano da sé su quadranti posti al centro delle borse di Parigi, di Lontra, di Francoforte, di Amsterdam, di Torino, di Berlino, di Vienna, di San Pietroburgo, di Costantinopoli, di New York, di Valparaiso, di Calcutta, di Sidney, di Pechino, di Nouka-hiva.

Inoltre la telegrafia fotografica inventata nel secolo precedente dal professor Giovanni Caselli (1815-1891, inventore del telegrafo scrivente nel 1859) di Firenze permetteva di inviare a distanza il facsimile di qualunque scrittura, autografo o disegno che fosse, e di firmare lettere di cambio o contratti a cinquemila leghe di distanza.

La rete telegrafica copriva allora la superficie intera dei continenti e il fondo dei mari; l’America era meno a meno di un secondo dall’Europa e, in un solenne esperimento effettuato a Londra nel 1903, due collaudotari corrisposero tra loro dopo aver fatto compiere al loro messaggio il giro della terra.”     

Incredibile il breve testo riportato da Verne nella traduzione di M. Grasso[iii]. In Verne si trovano ancora molti messaggi del futuribile quali il viaggio al centro della terra del 1864, Ventimila leghe sotto i mari del 1869 con  l’anticipazione del sottomarino atomico Nautilus, capace d’andare sotto i ghiacci del polo, e ancora villaggi galleggianti ed aerei, case meccanizzate a vapore, l’idea del Robot, raggi della morte, isole mobili!

Herbert  George WELLS (1866-1946) fu uno scrittore inglese, la cui fase produttiva, parte dal romanzo di anticipazione per dirigersi sempre più verso la critica sociale e gli aspetti del sociale, nel quale rivela un profondo pessimismo. Ricordiamo solo alcuni dei suoi più significativi  romanzi connessi con le nostre problematiche.  La macchina del tempo (1895), L’uomo invisibile (1897), La guerra dei mondi (1898), L’amore e il sigor Levisham (1900), La Scienza della vita (1929), Il lavoro, la ricchezza  e la felicità  del genere umano. I primi tre romanzi sono stati anche oggetti di sceneggiature cinematografiche notevoli  come

L’uomo invisibile (1897), La guerra dei mondi di Barry Lyndom del 1952 e La macchina del tempo, recentemente ripresentato in una nuovaproduzione.

George ORWELL (1903-1950), pseudonimo di Eric Blair, scrittore dedicatosi costantemente a denunciare la lotta tra un potere politico ed economico schiacciante e l’uomo schiacciato da allucinanti incontrollate forze di tipo anche psicologico. Oltre ai  romanzi Fiorirà l’aspidistra (1936), La fattoria degli animali (1945) segnaliamo anche 1984 (1948) il romanzo principe di Orwell che denuncia una società schiacciata da un regime totalitario del futuro, vigilata da un terribile apparato statale repressivo e governato da un “virtuale grande fratello” che è onnipresente nella vita dei singoli. Nel 1984 venne prodotto il film “Orwell, 1984” di Michael Radford con Jon Hurt e Richard Burton, mentre La fattoria degli animali vede solo una versione in cartoni animati.

Isaac ASIMOV (1920-1999), biochimico e scrittore americano di science-fiction e autore estremamente prolifico. Lo ricordiamo per i romanzi del ciclo dei Robot e della Fondazione, che sono mirabilmente collegati tra loro e nei quali appaiono singolari figure. Emerge il personaggio di Daneel R. Olivaw (Eto Demerzel), dove R. sta per Robot, che per oltre 15.000 anni, prima di raggiungere la totale usura, veglia sulla razza umana rispettando gli oramai classici principi della robotica[iv] coniati da Asimov. Il secondo personaggio è il mutante Golan Trevize, capace di prendere decisioni in situazioni d’incertezza, personaggio che, nella guida attraverso il computer della sua astronave, si riesce a fondere e diventare un tutt’uno con la macchina, la quale si personalizza e che si adatta completamente a lui, permettendo alla sua individualità di espandersi per l’intera Galassia e vederla. In Asimov troviamo anche idee notevoli sui viaggi del tempo e sulla modifica del passato, così da influenzare il futuro, sui possibili paradossi che ne deriverebbero, sulla possibilità di una società degli immortali con una analisi attenta e scientifica di tutto il futuribile sogno dell’uomo.

L’elenco potrebbe continuare in maniera copiosa tuttavia, tralasciando autori meno noti di quelli citati, troviamo idee molto interessanti con la nascita del genere dei Comics. Questa produzione, essenzialmente americana, nasce negli anni ’30. Ogni giorno una striscia (3-4 vignette) di una storia a puntate, le cosiddette daily strip e la domenica una bella tavola a colori (The Sunday pages) del medesimo personaggio in una storia parallela. Striscie e tavole datate nel giorno di emissione, firmate e sceneggiate da ottimi scrittori nonché  disegnate da superlativi disegnatori.

Così il Brick Bradford di William Ritt e Clarence Gray, nato nel 1932, (continua fino ai primi anni ’90) ci presenta l’impensabile cronosfera, dalla forma di una mongolfiera, capace di muoversi nello spazio come un’aereo prima, come un’astronave poi, ma anche capace di una miniaturizzazione (precorrendo una tematica di Asimov) che la porta a fare un “Viaggio all’interno di una moneta” di rame  o meglio negli infiniti mondi che sono nella muffa della moneta! Ma non basta, la cronosfera è capace anche di viaggiare nel tempo[v], erede di quella macchina di Wells, di cui abbiamo accennato sopra!

Un altro punto che è interessante notare è il come, a volte, la letteratura d’anticipazione sia di vero aiuto all’evoluzione di una qualche disciplina. E’ il caso certo dell’Urbanistica che attraversa un fermento attribuibile a quelle esigenze che rispondano alle categorie di problemi della nuova società che è sempre meno società post-industriale e che è sempre più società dell’informazione. Senza voler entrare nei meandri della discussione, cara a Popper, della non esistenza della società – che sarebbe invece un esplicito delle tendenze degli individui – e nemmeno nel problema delle inintenzionalità, ben chiarito da Antiseri vogliamo riguardare il fenomeno da altre angolazioni.

Negli ultimi anni il progetto urbanistico ha assunto connotati precisi ma molto variegati in ogni parte d’Europa: tecnologico in Francia, progetto nella città in Germania, recupero in Spagna, comunque in ogni caso uno spostamento tematico di una maggior adeguata riflessione. I movimenti culturali più idonei sembrano essere di fatto due: la new age e il cyber punck.

La new age è vista come la cultura del sincretismo con riferimento al taoismo, lo zen, con la psicologia analitica di Jung e per l’intera fascia degli anni ’90 anche con connessioni relative alla medicina alternativa. La città a new age è stata definita a bassa entropia poiché partendo dalla città neotradizionale ci si è ispirati a città ideali restaurando parti di città esistenti e costruendone di nuove. Si integrano uffici, centri commerciali, e residenze in contrasto con il movimento post guerra-mondiale considerato appunto disordinato ed incoerente. La domanda sociale è orientata verso ambienti modellati a misura d’uomo quale che sia l’estensione della città. Il movimento cyber punck è invece legato a quel movimento letterario che nasce con le opere di Philip K. Dick, entrato nell’immaginario collettivo, con il film Blade Runner di R. Scott, dell’immagine dei replicanti , gli esseri artificiali simili all’uomo che Dick immagina. Nel film tutta la paura e l’incertezza dell’uomo di manifesta in una sorta di neo-razzismo anti-cyber, nelle tecniche per riconoscerli e distruggerli e dell’amore che addirittura un umano può sviluppare per una cyber! Così il Cyber è da un lato fantascienza senza astronavi, senza eroi ma è anche la descrizione di un ambiente dive si lotta per la sopravvivenza e dove viene riconsiderata la marginalità specie degli Hacker, indicando quella protesta, iniziata negli anni ’80, che tende a coniugarsi con un uso spregiudicato della tecnologia. Il fenomeno giovanile controculturale si orienta a sovvertire i modi di comunicare imposte dalle grandi holding dell’informazione! Il desiderio collettivo parallelo all’aumento della comunicazione in rete è la libertà d’informazione. Le utopie sulle città cyber hanno una lunga tradizione che partono dalle città di Alex Raymond in Flash Gordon, passano per le metropoli di Asimov e quelle descritte da Dick per arrivare all’idea delle città cablate e delle città intelligenti sfida attuale della nuova urbanistica[vi].

Nel Cinema, oltre alle trasposizioni di romanzi, troviamo come opere prime alcuni film da segnalare quali i seguenti.

  • Metropolis di Fritz Lang (1926), antesignano dei film di fantascienza, realizzato con tecniche rivoluzionarie per l’epoca. E’ descritta una megalopoli del XXI secolo governata da Mr. Fredersen, nella quale una gran massa di operai del sottosuolo vive in condizioni disumane. Il personaggio della buona Maria viene duplicato da un cattivo Robot che porta il seme della discordia[vii] tra gli operai che rischiano con la il collasso della città la loro stessa fine. La distruzione del Robot riporterà la pace e la concordia.
  • L’Uomo Invisibile (1933) di James Whale tratto dal romanzo di Wells. Uno scienziato sperimenta su di se un siero che lo rende invisibile. Il siero gli altera le capacità e gli provoca atteggiamenti megalomani e delinquenziali. Nalla giusta morale finirà ucciso.
  • 2001 Odissea nello spazio (1968) di Stanley Kubrick (1928-1999) rivoluziona i canoni classici della science-fiction, sintetizza con il monolito nero la storia dell’uomo, si spinge verso l’ermeneutica non univoca dell’uomo e della possibilità malevola di un essere artificiale come Hal[viii], il super computer di bordo, di divenire un essere giudicante e capace di azioni sociali non necessariamente razionali!
  • War Games, giochi di guerra. (1983) di John Badham. E’ la storia di un Hacker che entra nel computer del Ministero della Difesa USA iniziando una sfida mortale virtuale, che rischia di scatenare la III guerra mondiale, confondendosi appunto il reale con il virtuale. Grazie ad genio informatico e ad un atto extra logico di un lungimirante generale americano la guerra viene evitata.
  • Pirates of Silicon Valley (1999) di Martyn Burke. Storia di Bill Gates, dei suoi soci ed avversari e dell’avvento del personal computer e degli hackers.
  • I. Intelligenza Artificiale (2001) progettato da Stanley Kubrick e realizzato da Steven Spielberg, tratta il tema del ragazzo artificiale, fornito ai genitori in sostituzione di un figlio in coma. Il ragazzo non comprende la sua artificialità ed è affamato di amore. Il suo sogno crollerà quando, uscito dal coma, riappare il vero figlio che incarna tutta la protervia e l’arroganza del genere umano.
  • Simone (2002) di Andrew Niccol, con Al Pacino.  Tarasky costruisce una immagine virtuale: Simone, la donna più bella del mondo. Nessuno sa che Simone non esiste ed è virtuale. Quando la sua presenza diviene invasiva e la sua fama immensa, Tarasky se ne vuole sbarazzare e per lui iniziano i guai. Sbarazzarsene non sarà facile.
  • Le saghe di Star Trek di Gene Rodenberry, Star Wars di George  Lucas e il film Stargate (1994)  di Roland Emmerich, Dune (1984) di David Lynch,  Indipendence Day (1996) di Roland Emmerich, Incontri ravvicinati del terzo tipo (1997) di Steven Spielberg sono stati  prolifici esempi e contenitori di idee molto belle che vanno ben oltre il futuribile e fanno pensare.

Recensioni su film con  queste tematiche, ulteriori commenti si trovano o possono essere inoltrati al sito  www.apav.it in Scienze, matematica e società, sezione Cinema. Tali recensioni permettono a docenti e studenti di progettare percorsi didattici con visioni di film atti a suscitare dibattiti e forum.                                                 ¨¨¨¨¨

 

 

 

 

1.3       Sulle radici del sapere informatico

 

Nel panorama delle attuali conoscenze, caratterizzate da uno sviluppo di notevole portata, di quelle che chiamiamo le tecnologie di gestione dell’informazione, non si può non rilevare il forte cambiamento del pensiero dell’uomo, delle sue categorie, ma anche dell’aspetto legato a ciò che Sciarra definisce[ix] il paradigma interattivo dell’azione, aspetto che, seguendo Boudon, si rilega all’esame dell’azione sociale, ma che secondo noi va anche ben oltre.

Esaminiamo ora i diversi aspetti provenienti da differenti tesi che per nostri obiettivi desideriamo rendere sinergiche.

Osserviamo che l’Informatica, evidenziando la sua caratteristica di fornire delle applicazioni nei campi più disparati, li invade, li permea, sembra quasi arrivare a possederli. Alcuni punti nodali caratterizzanti le applicazioni sono i seguenti.

  • l’hardware e le interconnessioni con l’ingegneria;
  • il software e le interconnessioni con la logica e la filosofia dei linguaggi;
  • Internet e l’accesso alle banche dati con l’annullamento delle distanze e dei luoghi fisici, la nascita delle piattaforme e della didattica interattiva a distanza;
  • la posta elettronica e la comunicazione istantanea di notizie e risultati in tempo reale;
  • la computer art come disciplina nuova ed indipendente;
  • la digitalizzazione di opere, l’organizzazione del sapere, l’istantaneità della comunicazione;
  • la nascita di piccoli e grandi robot sempre più sofisticati nella linea dell’intelligenza artificiale;
  • la multimedialità e gli ipertesti come nuovi mezzi di diffusione non solo mediante testi classici ma che utilizzano musica, filmati, immagini provenienti da diverse fonti e organizzati in una unica visione, con link opportuni a banche dati;
  • l’apporto dell’informatica e la sua invasività nella strumentazione in medicina;
  • la gestione di problematiche e tecniche dell’economia, delle transazioni finanziarie e d economiche in tempo reale;
  • l’e-commerce, l’e-government e l’avvento delle comunità virtuali in genere;
  • lo studio della sicurezza on-line in termini di messaggi riservati, transazioni protette, difesa del singolo e della società contro gli attacchi provenienti da virus, hackers e da parte della criminalità informatica organizzata.

Tuttavia se riguardiamo dall’esterno questa disciplina, ci appare chiaro come ci si trovi davanti a qualcosa di ben diverso dalle scienze formali, dalle scienze naturali ma anche dalle scienze sociali ed economiche propriamente dette. Il mutamento fondamentale è che l’informatica, pur non essendo alcuna delle scienze sopradette, si connette oramai in modo indissolubile con ciascuna di esse e parimenti con altre, anche di un tipo differente, da quelle che usualmente chiamiamo discipline scientifiche.

In Sciarra, seguendo il pensiero di Boudon[x], si pone al centro dell’interesse scientifico del sociologo l’azione sociale, considerata come l’oggetto del campo fondazionale della ricerca sociale, con la quale l’intera scienza dell’informazione si deve rapportare.

L’azione sociale non è concetto facile da definire esplicitamente. Noi ci limiteremo a riportarne una serie di attributi caratterizzanti, non troppo restrittivi, in modo da lasciare uno spazio all’intervento su eventuali azioni sociali “non logicamente codificate”, ma nello stesso tempo non troppo larghe da trovarci davanti un oceano incontrollato di problematiche.

Ricordiamo che l’azione “sociale economica” nel senso di Pareto, è strumentale, retta da un calcolo di costi e benefici quantificabili, è scelta razionale tra varie alternative, ha obiettivi di ottimizzazione, legate all’ottenere i massimi profitti al minor costo ed è pertanto legata ad una attività logica e di calcolo promossa dall’attore individuale.

All’idea di azione sociale, peraltro ben più generale, si connettono alcune parole chiave quali: gli attori, le relazioni, i condizionamenti, le preferenze, le incertezze. Circa questi “termini primitivi” il legame che si esprime, o non che si nega tra essi, si può sintetizzare nelle seguenti richieste:

  • l’azione sociale è legata agli aspetti simbolico-mentali delle relazioni che si creano tra gli attori;
  • l’azione sociale è considerata “non necessariamente logica” nel senso che Pareto da a questo termine, a differenza dell’azione “sociale economica” che soddisfa a principi di logica paretiana;
  • l’azione sociale è rilevante per il coinvolgimento di quelle credenze simboliche possedute dagli attori, cioè di coloro che assolvono un ruolo nel sistema relazionale che nasce tra gli attori. Sono importanti dunque: la credenza simbolica in valori e il costume riferito a ritualità e tradizioni, la presenza di passioni, emozioni ed anche atti irrazionali;
  • l’azione sociale, come sappiamo, non sempre accetta logiche di profitto; si dirige talvolta  verso valutazioni che prediligono i valori posseduti, i criteri soggettivi, i condizionamenti, le motivazioni di preferenza anche irrazionali fino anche ad effettuare scelte in condizioni di incertezza dettate da una sorta di “soggettivismo emotivo”;
  • l’azione sociale è irrilevante dal punto di vista logico-sperimentale.

L’idea fusionista di Boudon (forse in embrione anche vagamente delineata in Pareto e Weber) tende infine a considerare dal punto di vista sociologico anche benefici non quantificabili ed una diversa metodologia per valutare l’idea del minor costo e maggior profitto, includendo anche parametri del tutto soggettivi nelle analisi. Siamo vicini al vecchio detto “ove c’è gusto non c’è perdenza!” Da questo punto di vista l’idea dell’azione sociale economica,  appare un caso limite dell’azione sociale, in generale non paretiana.

Gli atteggiamenti che nascono davanti ad una scelta elettorale del singolo attore-cittadino, della scelta artistica di un attore-designer, le scelte culturali di attore-architetto, le motivazioni di alcuni attori-religiosi non rispecchiano nella maggior parte dei casi una logica paretiana. Nel secolo scorso l’azione di un elettore o di un consumatore o di un artista appariva molto indipendente. I condizionamenti erano dovuti quasi esclusivamente alla storia individuale dell’attore. Oggi la realtà è ben più complessa per la presenza del fenomeno dei condizionamenti dovuti ai Mass Media! Siamo in una società dove l’apparire molto spesso si sovrappone all’essere e magari tende a sopraffarlo. Ecco che l’informatica entra fatalmente nell’aumento della complessità dei condizionamenti e quindi delle modifica delle valutazioni irrazionali del singolo attore che viene ad essere sottoposto ad un condizionamento che spesso deriva da azioni sociali economiche, commerciali e prodotte con logiche paretiane ma che per il simbolo provocano solo reaioni emotive guidate dal controllo dei mass media. Esse in realtà sono prodotte mediante strategie pianificate e  perfettamente razionalizzate da altrettante complesse analisi di mercato, queste a loro volta, prodotte da strutture informatiche, che sembrano agire nell’ombra come gli attori del 1984 di orwelliana memoria!

Va anche detto che non sempre i fenomeni sono così rigidamente classificabili dal punto di vista sia qualitativo che quantitativo. Ad esempio nel volume dello storico E.Black[xi], si esamina un aspetto dei rapporti tra il Terzo Reich e l’IBM di notevole interesse, di cui facciamo un breve riassunto:

Nel 1896 Herman Hollerith, l’inventore tedesco, emigrato a New York, delle schede perforate e del sistema di selezione delle schede, fondò la The Tabulatine Machine Company, la futura IBM (International Business Machines) del 1922. La società, che gradualmente si cominciò ad occupare del censimento degli Stati Uniti del 1890, eseguito in tempi record, e successivamente dei censimenti di diverse importanti Nazioni,  era in continua ascesa. Nel 1910 nasceva la Deuttsche Hollerith Maschinen Gesellshaft, la DEHOMAG, l’IBM tedesca, interamente posseduta dalla famiglia Heidinger. Nel 1911 Hollerith si ritira dopo anni di liti e contestazioni per sue volubili scorrettezze e con la perdita del mercato americano. L’IBM finisce nelle mani di Charles Flint, un capitalista-avventuriero e con lui si ha l’ascesa di Thomas J. Watson, un abile uomo d’affari di peso internazionale.

Il 30 Gennaio 1933 Hitler si impadronisce del potere in Germania e pone chiari i suoi obiettivi della distruzione del popolo ebreo tedesco che contava circa seicentomila persone e della confisca dei loro beni. Attorno al 1937 i rapporti di collaborazione tra l’IBM e il governo tedesco permisero una seria operazione di schedatura di coloro che avevano sangue ebreo nelle vene, prescindendo anche dalle assimilazioni e dai cambiamenti di cognome. L’IBM Germania, oramai Ente di Stato, assieme ai suoi fanatici dirigenti nazisti, riuscirono non solo a contare gli Ebrei ma principalmente ad identificarli, a ripetere l’operazione nelle nazioni occupate, dando il via a quel fenomeno orrendo che è stato l’olocausto scientifico di un intero popolo sparso in Europa!

Si tratta di una azione sociale o di una azione sociale-economica? Chiaramente dipende dal punto di vista. Dal punto di vista del Terzo Reich, o della stessa IBM, si tratta certamente di una azione economica scientificamente preparata e scientificamente eseguita senza aver in conto problematiche morali, etiche, religiose. Noi vediamo alla base dell’operazione una presunzione, scambiata per scientificità di regime, un cieco e bieco condizionamento degli esecutori, una irrazionale credenza nella superiorità degli ariani, una caduta dei valori e del diritto di rispetto generale dell’uomo. Ecco un caso in cui i confini tra etico, economico, irrazionale e tecnologico nell’esame delle responsabilità, si mescolano e si confondono tra loro. Indubbiamente è il primo caso vero, sia pure nefasto come nessun altro in precedenza, di un intervento tecnologico su vasta scala e senza precedenti.

Secondo noi, fin d’allora, è comparso un nuovo e potente attore che in un modo o nell’altro ha a che fare con le macchine!

Le varie branche dell’epistemologia sono tra loro ben interconnesse. E’ chiaro che l’epistemologia delle scienze naturali, si collega oggi anche con lo studio dell’ambiente e del territorio, interpreta e studia i mutui rapporti tra benessere e risorse, con logiche paretiane, per giungere oggi anche a problematiche che si riconnettono all’Etica, che sta vivendo come scienza un momento di centralità.

Questa connessione porta l’intero settore ad interagire innegabilmente con l’epistemologia delle scienze sociali e umane, il cui centro d’interesse, pur guardando al  trinomio mente, natura ed uomo nelle sue origini più antiche, si rilega oggi a quella visione, di tipo boudoniano, di cui abbiamo trattato sopra, accennando alla teoria dell’azione sociale. In questo passaggio noi leggiamo chiaramente un passaggio dal macro, se si vuole dalla legge dello sviluppo generale, all’ azione sociale in un contesto-situazione, che si esplica invece a livello micro, livello nel quale appunto osserviamo direttamente l’attore ed il suo contesto, l’attore e le sue relazioni con altri attori. Ci chiediamo subito se una macchina, un computer possa essere ad esempio un nuovo attore.

La macchina di oggi, anche se la science-fiction ci mostra robot, o meglio idee di robot sempre più individualizzati e indipendenti, è ben lontana da macchine che non siano completamente sotto il controllo dell’uomo, cioè da macchine che non possano essere spente da chi è autorizzato a farlo!

Dunque a nostro avviso la macchina elaboratore non riteniamo sia un nuovo attore dell’azione sociale. Ma nuovi attori ci sono e probabilmente la risposta è obbligata: il nuovo attore che si presenta nell’azione sociale è l’idea dell’uomo tecnologico inteso come un binomio, il binomio uomo-macchina, che si contrappone al vecchio binomio, presente nell’azione sociale, il binomio uomo-corpo (inteso anche come uomo-mente).

Questa idea non è del tutto nuova essendosi presentata la necessità di analizzare il concetto di uomo tecnologico, come binomio uomo-macchina, presso le opere di Somalvico ed altri, nei riguardi dell’epistemologia dell’intelligenza artificiale, come si vedrà tra breve.[xii].

Per tornare all’informatica, all’informazione e all’intelligenza artificiale ci si chiede chiaramente cosa significhi fare l’epistemologia dell’informatica e se anche operando per settori non si pervenga ad una ridda di campi paradigmatici, non uno solo, ma un pacchetto di campi differenti tutti tra loro interagenti. Il modello della verità costituita dall’insieme della coppie evento-sfaccettatura dell’evento sembra fornire una prima indicazione su un modello:

 

evento informatico–sfaccettatura osservativa dell’evento

 

Seguendo appunto Somalvico ed anche Tagliagambe[xiii], conveniamo di condividere l’idea di trovarci in presenza di un vero e proprio mutamento antropologico, allora che riguardiamo le due polarità emergenti nelle nostre considerazioni come aspetti diversi dell’azione sociale che stiamo esaminando fenomeno dell’ambito dell’informatica e non solo dell’intelligenza artificiale. Si tratta delle polarità:

  1. polo uomo-corpo,
  2. polo uomo-macchina.

Possiamo porci ancora varie domande: qual è l’aiuto della meta-riflessione epistemologica sulla scienza informatica? Come, e se, è avvenuto questo mutamento antropologico? Quali sono i criteri che lo fondano? … ed altro!

E’ innegabile che quando si conoscono maggiormente i criteri su cui si fondano i principi di giustificazione dell’oggetto, si conosce anche qualcosa di più sul come adoperare l’oggetto stesso, sul come correggerlo ed integrarlo, in sostanza si arriva a comprenderne sia i limiti che le possibilità.

E’ a partire dalla costruzione di artefatti di qualunque natura ma che simulino, producano, amplifichino, semplifichino l’attività dell’uomo, è da quel momento che la polarità uomo-macchina comincia a vivere la sua vita al di fuori dell’altra polarità uomo-corpo.

Noi non riteniamo assolutamente – per ora naturalmente – che la macchina possa sopraffare l’uomo. Nella storia del mondo ciò non è di fatto accaduto.

In misura più o meno varia, alcune attività che l’uomo non riesce a compiere con il corpo per limitazioni fisiche, chimiche, temporali o organizzative, possono essere compiute indirettamente, ma perfettamente, mediante delle macchine. Non pensiamo solo ai più moderni computer ma pensiamo alle tante macchine della storia dalla leva e la ruota fino alle sonde interplanetarie.

Così la polarità uomo-macchina si è costituita come parte essenziale della Società sempre in modo più esasperato dando luogo all’idea dell’uomo bipolare, concetto che, sempre seguendo Somalvico, si può estendere all’intera società vista come aggregato di uomini bipolari. Ne nasce una Società a sua volta bipolare nelle polarità società-corpo e società-macchina.[xiv]

Nel mondo di oggi il solo essere uomo-corpo può essere sano, forte, attivo, efficiente ma se la polarità uomo-macchina e, magari specializzando, uomo-computer, risulta assente allora vi è una carenza che può essere definita grave, un nuovo handicap forte: l’analfabetismo informatico. Nella società attuale tale handicap spesso è più grave di altri tipi di handicap del corpo, qualora in questi risulti efficiente la polarità uomo-computer, molto al di là che quella uomo-corpo.

Questa lettura si presta a vedere un mondo sempre più complesso, un mutamento radicale dello scenario tradizionale e in controtendenza ai degrinatori dell’uomo-computer e del suo preteso inaridimento e impoverimento mentale, la possibilità di  stimoli intellettuali per riflessioni nuove e metodologie aperte a differenti modelli di azioni sociali. Rimane aperto il problema di studiare dal punto di vista della psichiatria il fenomeno della polarità uomo-macchina[xv] individuandone i traumi e i drammi. Per ora si prescinde da questa analisi.

Il problema ora è quello di definire uno o più paradigmi nuovi per questa disciplina che sembra connettersi e si connette, con tutte le altre, utilizzando nel suo progredire la fisica, la meccanica, la logica, la matematica, l’elettronica, la chimica e fornisce applicazione ad ogni ramo dello scibile, applicazioni che vanno dall’editoria all’archivio, alle banche dati, alle reti, alla comunicazione globale in un fenomeno per quantità e velocità mai ricordati, di sicuro sconcertanti.

Le visioni classiche sono state più volte messe in crisi e, dalle ceneri di una crisi, sono sempre nate nuove ed interessanti teorie. Da ricordare che i sostenitori della specificità di altre scienze, pur accettando di applicare il metodo scientifico, non hanno ritenuto di dover utilizzare solo i concetti provenienti dalla meccanica (ad esempio in chimica, biologia, psicologia). I risultati delle scienze naturali, dovuti tra gli altri a Galvani, Volta, Coulomb, Lavoisier e Brown, hanno mostrato delle contrapposizioni che non potevano ricondursi al solo paradigma meccanicista. A questa critica  hanno contribuito anche i cultori delle scienze storico-sociali che, nel reclamare la dignità di scienza per le loro discipline, hanno cercato di descrivere i fenomeni, osservati caso per caso, per comprenderli sulla base dei loro caratteri ideali, senza ricondurli, se non parzialmente, a leggi generali. E’ stata così concepita l’Ermeneutica che, nata come arte di interpretare oscuri testi e antichi documenti, ha giocato un importante ruolo nella ridefinizione della scientificità ed ha avuto il pregio di allargare in modo considerevole lo stesso concetto di scientificità, andando a ricaratterizzare, di fatto, tutte le scienze umane fondate nel Novecento.

Il concetto del dimostrare in Matematica, così tipico della cultura occidentale e così negletto in quella orientale, ha subito le sue traversie incontrando qualche caso limite. Ricordiamo ad esempio il teorema dei quattro colori asserente che è possibile colorare una carta geografica con solo quattro colori in modo che regioni confinanti abbiano colori diversi. La dimostrazione è stata ottenuta nel 1976 da Appel e Haken  con l’ausilio di un computer che ha lavorato parecchi mesi in una prova decisamente ripetibile ma, all’incirca, nello stesso interminabile lasso di tempo. I matematici puri ancora oggi non accettano la prova, i matematici applicati la guardano con simpatia, altri ancora hanno coniato un nuovo termine: i tecnoremi. La crisi può essere risolta solo reinterpretando l’idea stessa di prova!

Non vi è dubbio che noi riteniamo che l’idea di prova debba essere riletta, reinterpretata e ricodificata alla luce delle nuove imperanti tecnologie, in tutte le discipline. Questa rilettura è stata fatta per la matematica al tempo di quel doppio salto epistemologico provocato dal movimento bourbakista, che ci ha indicato la via regia dell’assiomatica e della prova di Godel che ce ne ha indicato i limiti. L’intuizionismo ha ripreso il suo spazio, lo sperimentale, l’insegnamento per gradi, il linguaggio mediato, la prova informatica, anche il criticato teorema delle 15.000 pagine,[xvi] che in attesa di una prova corta – come agognava Giancarlo Rota – potrebbe essere ridimostrato in un programma cooperativo tipo GIMPS (Great Integre Mersenne Prime Search), un interessante programma cooperativo che ha permesso la scoperta degli ultimi cinque numeri primi/primato del mondo.

La conclusione si sintetizza in una frase di Bachelard  “l’antico spiega il nuovo e lo assimila; viceversa il nuovo spiega l’antico e lo riorganizza …” e aggiungiamo noi  … per aprirlo a nuovi e più ampi orizzonti!                   ¨¨¨¨¨

 

 

1.4       Il pensiero boudoniano e l’azione congiunta dell’uomo-macchina

 

Sono ampi i discorsi che possono affrontarsi nel tentativo di capire il concetto di macchina. Da un punto di vista del tutto intuitivo riteniamo chiaro il concetto, salvo poi tornare su esso con i distinguo del caso. Il confine è l’idea della macchina intelligente, idea per il momento, a nostro avviso, lontana dall’essere realizzata.

Anzi riteniamo che attualmente una macchina “intelligente ed autonoma come nella potenzialità dell’uomo” non sia ottenibile come manufatto. La via che vediamo per una produzione di “una macchina intelligente come l’uomo” è quella di riprodurre l’uomo, cioé è quella sia della riproduzione sessuale artificiale, sia quella della clonazione, con progettazione di un DNA “ad hoc”. E’ questo un terreno minato il cui dibattito ci condurrebbe lontano e ci condurrebbe verso le vie dell’etica, dell’opportunità, del controllo gestionale del mondo, verso un diverso esame della globalizzazione, verso un diverso concetto di razza. Idee certamente di grande respiro ma inidonee per gli scopi che ci siamo ora prefissi in questo momento.

Forse è più interessante ipotizzare che la costruzione di macchine, che superino certi limiti oggi evidenti, sia al momento di là da venire. Le difficoltà  che l’uomo si trova ad affrontare nella comprensione dell’idea di macchina intelligente nascono dall’ambiguità del significato di intelligenza. Interessanti sono, a tal proposito, le considerazioni della psicologia cognitiva e le argomentazioni di Dennett. Ancora difficoltà varie si incontrano, per via di una sorta di incapacità attuale dell’uomo, o presunta tale, nell’andare contro quelli che lui stesso considera i suoi limiti. Basti pensare che una serie di ricerche sul cervello e sulle sue capacità ci indicano che l’uomo usa le sue potenzialità cognitive ad una percentuale molto bassa, valutata in ragione del 13% delle reali possibilità. Questo dato empirico è difficilmente documentabile.

A parziale giustificazione di questa visione possiamo far riferimento agli studi dell’ultimo secolo sulla computabilità. Gli interessi in questi studi sono  tesi a comprendere quali siano le potenzialità ed i limiti nell’esecuzione di un procedimento meccanico, umano o no, ovviamente tralasciando quegli  aspetti dei procedimenti cerebrali umani, quali possono essere  i modelli di inesauribile  creatività, che si associano alla casualità e alla creatività. La creatività ci appare così ragione intrinseca per la sua stessa esistenza ed anche per la sua ricompensa, quell’effetto, come suol dirsi, di serendipity legati ad una brillante quanto irripetibile azione di genialità. In altre parole si tralasciano quelle azioni che producono risultati che non possono essere desunti, in linea di principio, da colpi di genialità. O se essi vi sono come atti propri dell’uomo li si ritengono esterni alla macchina, mentre per la macchina valgono quei principi di organizzazione  progettata con i suoi scopi, obiettivi e significati. In quest’area di studio, nota come teoria della computabilità, il tentativo di definire formalmente un procedimento meccanico ripetitivo è sfociato in varie impostazioni (per citare alcune grandi vie si  pensi, ad esempio, alla macchina della computazione di Turing, al lambda calcolo di Church, alle funzioni ricorsive di Godel, ecc.). Si è anche provato che le linee impostate finora, conducono a formulazioni di fatto equivalenti.

Questo significa che i problemi risolvibili dalle macchine attraverso una di queste impostazioni formali, che poi definiscono il funzionamento e le regole di comportamento della macchina,  sono sempre gli stessi. Non importa da dove si parte, se oggi si formalizza il comportamento di una macchina. Attualmente da ogni tentativo di formulazione vi è un’equivalenza e quindi un ritorno alla macchina di Turing, in altre parole: “niente di nuovo sotto il sole!”.

Le ricerche in questa direzione sia attraverso la psicologia cognitiva, il cui scopo è quello di comprendere i meccanismi cerebrali, per gli ardui cammini dell’Intelligenza Artificiale, il cui scopo è quello di sviluppare artificialmente modelli e programmi che replichino l’azione intelligente, sono ricerche che si muovono in modo sinergico fra le discipline, con interrelazioni di reciproco beneficio.

L’ipotesi fondamentale “di lavoro” alla quale noi faremo riferimento è il ritenere che, nel futuro e perdurando lo stato delle conoscenze attuali, i modelli artificiali intelligenti saranno agevolmente sviluppati, ma non cambierà la loro dipendenza dal fattore umano che le dirige. La possibilità di indipendenza dell’azione della macchina senza l’uomo non è contemplata. Il modello epistemologico presentato in questo lavoro non tiene conto di questa possibilità, fotografando la situazione esistente oggi. Tuttavia va ipotizzata l’idea che l’intero modello debba giocoforza essere rivedibile verso una realtà futuribile più complessa dell’attuale, con la presenza di sistemi intelligenti d’altra natura e da conseguiti nuovi tagli epistemologici. Per arrivare a questo, si dovranno fare i conti con alcuni limiti, non ancora molto chiari e definiti dell’uomo e della sua mente.

Altra analisi che viene rimandata, oltre quella connessa con l’artificiale biologico (procreazione artificiale e progetti di DNA per clonazione), è quella relativa alla costruzione di una psicoanalisi del binomio uomo-macchina che consiste in una analisi della psiche dell’uomo e dell’uomo non separato dall’azione riflessa che la macchina, a cui è legato, produce su di lui!

Ai fini di reinterpretare il pensiero boudoniano con l’innesto del binomio uomo-macchina nei panni dell’agente, occorre spiegare quali sono le azioni che vengono ampliate rispetto all’idea originale. Per questo occorre stabilire, circoscrivere, in cosa consiste, come agisce e cosa non può eseguire una macchina coinvolta in questa nuova visione. Una via è il caratterizzare il rapporto uomo-macchina, nell’immagine dell’uomo tecnologico, attraverso una serie di postulati. Alcuni di essi (assioma anti-serendipity,  anti-HAL, anti- war games, anti-1984, anti-Trevize), sono suggeriti dalla negazione di alcuni sogni dell’uomo, provenienti dalla Science Fiction, ed indicati nel capitolo precedente.

  • La “macchina” è uno strumento meccanico e/o elettronico eventualmente dotato di capacità elaborative, mediante hardware e software dedicato, in grado di esaltare le capacità dell’uomo-corpo in una misura extra-umana, ma non in grado di produzione creativa extra progettuale (assioma anti-serendipity).
  • La “macchina” non è in grado di prendere decisioni autonome e contrarie al volere dell’uomo-corpo che la manovra (assioma anti-HAL).
  • L’uomo-corpo che manovra la macchina è libero da induzioni psicologiche che lo rendono in una qualsiasi maniera dipendente dalla nuova situazione psico-antropologica indotta dall’uso della macchina stessa.
  • L’uomo-corpo che manovra la “Macchina” è in grado di discernere la realtà effettiva dalla realtà virtuale generata o auto-generata dal duo uomo-macchina (assioma anti-war games).
  • La “macchina” può essere completamente disattivata dall’uomo che la manovra che si suppone libero dal condizionamento prodotto dalla macchina o da eventuali supervisori della macchina (assioma anti-1984).
  • La macchina può essere alternativamente:
  1. un piccolo robot per usi civili e/o industriali di vario genere (muletti, bracci automatici, gru, ecc.);
  2. uno strumento capace di trasportare, o di aiutare nel trasporto di oggetti nei mezzi terra, acqua e aria (computer di bordo in automobili, sommergibili, aerei, ecc.);
  3. uno strumento elettronico-informatico con capacità elaborative e gestionali, di legame con il web (computer, telefono, televisione, radio, ecc.);
  4. uno “strumento con capacità esplorative dell’interno del corpo umano (risonananza magnetica, tac, ecografo, sonde, ecc.);
  5. uno “strumento” per esplorare l’infinitamente piccolo per lo sviluppo della biologia, della microbiologia, della microchirurgia e scienze similari (microscopio elettronico, ecc.);
  6. uno strumento per esplorare l’infinitamente grande e favorire l’espansione verso l’esterno del mondo terrestre (sonde automatiche, navette spaziali, ecc.)
  • Il rapporto uomo macchina non presenta valori aggiunti di tipo interazione diretta tra la mente dell’uomo e capacità elaborative-gestionali della macchina (assioma anti-Trevize).
  • La macchina ha capacità elaborative di muoversi nello spazio ma non nel tempo potendosi collegare al passato in modo totalmente virtuale.
  • Non è possibile che una sola macchina riunisca in sé tutte le possibilità e capacità indicate sopra.
  • Non è possibile che più macchine, anche lavoranti in maniera collaborativa, possano aumentare la loro capacità fino al punto di contraddire uno degli assiomi precedenti.

La grossolana classificazione tiene in conto di alcune grandi aree di variazione che l’idea “uomo-macchina” ha in sé! Rimane ora da costruire un paradigma o un pacchetto di paradigmi che operino sugli agenti o attori che compiono le azioni sociali di cui ci stiamo occupando. E’ quanto ci accingiamo a fare nel prossimo paragrafo.

 

¨¨¨¨¨

 

 

 

1.5       Verso la nozione di paradigma cooperativo.

 

Seguendo una analisi schematica di Lakatos per un excursus sulle principali correnti epistemologiche, si  parte dai giustificazionisti che desiderano teorie dimostrate o almeno probabili; si va poi ad un esame del principio di verificabilità, teorizzato da Schlick, e messo in discussione da K. Popper, nel quale si opera una  ricerca continua di congetture da sottopone al vaglio dell’esperienza, rifiutandole nel caso in cui le conseguenze logiche sono in contrasto con i fatti. Il requisito della falsificabilità empirica segna inoltre un confine di demarcazione tra ciò che può essere vero e ciò che non lo è, permettendo un’approssimazione della verità continua e sempre crescente: una teoria fondata su osservazioni rimane valida fin tanto che non è smentita anche da un solo caso contrario.

Lakatos propone invece un falsificazionismo metodologico sofisticato nel quale una teoria falsificata da un esperimento singolo, ma un’intera teoria T’ che sia in grado di spiegare l’intera teoria T ed anche i singoli esperimenti che sfuggono a T.

La scienza, in definitiva, non è il mondo delle verità perfettamente dedotte oppure indimostrabili, ma quello delle ipotesi, anzi delle teorie falsificabili. Per progredire nella conoscenza della verità Popper elaborò una teoria della misura per scegliere, tra due congetture rivali, quella più verosimile; le teorie scientifiche che ne conseguono hanno, così, gradi di verosimilitudine crescenti.

Vi sono atteggiamenti da conservatori (ad esempio Kant) che non ritengono possibili le modifiche dei quadri concettuali ed atteggiamenti rivoluzionari che ritengono non solo modificabile il quadro concettuale ma addirittura auspicabile e portatore di nuove verità e sviluppi (posizione di Popper).

Negli sviluppi epistemologici degli ultimi decenni hanno assunto importanza i problemi legati alla dinamica delle teorie scientifiche, in luogo della loro struttura. T. Kuhn ha criticato il modello falsificazionista e discontinuo popperiano, poiché una scienza è sempre un’alternanza fra momenti di continuità ad altri di discontinuità, una scienza è anche vissuta come l’analisi logica delle teorie scientifiche che la formano anche se questa analisi non è atta a spiegare i nessi tra le varie teorie che si succedono da una rivoluzione all’altra.

Un secondo campo di azione dell’epistemologia è quello legato all’individuazione di quale sia l’intento di una scienza e soprattutto a quale livello si spinga sia la sua conoscenza sia la sua portata. Oggi, più di ieri, è importante indagare sul come una scienza abbia indirizzato il suo intento conoscitivo verso la realtà, attraversando nei secoli varie concezioni. La modernità quindi concepisce la conoscenza scientifica come mediatrice della scienza della Natura, la quale Natura è la “via regia” per una revisione continua della prima. Appare evidente il significato intrinseco della locuzione “ricerca scientifica” come espressione dell’evoluzione e della continuità della conoscenza scientifica. Per esprimere ed ampliare questa concezione non possiamo non condividere quanto asserisce Hofstadter[xvii]:

“…la mia sensazione è che il processo mediante il quale decidiamo che cosa è valido o che cosa è vero sia un’arte; e che si basi altrettanto profondamente sul senso di bellezza e di semplicità quanto sui principi saldi come roccia della logica o del ragionamento o di qualunque altra cosa che possa essere formalizzata in modo oggettivo. Non sto dicendo né che  la verità è una chimera né che  l’intelligenza umana è in linea di principio non programmabile. Sto dicendo che  la verità è talmente inafferrabile che non potrà mai essere raggiunta pienamente da un qualsiasi essere umano o insieme di esseri umani; e che l’Intelligenza Artificiale, quando raggiungerà il livello dell’Intelligenza umana, o se addirittura dovesse superarlo, sarà ancora afflitta dai problemi dell’arte, della bellezza e della semplicità e si imbatterà continuamente in queste cose nella sua ricerca della conoscenza e della comprensione.

Continuando nel nostro esame di concezioni paradigmatiche della Scienza occorre fare un passo avanti verso le Scienze Sociali.

Il paradigma casuale dell’azione è stato il primo modello proposto da R. Boudon. Esso compenetra due momenti: il momento dell’attore e quello del suo contesto. Lo statuto delle scienze sociali è racchiuso tra questi due momenti,  dal loro rapporto interattivo come problema centrale di quella scienza. Sciarra[xviii] delinea come questi due momenti abbiano varia derivazione.

La funzione dell’attore /agente deriva a Boudon dalla sua riletture ed interpretazione di Pareto e Weber e su questo ci siamo intrattenuti abbondantemente nel precedente paragrafo.

La funzione del contesto deriva a Boudon dalla rilettura del pensiero di Durkheim (1895), il cui pensiero – afferma Sciarra – non è a prima vista conciliabile con l’universo di Pareto e Weber, anche se entrambi pongono alla base dei loro paradigmi l’azione sociale.

In Pareto e Weber il momento del contesto si basa sul postulato dell’azione sociale economica che, per sua struttura, è razionale e finalizzata; inoltre è spiegata secondo le ragioni soggettive degli attori individuali, che sono soggetti attivi che scelgono, valutano, decidono sempre  in relazione interattiva ed anche reattiva con il contesto in cui si opera e che si forma in ragione degli interessi economici degli agenti.  Si tratta di una lettura dinamica, esprimente la tesi di un contesto non deterministico, ma al più influenzante l’azione sociale economica che appare logica e calcolata e tendente alla visione di un tutto, dipendente dalla dinamicità delle scelte e decisioni, quindi corredate da un valore aggiunto non riconducibile solamente alla interazione statica delle parti.

In Durkheim il momento del contesto, che è costituito da un contesto istituzionale e strutturato, si basa sul postulato dell’azione sociale casuale, che agisce sull’attore/agente con un rapporto di effetti, derivanti da cause sociali presenti nel contesto. L’attore inoltre è sostanzialmente soggetto passivo la cui azione è effetto di forze/cause  sociali impersonali, che ne determinano il comportamento. Si tratta di una lettura olistica esprimente la tesi dell’esistenza di un tutto indipendente dalle sue parti componenti e comunque irriducibile alla loro somma ma nel quale si vedono solo rapporti di causa-effetto deterministici.

Boudon con la sua teoria generalizzata dell’azione sociale include azioni logiche paretiane e non logiche, azioni finalizzate weberiane e non finalizzate e, ampliando notevolmente l’idea paretiana,  utilizza un contesto in parte istituzionale e strutturato con le sue interazioni di cause ed effetti, come in Durkheim, ma parimenti predispone per un ampliamento, che lo porta ad accettare più contesti interagenti, che si muovono tra l’istituzionale, il razionale calcolistico e l’emotivo sociale e che nel loro complesso vanno a definire il contesto boudoniano, che esprime in maniera ben più corretta quella complessità tipica dell’attuale contesto sociale nel quale viviamo.

 

Tipico esempio di Boudon è quello connesso all’elettore francese di primo novecento che non sapendo per chi votare, delega con un atto emotivo di mera fiducia, il suo voto ad Anatole France. E’ un atto privo di logica paretiana, in quanto il prestigio letterario di Anatole, non implica un prestigio politico superiore a quello dello stesso cittadino che lo ha delegato!

L’accettazione del paradigma di Boudon è, a nostro avviso, il primo passo verso la costruzione di un paradigma per il mondo informatico.

Procedendo nell’analisi metodologica e nella disamina dei vari contesti paradigmatici dei quali vogliamo tener conto, introduciamo il lettore alla logica dei cosiddetti multiagent systems  di Minsky[xix] e Weiss[xx], nati nell’ambito degli studi epistemologici per l’intelligenza artificiale.

Restringeremo le nostre considerazioni sulle macchine, solamente a quelle macchine che possano essere considerate macchine dell’informazione e al loro ruolo nel contesto dell’intelligenza artificiale.

Un nuovo tipo di macchina dell’informazione, può essere considerata la cosiddetta macchina della cooperazione o agenzia. Le agenzie sono particolari tipi di sistemi multiagenti (multiagent systems), sistemi che possono essere definiti come segue.[xxi]

I sistemi multiagenti sono sistemi che si sono sviluppati all’interno dell’Intelligenza Artificiale Distribuita (DAI, Distribuited Artificial Intelligence) composti da una serie di entità chiamate agenti umani (o attori) e agenti artificiali (processi software, elaboratori, macchine o robot con capacità inferenziali) anche spazialmente distanti, ma che interagiscono a vari livelli e secondo varie modalità  (abbiamo preferito aggiungere gli appellativi umano ed artificiale ad agente per meglio indicare la natura della definizione).

Un’agente artificiale è caratterizzato da varie proprietà quali:

  1. l’autonomia, intesa come capacità di controllare le sue azioni e il suo stato interno.
  2. la reattività, intesa come capacità di percepire, adattarsi e rispondere ai cambiamenti sia dell’ambiente interno sia nei rapporti con l’esterno
  3. l’abilità cooperativa, intesa come capacità pseudo-sociale di interagire con altri agenti
  4. la proattività, intesa come capacità di adattare comportamenti, modalità, dinamiche interne umane e artificiali dirette ad un fine progettuale.

Un agenzia è un sistema multiagenti progettato per cooperare e per essere considerato a tutti gli effetti come una singola entità nonostante la molteplicità e l’etereogeneità degli agenti umani ed artificiali  lo compongono i quali condividono collaborazione al fine del perseguire un obiettivo progettuale comune. Problematiche tipiche dell’agenzia sono le seguenti:

  1. l’agenzia deve gestire una rete di comunicazione tra gli agenti che la compongono;
  2. occorre una flessibilità dell’architettura del sistema che consiste nel poter, con facilità, aggiungere o rimuovere agenti del sistema.
  3. Capacità di operare in parallelo per agenti e/o per sottosistemi
  4. Una struttura organizzativa chiara ed efficiente che può essere di tipo gerarchico o eterarchico con tutti gli agenti considerati allo stesso livello di potere o mista! Le modalità di assegnazione e di controllo dei compiti, facile nel modello gerarchico e da negoziare negli altri sistemi ad un opportuno livello di parità di potere.
  5. Il modo di condividere e scambiare le conoscenze, che può essere quello di un grande magazzino di memoria comune con password di accesso per strati e categorie.

Il concetto di agenzia, come aggregato unitario di agenti umani e artificiali in cooperazione, è stato, di fatto,  introdotto da Marvin Misky nel suo pionieristico The Society of Mind del 1985, nel quale precisa pure, in embrione, affermando che ogni agente può e forse deve essere riguardato come governato da un suo specifico paradigma che lo descrive dal punto di vista fenomenologico.[xxii]

 

Questa è un concretarsi dell’idea di pacchetto di paradigmi che abbiamo ventilato nel primo paragrafo.

Lo stato attuale della ricerca, la frontiera se si vuole,  indica come possibile il raggiungere una progettazione automatica di agenzie in modo indipendente dai contenuti progettuali, dalla natura dei singoli agenti umani e artificiali, dai luoghi fisici e dagli obiettivi. Le strutture astratte possibili sono di tipo combinatorio e la struttura finale da dare, in modo da non sottovalutarne la complessità, dovrebbe dipendere esclusivamente da richieste di optional da dare a priori.

Un ultimo aspetto che non va sottaciuto è una miglior definizione dell’idea cooperazionale.

Ogni distribuzione di risorse e di lavoro tra i membri di una organizzazione sociale provoca la formazione di coalizioni nel tentativo di risolvere i conflitti dettati da ragioni di interessi particolari o collettivi non condivisi. Nasce così quello che fu chiamato, nel 1944, da  Von Newman e Morgestern,[xxiii] un “gioco cooperativo” tra gli individui deputati a decidere e che si realizza appunto nell’esprimere la propria decisione,  mirando all’obiettivo comune di migliorare la condizione globale di un determinato gruppo. La soluzione di un gioco può essere interpretata da un punto di vista economico come la descrizione delle spese e pagamenti decisi e dal punto di vista socio-politico l’espressione della volontà della maggioranza di un’assemblea.

Risolvere ed analizzare un gioco è di importanza fondamentale per valutare i conflitti di interesse che si vadano a creare in campo economico, militare, sociale e quindi anche all’interno di una struttura consortile come un’agenzia. Definiamo, dal punto di vista della Matematica Discreta la struttura generale dei giochi semisemplici che generalizzano di poco quelli introdotti da Von Newman e Morgestern.

Sia S un insieme di elementi astratti da chiamare giocatori (players) che tuttavia potrebbero chiamarsi anche punti in una visione geometrica o agenti/attori sia umani che artificiali del modello di Boudon. Essi, inoltre, potrebbero essere anche delle coppie agente-Macchina all’occorrenza, presenti nel concetto di agenzia. Le parti o sottoinsiemi di  S si dicono le coalizioni (possibili). Indichiamo con P(S) l’insieme delle parti X di S.

Supponiamo di assegnare una funzione a valori reali:

v : P(S) ® R

che ad ogni sottoinsieme X di S associa il numero reale v(X), detto il valore della parte X. Se X è un singleton, costituito dal solo elemento x scriveremo v(x) e chiameremo v(x) il valore del giocatore. Supporremo che per la funzione v valgano le seguenti due proprietà:

 

1)  v(Æ)  =  0,   (Æ denota l’insieme vuoto)

2)  v(XÈY) ³ v(X) + v(Y) , X,Y Î P(S),  t.c. XÇY =  Æ      (superaddittività).

La coppia (S, v) si dice un gioco cooperativo.

Noi assumiamo l’ipotesi che un giocatore che partecipi ad una coalizione trasferisca alla coalizione il suo intero valore. Ne segue, per la 2), che due giocatori che partecipano ad una coalizione vi partecipano con un valore che è almeno pari alla somma dei valori di entrambi.

In un gioco cooperativo (S, v) risulta

v(S) ³ v(1) + v(2) + … + v(n)

Diremo che un gioco è essenziale o inessenziale a seconda che nella precedente disuguaglianza non valga o valga il segno eguale.

Due giochi cooperativi (S, v) ed (S, v’), di egual numero di giocatori n, si dicono equivalenti se esistono delle costanti  k>0, c1 , c2 , … , cn    tali che  ” X Î P(S) risulta:

v’(X) = k v(X) + åiÎX ci  .

Se ciò accade si scrive (S, v) » (S, v’). La relazione è chiaramente una relazione di equivalenza che ripartisce l’insieme di tutti i giochi cooperativi in classi di equivalenza.

Si può osservare che se (S, v) ed (S, v’) sono due giochi cooperativi equivalenti allora esistono delle costanti  k>0, c1 , c2 , … , cn e quindi (S, v’) può essere ottenuto da (S, v) con il seguente procedimento: ciascun giocatore i Î S, pensato come giocatore un giocatore del gioco  (S, v)  effettua un pagamento (positivo, negativo o nullo) ci , parimenti il valore totale v(S) è proporzionalmente aumentato (se k>1) o diminuito (se 0<k<1) in v’(S) = k v(S)  ed inoltre una generica coalizione X Î P(S) ha un valore determinato dalla relazione v’(X) = k v(X) +  åiÎX ci .

 

E’ facile provare che se (S, v) è un gioco cooperativo allora esiste sempre un gioco cooperativo (S,v’) ad esso equivalente con la proprietà:

k v(S) + c1 + c2 + … + cn = 1

k v(i) + ci  = 0   ,   i = 1, 2, …, n   

se e solo se v(S) > v(1) + v(2) + … + v(n), cioè se e solo se il gioco è essenziale. .

Si noti che le condizioni sopra scritte costituiscono un sistema lineare di n+1 equazioni nelle n+1 incognite k>0, c1 , c2 , … , cn , risolubile con una unica soluzione se e solo se il suo determinante

D = (-1)n+1 (v(S) – v(1) – v(2) – … – v(n)) ¹ 0

cioè sempre se e solo se il gioco è essenziale.

Segue dunque che in ogni classe di equivalenza vi è uno speciale gioco (S, vo) che diremo in forma normale per il quale risulta:

vo(i) = 0 , ” i Î S  ,  vo(S) = 1

dal quale ogni gioco equivalente (S, v’) di parametri k>0, c1 , c2 , … , cn  si ottiene ponendo

v’(i) = ci , ” i Î ,  v’(S) = k ,

mentre gli altri parametri sono determinati per ogni X Î P(S) dalla relazione fondamentale:

v’(X) = k v(X) + åiÎX ci  .

Sia (S, vo) un gioco essenziale cooperativo in forma normale. Dunque vo(i) = 0 , ” i Î S , vo(S) = 1.

Diremo che un gioco essenziale cooperativo in forma normale (S, vo) è un gioco semplice se per ogni X Î P(S) risulta vo(X) Î {0 1}.

Se per ogni X Î P(S) poniamo X c := S – X , risulta (come segue banalmente dalla superaddittività):

(a) vo(X) = 1  con  vo(X c) = 0

(b) vo(X) = 0  con  vo(X c) = 1

(c) vo(X) = 0  con  vo(X c) = 0 .

Una coalizione X si dirà vincente se vale la (a), si dirà perdente se vale la (b). E’ anche evidente che se X è vincente il complemento è perdente così che il numero delle coalizioni vincenti eguglia il numero delle perdenti. Le coalizioni soddisfacenti la (c) si chiamano coalizioni bloccate o blocking sets.  Denotiamo con W l’insieme delle coalizioni  vincenti (da winning coalitions) del gioco semplice (S, vo) e con L l’insieme delle coalizioni perdenti  (loasing coalitions).

Si può dimostrare il seguente

Teorema di Shapley . Sia W una famiglia di parti  P(S) di un insieme finito S. Supponiamo che gli elementi di W soddisfino ai seguenti assiomi di Shapley :

(w1)  S  Î W [l’insieme di tutti i giocatari è in W ]

(w2) ” X, Y Î P(S) ,  t.c. X Î W , X ÍY Þ Y Î W [ogni soprainsieme di un elemento di W è in W

(w3) ” X Î P(S), X Î W Þ SX Ï W [il complemento di una coalizione di W non è in W].

Allora essi sono le coalizioni vincenti di un gioco cooperativo semplice (S, vo).

Dimostrazione.

Sia (S, vo) un gioco semplice allora (w1) e (w2) sono banali mentre (w3) segue dalla superaddittività.

Inversamente data una coppia (S, W) , dove gli elementi di W soddisfino gli assiomi (w1), (w2), (w3) ponendo : vo(X) = 1  Û  X Î W , si ottiene una funzione vo: P(S) ®  {0, 1} Í R per la quale chiaramente vo(Æ)  =  0, cioè  Æ Ï W  ,   per essere S  Î W (da (w1)) e per (w3).

La proprietà superadditiva

vo(XÈY) ³ vo(X) + vo(Y)  , ” X, Y Î P(S)  ,  t.c. X Ç Y =  Æ

segue dal fatto che se X è vincente, ogni Y disgiunto da X è il complementare dell’insieme vincente SX e quindi è non vincente, dunque:  vo(XÈY) = vo(X) = 1,  vo(Y) = 0 e la relazione vale.

Se X non è vincente e Y lo è, vale il ragionamento precedente scambiando il ruolo di Y con X.

Infine se sia X che Y sono non vincenti accade che vo(X) = vo(Y) = 0 e quindi la proprietà  superadditiva rimane provata sia che vo(XÈY) valga 0 che valga 1.  (c.v.d.)

Sia ora S un insieme non vuoto e siano W e G due famiglie di parti di S. Si dice che W è generato da G se accade che :

W =  { X Î P(S) : $ BÎ G  t.c. B Í X }

In tale caso si dice che W è la chiusura di  G  e si scrive W  = [G].

Un insieme G di generatori si dice minimale se due qualsiasi elementi di G non sono confrontabili rispetto all’inclusione.

Proviamo:

Teorema di chiusura. Sia S un insieme finito e non vuoto. Sia G una famiglia di parti di S con la proprietà che due elementi di G sono ad intersezione non vuota. Allora la chiusura W  = [G] di G, definisce su S una struttura di gioco semplice cooperativo (S, W) in cui W = [G], è l’insieme delle coalizioni vincenti.Tale gioco si chiama il gioco generato da  G  e si scrive  [S, G] = (S, [G] ).

Dimostrazione. Sia W  = [G] la chiusura di G. Segue che gli assiomi (w1) e (w2) sono  evidenti per come è definita la chiusura. Per provare (w3), sia A ÎW , allora esiste BÎG tale che B Í A e quindi Ac non ha punti in comune con B che è contenuto in A. Ne segue quale che sia la  coalizione X di G , essa non può essere contenuta in  Ac, altrimenti Ac conterrebbe XÇB ¹ Æ , un assurdo. Allora  Ac Ï W   cioè , vale (w3).  (c.v.d.)

Per assegnare dunque un gioco cooperativo semplice è indifferente assegnare una coppia (S, vo) costituita dallo spazio e dalla funzione dei valori delle coalizioni, ovvero una  (S, W) costituita da uno spazio e l’insieme delle coalizioni vincenti, o ancora una coppia (S, G) , spazio -insieme dei generatori, su cui operare la chiusura.

A parte i vari collegamenti con interi rami della Matematica discreta quali spazi vettoriali, spazi di blocchi, disegni e matroidi finiti in un insieme finito  S di agenti,  si può definire, con i criteri più disparati, sia  il valore di un agente ma anche di una coalizione, cioè di una parte di S.  Vogliamo fornire un esempio quantitativo indicativo delle possibili valutazioni per le agenzie.

Esempio. Un esempio di agenzia è costituito dagli enti:

A.- Un dipartimento D di una Università U, che fornisce ½ del capitale iniziale più 5 computer,  più due unità di personale!

B.- Un’accademia culturale C che fornisce per due anni 6 unità di personale.

C.- Un ente di formazione privato F, che fornisce ½ del capitale iniziale più 5 computer,  più due unità di personale!

D.- Una azienda A, che fornisce locali più arredamento.

I nostri agenti pensati come coppie uomo-macchina sono dieci, quindi si ha:

S =  {1, 2 , 3 , 4, 5, 6, 7, 8, 9, 10}

L’agente 1 è un coordinatore generale di attività, informato su tutto, ma in profondità su niente.

Gli agenti 2, 3, 4, 5 sono di elevato valore informatico pur nelle loro competenze.

Gli agenti 6, 7 sono di medio valore informatico, sanno fare ma non sono indipendenti.

Gli agenti 8, 9 sono di scarso valore informatico e sono dei dattilografi.

L’agente 10 è un segretario archivista.

Una prima approssimazione è l’assegnare un gioco semplice e definire le coalizioni vincenti.

Ciascun giocatore di per sè è di scarsa utilità al progetto di creare un’attività di didattica a distanza. Quindi ciascun giocatore ha valore 0. L’intero gruppo ha speranza di successo quindi valore 1. Le coalizioni vincenti minimali sono, per nostra scelta e quindi per definizione le seguenti:

{1, 2, 6, 10} , {1,3,7,10}, {1,4,8,10}, {1,5,9,10}.

Applicando i due Teoremi di Shapley e di chiusura si costruisce l’intero gioco.

Sono non vincenti: l’insieme vuoto, i 10 singleton, i 2-insiemi in numero di 45, i 3-insiemi in numero di  120, i 4-insiemi in numero di 210 meno i quattro 4-insiemi scelti come coalizioni vincenti. Dunque il valore di queste coalizioni è zero e tutti gli insiemi disgiunti dai quattro insiemi fissati.

Ora se vogliamo dare dei valori possiamo fissare 11 costanti con le quali assegnare valori aggiunti ma a nostra discrezione per valutare un gioco equivalente non semplice. Per questo poniamo: 

c(1) = c(2) = c(3) = c(4) =  c(5) = c(10) = 10 , c(6) = c(7) = 5 , c(8) = c(9) = 2 , k = 74 .

Con questa posizione ciascuna coalizione acquista un valore determinato dalla relazioni:

v’(S) = k v(S) = 74

se X Î P(S) si ha  v’(X) = 74v(X) + åiÎX c(i) .

Così ad esempio:   v(i) = c(i) ,   v’({1, 2, 6, 10}) = 74 + 10 + 10 + 10 + 5 = 109.

A parte i vari collegamenti con interi rami della Matematica discreta quali spazi vettoriali, spazi di blocchi, disegni e matroidi finiti in un insieme finito  S di agenti,  si può definire, con i criteri più disparati, sia  il valore di un agente ma anche di una coalizione, cioè di una parte di S.  Chiamando vincenti quelle coalizioni che hanno valore superiore alla somma dei singoli elementi e supponendo che sia rispettata l’assiomatica w1, w2, w3 nasce una teoria dei giochi cooperativi quantitativa del tutto idonea a fornire valutazioni per le agenzie.

 

¨¨¨¨¨

 

 

 

 

1.6       Conclusioni finali

 

Riassumendo, a nostro avviso, un modello epistemologico per la scienza dell’informazione e l’informatica dovrebbe legarsi a priori:

  • con il modello boudoniano che mette insieme l’attore/agente umano con quello che abbiamo chiamato contesto boudoniano che esprime tutta la complessità dell’attuale contesto sociale nel quale oggi viviamo.
  • Con l’ attore/agente umano che entra in coppia con un agente artificiale sia esso un software anche particolare, un hardware anche dedicato o altro che ne vivifichi e ampli le capacità operative, gestionali, elaborative creando delle figure uomo-macchina che vanno a costituire le singole unità da utilizzare nelle agenzie che si andranno a formare.
  • Con l’azione cooperativa dell’agenzia e che andrà meglio evidenziata sviluppando delle interconnessioni con la Teoria dei giochi cooperativi e con le strutture che ne derivano e dovrà essere corredata di funzione dei valori che tenendo conto della quantità di conoscenza e delle abilità di elaborazione che l’agente uomo-macchina o una singola coalizione di coppie possiede.

In questa fase non è facile indicare nel dettaglio i paradigmi che si andranno a creare. Nasceranno infatti, alla fine dell’intera opera dopo una lunga ed attenta analisi storica delle modalità antiche di calcolo, delle problematiche createsi nell’evolvere del tempo e della impennata dell’informatica che è stato il grande taglio epistemologico degli ultimi trent’anni!

Ad esempio se qualcuno dovesse scrivere una storia della medicina degli ultimi trent’anni probabilmente andrebbe a scrivere più una storia dell’informatica che della medicina.

Secondo noi l’uomo, consciamente o no, è portato a cancellare vari suoi desideri, che magari gli provocano paure ancestrali. Centralizzando se stesso e le singole azioni crea processi di innovazioni tecnologiche devolute al suo benessere, al miglioramento e, a volte, all’esaltazione delle sue prestazioni. Così, oggi, la genetica è molto vicina a creare, ricreare, formare, progettare l’uomo o una sua clonazione, realizzando un’intelligenza: se artificiale o no, è difficile dirlo.

 

 

¨¨¨¨¨

 

 

 

 

 

 

 

Note

 

[1] Filosofia della Scienza ed epistemologia del cyberspazio, intervista al Prof. Silvano Tagliagambe, http://lgxserver.uniba.it/lei/universita’/intervista_prof-taga.htm

[2] Prodromi di questa metodologia appaiono nello Zadig di Voltaire e nella favola di origine persiana presentata, con una traduzione di tale Cristoforo Armeno, in una raccolta di Sercambi, e tradotta e celebrata in molti paesi europei. Nella favola “I tre principi di Serendip”, dove serendip è il nome arabo di Ceylon, si narra di tre principi, giovani e molto brillanti, che posseggono il dono di trovare cose di valore non cercate. Il termine serendipità (dall’inglese serendipity, coniato da Sir Horace Walpole) indica l’attitudine a fare scoperte fortunate ed impreviste, ed è assurto ad indicare il paradigma delle scoperte impreviste, fatte grazie al caso e all’intelligenza!

[iii] J.Verne, Parigi nel XX Secolo, Tascabili Ec. Newton, 1995 (seconda opera di Verne, respinta nel 1863 dall’editore Hetzel, pubblicata dalla Hachette solo nel 1994).

[iv] Nella finzione presente nelle  opere di Isaac Asimov sui Robot si hanno macchine dotate di “cervello positronico” e apparenza esterna totalmente simile all’uomo ma che in relazione al loro comportamento devono obbedire alle seguenti tre leggi della Robotica: 1) un robot non può arrecare danno ad un essere umano né permettere che con la sua inazione un essere umano riceva danno; 2) un robot deve obbedire agli ordini impartiti dagli esseri umani, purché  tali ordini non siano in contrasto  con la prima legge; 3) un robot deve proteggere la propria esistenza purchè questa difesa non sia in contrasto con la prima e seconda legge. Cfr. I. Asimov, Io robot, Bompiani, Milano, 1963. Pensate ad un antenato di questa idea: il simpatico robot del vecchio film: Il Pianeta proibito.

[v] Si veda: P. Davies, I viaggi nel tempo, in: I volti nel tempo, Bompiani 2001 (a cura di G. Giorello, E. Sindoni, C. sinigaglia).

[vi] D.EUGENI, Gli utopisti e i modelli urbanistici nella pianificazione territoriale

D.EUGENI, New age: ipotesi per un nuovo modello entropico di analisi territoriale. in Atti Convegno Nazionale Mathesis su “L’impatto della modellistica e della critica dei fondamenti nella divulgazione e nella didattica, Rovigo, 1994. In corso di ristampa su “Scienze, matematica e società” voce: ……in www.apav.it .

[vii] Sia questo passaggio sia molti altri che appaiono nei successivi film tendono ad identificare il male con la diversità, evidenziando quella ancestrale paura che l’uomo ha nel confrontarsi con il cambiamento, riassunto a volte nell’osservazione “di male in peggio”.

[viii] E’ interessante notare che le lettere che seguono quelle del nome HAL sono IBM!

[ix] Si vedano: E. Sciarra, Paradigmi e metodi di ricerca sulla socializzazione autorganizzante, Media Ed., Mosciano S.A. (TE), 1999; R. Boudon, La logica del sociale, Mondadori, Milano, 1979.

[x] E. Sciarra, op.cit.

[xi] E. Black, L’IBM e l’Olocausto, Rizzoli, 2001

[xii] F. Annigoni, V. Schiaffonati, M. Somalvico, Aspetti antropologici dell’intelligenza artificiale, Atti del Congresso Nazionale Mathesis, Mantova 2001, 59-70.

[xiii] M. Somalvico, op. cit. e Tagliagambe, nota 1.

[xiv] M. Somalvico, op. cit.

[xv] E’ interessante il recente romanzo di William Gibson, Neuromancer, pubblicato in Italia con il titolo Neuromante, Oscar Mondadori, n. 191, 2003. Nel romanzo il protagonista Case vive in un mondo attraversato da autostrade informatiche e da hackers da grandi poteri. Messosi in torto con la mafia dell’elettronica è privato delle capacità di connettersi al cyberspazio, e viene isolato nella “prigione di carne del suo corpo materiale”. Per riottenere lo stato di uomo-macchina dovrà condurre a termine una oscura missione oltre i limiti del conosciuto!

[xvi] Si tratta della classificazione dei “gruppi finiti sporadici” che a partire dagli anni ’30 ha collezionato una vasta serie di lavori valutabili nel complesso in un corpo di circa 15.000 pagine.

[xvii] D.R.Hofstadter, Godel, Escher, Bach: un’Eterna Ghirlanda Brillante, Adelphi, Milano, 1984.

[xviii] E. Sciarra, op.cit.

[xix] M. Misky, The Society of Mind, Simon & Schuster, NY, 1985

[xx] G. Weiss, Multiagent Systems: A modern approch to Distribuited A.Intelligence, MIT Press, 1999

[xxi] Il lettore consulti i seguenti lavori: F. Amigoni, V. Schiaffonati, M.Somalvico, op.cit.; M. Somalvico, Emula e non simula, in Jacobelli J. (a cura di), Aspettando Robot. Il futuro prossimo dell’intelligenza artificiale, Laterza Bari, 1987; F. Amigoni, M. Somalvico, D. Zanisi, A theoretical framework for the conception of agency, Int. J. of Intelligent Systems 14, (1999), pp. 449-474.

[xxii] Si vedano: F. Amiconi, V. Schiaffonati, M. Somalvico, op.cit.; M.Wooldridge- N.Jenkins, Intelligent agents: theory and pratiche, Knowledg Engineering Rewiew 10 8(1995), pp. 115-152.

[xxiii] Per questo paragrafo vedasi: J. Von Newman, O. Morgestern, Theory of Games and Economic Behavior, Princeton, 1944; L.S. Shapley, Simple games – An outline of the theory, Rand Corporation P-series report, 1962 nella forma rivisitata in: L. Berardi, F. Eugeni, Blocking sets and Game Theory, Mitteilungen; A. Maturo, Cooperative Games, Finite Geometries and Hyperstructures, Ratio Math., 14 (2003), pp. 57-70.

 

Bibliografia Essenziale

 

[1] Aristotele, Organon, Einaudi, Torino 1955

[2] Euclide, Gli Elementi , Utet, Torino 1970

[3] F. Enriquez, Le Matematiche nella storia e nella cultura, Zanichelli, Bologna, 1938.

[4] B. de Finetti, Matematica logico intuitiva, Cremonese, Roma, 1959

[5] L. Wittgenstein, Tractatus logico-philosophicus e Quaderni 1914-1916, Einaudi, Torino 1968

[6] R. Carnap, La costruzione logica del mondo,  Fabbri, Milano 1966

[7] K. R. Popper, Logica della scoperta scientifica, , Einaudi, Torino 1970

[8] G. Saccheri, Euclide emendato da ogni neo, Milano 1904.

[9] I. Kant, Critica della ragion pura, Laterza, Bari 1966

[10] H. Poincaré, La scienza e l’ipotesi, La Nuova Italia, Firenze 1950

[11] D. Hilbert, Fondamenti della geometria, Feltrinelli, Milano 1970

[12] G. W. Leibniz, Nuovi saggi sull’intelletto umano, Editori Riuniti, Roma 1982

[13] G. W. Leibniz,  Scritti di logica, Zanichelli, Bologna

[14] C. Hempel, La formazione dei concetti e delle teorie nella scienza empirica, Feltrinelli, Milano 1961

[15] K. Popper, Congetture e confutazioni, Il Mulino, Bologna 1972

[16] K. Popper, Poscritto alla Logica della scoperta scientifica, I, Il Saggiatore, Milano 1984

[17] K. Popper, Logica della scoperta scientifica, Einaudi, Torino 1970

[18] B. Russell, Introduzione alla filosofia matematica, Newton Compton, Roma 1970

[19] G. Frege, Logica e aritmetica, Boringhieri, Torino 1965

[20] F. Ramsey, I fondamenti  della matematica, Feltrinelli, Milano

[21] R. Carnap, Sintassi logica del linguaggio, Silva, Milano 1961

[22] Newton, Principi matematici della filosofia naturale, Utet, Torino 1965

[23] F. Cassano, Sapere di confine. La frontiera come luogo epistemologicamente più alto, Pluriverso, 1997

 

 

Volumi consultati e consigliati

 

[1] V. M. Abrusci, Logica matematica, Laterza, Bari,  1992.

[2] D. Antiseri, Trattato di Metodologia della scienze sociali,

[3] D. Antiseri, Epistemologia e didattica delle scienze, Armando, Roma, 1977.

[4] D. Antiseri, La teoria unificata del Metodo, UTET, Torino, 2001.

[5] D. Antiseri, Teorie della razionalità e scienze sociali, Luiss, Roma, 2001.

[6] D. Antiseri, Principi liberali, Rubettino, 2003

[7] M.Baldini, Karl Popper e Sherlock Holmes, Armando,Roma, 1998.

[8] E.Black, L’IBM e l’olocausto, Rizzoli, Milano 2001.

[9] R. Boudon, La logica del sociale, Mondadori, Milano, 1979.

[10] A. Burgess, 1984 & 1985, Editoriale Nuova, Milano,1979.

[11] E. Carruccio, Matematica e Logica nella storia e nel pensiero contemporaneo, Gheroni Torino, 1958.

[12] M.Cerasoli-F.Eugeni-M.Protasi, Introduzione alla Matematica Discreta, Zanichelli, Bologna, 1986 (con una introduzione di Giancarlo Rota).

[13] M. L. Dalla Chiara, La filosofia della matematica, Laterza, Bari, 1967.

[14] M.L. Dalla Chiara, Introduzione alla filosofia della scienza, Laterza, Bari, 1997.

[15] M. L. Dalla Chiara, La logica quantistica , Laterza ,1999.

[16] F.Eugeni e S.Furneri (a cura di), “Le Identità ed I Saperi”,  Edilgrafital, Teramo,1999.

[17] F.Eugeni (a cura di), Critica dei fondamenti, Edilgrafital, Teramo, 2002.

[18] U. Eco-T.A.Sebeok (acura di), Il segno dei tre, Bompiani, Milano1983.

[19] P. Feyerabend, Contro il metodo, Feltrinelli, Milano 1979.

[20] D. Gillies, G. Giorello, La filosofia della scienza nel XX secolo, Laterza, Bari, 2001.

[21] G. Giorello (a cura di), L’immagine della scienza. Il dibattito sul significato dell’impresa scientifica nella cultura italiana, Il Saggiatore, Milano, 1977.

[21] G. Giorello, Ma in oriente si va per Occidente, in Taborelli (a cura di), 1992, pp. 178-187.

[22] G. Giorello, Lo specchio del reame. Riflessioni su potere e comunicazione, Longo,  1997.

[23] G. Giorello, Il caso e la libertà, Laterza Ed. Roma-Bari 1994.

[24] G. Giorello, Immagini e metafore della scienza, Laterza, Roma-Bari 1992

[25] G. Giorello, E.Sindoni-C.Sinigallia (a cura di), I volti del tempo, Bompiani, Milano, 2001.

[26] D.R. Hofstander, Godel, Esher, Bach: un’eterna ghirlanda brillante, Adelphi, Milano, 1984.

[27] J. Jacobelli. (a cura di) Aspettando Robot. Il futuro prossimo dell’intelligenza artificiale. Laterza Bari, 1987.

[28] C. Mangione, E. Bellone- Storia del pensiero filosofico e scientifico, Garzanti, Milano 1996.

[29] M.Misky, The Society of Mind, Simon & Schuster, NY, USA, 1985.

[30] V. Pareto, Trattato di sociologia generale, Comunità, Milano, 1964.

[31] E. Sciarra, Paradigmi e metodi di ricerca sulla socializzazione autorganizzante, Media Ed. Mosciano (TE), 1999.

[32] S. Tagliagambe, Alla ricerca di confini, Iter ,anno II ,n°5 ,treccani, 1999.

[33] S. Tagliagambe, Epistemologia del confine, Il Saggiatore, Milano, 1997.

[34] S. Tagliagambe, Il sogno di Dostoevskij. Come la mente emerge dal cervello, Cortina, Milano, 2002.

[35] S. Tagliagambe, Epistemologia del cyberspazio, Demos, Cagliari, 1997.

[36] S. Tagliagambe, La didattica e la rete, Pitagora,  2001.

[37] M. Weber, Il metodo delle scienze storico-sociali, Einaudi, Torino, 1958.

[38] G.Weiss, Multiagent systems: A Modern approach to distribuited Artificial Intelligence, MIT Press, 1999.

 

 

Questo sito si avvale di cookie tecnici necessari al funzionamento dello stesso ed utili per le finalità illustrate nella cookie policy. Continuando la navigazione o cliccando su "Accetto" acconsenti all’uso dei cookie. Maggiori informazioni...

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi