Menu Chiudi

Epistemologia dell’Informatica

torna a libri di Informatica

EPISTEMOLOGIA  DELL’INFORMATICA

di Franco Eugeni

professore ordinario di Logica e Filosofia della Scienza

Lezioni di “Epistemologia dell’Informatica” tenute presso la Facoltà di Scienze Politiche

dell’Università di Teramo nel Corso di Laurea di Economia per gli A.A. 2007/2009.

INDICE

CAPITOLO 1 – EPISTEMOLOGIA E PRODROMI DELL’INFORMATICA NELLA STORIA E NEL PENSIERO DELL’UOMO CONTEMPORANEO

1.1. IL RUOLO CULTURALE DELL’INFORMATICA NEL MONDO DI OGGI 

1.1.1. Il Meccanicismo e il paradigma meccanicistico. 

1.2. UN CENNO SULL’INFORMATICA UMANISTICA.

1.3. IPERTESTI E CULTURA MULTIMEDIALE

1.3.1. Le origini degli ipertesti 

1.3.2. Internet e l’open source. 

1.3.3. Ipertesti e libri: la teoria del villaggio globale.

Appendice 1.3.1. Filosofia della Scienza ed epistemologia del cyberspazio. 

Appendice 1.3.2. I linguaggi di marcatura. 

1.4. LA PRIMA RIVOLUZIONE: IL PENSIERO E L’OPERA DI PLATONE.

1.4.1. L’universo greco : un affresco dell’epoca. 55

1.4.2. Dall’oralità mimetico-poetica ai dialoghi di Platone. 58

1.4.3. La definizione, il mondo sensibile e il mondo delle idee. 61

1.4.4. La Teoria della Conoscenza, la seconda navigazione e il mito della Caverna. 62

Appendice 1.4.1. Una breve cronologia del tempo. 68

Appendice 1.4.2. Le opere di Platone. 69

1.5. PRODROMI DI INTELLIGENZA ARTIFICIALE: I PICCOLI ROBOT DELL’ANTICHITÀ.. 71

1.6. PRODROMI INFORMATICI NELLA LOGICA: IL SOGNO DI LEIBNITZ.. 76

1.7. PRODROMI DI ORGANIZZAZIONE DEI SAPERI NEL MEDIOEVO: L’ARTE DELLA MEMORIA.. 78

1.7.1. I Palazzi di Memoria. 79

1.7.2. Il Teatro della memoria di Robert Fludd. 81

1.8. LA SECONDA RIVOLUZIONE. L’AVVENTO DI GUTEMBERG E LA STAMPA.. 82

1.9. RIFLESSIONI VERSO L’INTELLIGENZA ARTIFICIALE.. 88

APPENDICE 1: Da Petrarca all’informatica Alla Normale un congresso su “Parole e immagini”. 92

APPENDICE 2: Informatica Umanistica. 93

APPENDICE 3 : Cenni sulle missioni ermetiche dei maestri di Scienza e d’arte tra 1500 e 1600. 99

 

CAPITOLO 2. 110

EPSTEMOLOGIA ED EPISTEMOLOGIA DELL’INFORMATICA.. 110

2.1. INTRODUZIONE ALL’ EPISTEMOLOGIA.. 110

2.2. IL PARADIGMA DELL’ABDUZIONE COME EMERGENZA DI CREAZIONE. 124

2.3. IL PARADIGMA COOPERATIVO.. 137

2.4. I PRODROMI DELLA PERSUASIONE OCCULTA.. 138

APPENDICE 1: Piccola digressione storica strumenti divulgativi 140

APPENDICE 2: Filosofia del sito APAV (Accademia Piceno-Aprutina dei Velati): ww.apav.it 142

 

CAPITOLO 3. 146

STORIA DEGLI STRUMENTI DI CALCOLO DALL’ANTICHITÁ AL PENSIERO CONTEMPORANEO.. 146

3.1 GLI STRUMENTI DI CALCOLO NELL’ANTICHITA’ E LE IDEE SOGGIACENTI AL CALCOLO   146

3.2. DAI BASTONCINI DI NEPERO ALLE CALCOLATRICI MECCANICHE. 150

3.3. UN EXCURSUS ATTORNO AI … BASTONCINI DI NEPERO. 153

3.4.  OSSERVAZIONI RELATIVE AI LOGARITMI. 154

3.5. LE CALCOLATRICI MECCANICHE CHE EMULAVANO LA PASCALINA. 157

3.6. L’AVVENTO DI BABBAGE.. 159

3.7. DAGLI SCHEUTZ A ZUSE.. 162

3.8. USCENDO DALLA… PREISTORIA DELL’INFORMATICA.. 165

3.9. LA MACCHINA ENIGMA, I COLOSSI E L’ENIAC.. 166

3.10. GLI ANNI CINQUANTA.. 167

3.11. VERSO L’INNOVAZIONE TECNOLOGICA.. 169

3.12. GLI ANNI SESSANTA.. 170

3.13. L’AVVENTO DEI COMPATIBILI 171

3.14. GLI ANNI SETTANTA.. 172

3.15. GLI ANNI OTTANTA.. 175

3.16. VERSO IL SUCCESSO DEI PORTATILI. 176

3.17. GLI ANNI NOVANTA.. 177

??? APPENDICE 1: Fatti e misfatti della Società contemporanea. 179

 

 

CAPITOLO 4. 192

ENTRA IN SCENA L’OPEN SOURCE.. 192

4.1. COS’È L’OPEN SOURCE.. 192

4.2. QUANDO NASCE.. 192

4.3. LA FREE SOFTWARE FOUNDATION ED IL PROGETTO GNU.. 193

4.3. LE TRE “LIBERTÀ” DEL SISTEMA OPEN SOURCE.. 194

4.4. LA FILOSOFIA DELL’OPEN SOURCE. 194

4.5. OPEN SOURCE E SOFTWARE LIBERO.. 195

 

CAPITOLO 5. 198

LA CRITTOGRAFIA.. 198

5.1. INTRODUZIONE.. 198

5.2. LA STORIA.. 199

5.2. IL PROBLEMA DEI CRITTOGRAFI: FARE UN CAOS ORDINATO.. 204

4.3. IL PROBLEMA STATISTICO.. 219

 

CAPITOLO 6. 228

INTELLIGENZA ARTIFICIALE.. 228

6.1. INTRODUZIONE AL PROBLEMA DELL’INTELLIGENZA ARTIFICIALE.. 228

6.2. IL CONCETTO DI ESSERE VIVENTE.. 233

6.3. IL DESIDERIO DI CREARE: PRODROMI DI INTELLIGENZA ARTIFICIALE.. 244

6.4. TAPPE DEL DIBATTITO SULL’INTELLIGENZA ARTIFICIALE.. 248

6.5. IL DESIDERIO DI CREAZIONE E L’UOMO MODIFICATO. 258

6.6. IL DESIDERIO DI CREAZIONE DELL’ESSERE ARTIFICIALE : LETTERATURA E FILMOGRAFIA.. 262

6.7. –  PRODROMI DI INTELLIGENZA ARTIFICIALE: I PICCOLI ROBOT. 281

DELL’ANTICHITÀ.. 281

6.8. – PRODROMI INFORMATICI NELLA LOGICA: IL SOGNO DI LEIBNITZ.. 284

 

 

CAPITOLO 1

 

EPISTEMOLOGIA E PRODROMI DELL’INFORMATICA NELLA STORIA E NEL PENSIERO DELL’UOMO CONTEMPORANEO

 

 

 

1.1. IL RUOLO CULTURALE DELL’INFORMATICA NEL MONDO DI OGGI

L’informatica, contrazione di Informazione automatica, così come noi oggi la vediamo, è la disciplina che si occupa della conservazione, dell’elaborazione e della gestione rigorosa dell’informazione oltre alla sua trasmissione mediante calcolatore elettronico.

Essa trae origine da altri settori (matematica, logica, elettrotecnica, elettronica).

Dagli anni ’60 è una disciplina autonoma e ultimamente ha raggiunto la valenza di scienza fondamentale.

Un considerazione interessante inerente all’Informatica in quanto scienza può essere il fatto che essendo tra le ultime discipline divenuta scienza, per quanto possa essere complessa ed “incerta”, risulta comunque tra le scienze che oggigiorno appaiono più chiare e di facile approccio per le collettività scientifiche e non. Del resto come precedentemente detto, l’informatica ha cercato di prendere il meglio da altre scienze quali matematica, logica, … e renderle in qualche maniera più fruibile all’utente. Uno slogan per racchiuderla: “l’informatica è una delle ultime scienze che più fra tutte è riuscita a comunicare agli utenti la propria natura”.

Per assurdo una delle considerazioni che viene fatta di questa materia è: semplice da studiare, ma ancora più semplice da dimenticare per la sua ben predisposizione ad essere indagata. Affronteremo meglio tale considerazione nel capitolo dedicato all’epistemologia informatica.

Nelle università e negli istituti superiori sono stati istituiti corsi specifici d’informatica.

Giova osservare che la disciplina oggi, ci appare come una materia in uno stato di perenne evoluzione. Una sua caratteristica è quella di essere presente in quasi tutti gli aspetti della vita quotidiana degli individui e quindi dell’intera società, specie per quanto attiene i fini organizzativi.

E’ così difficile dire se è l’Informatica ad aver generato una grande rivoluzione o se invece non sia stato l’utilizzo dell’Informatica nelle nuove tecnologie a produrre il fenomeno rivoluzionario.

Viviamo in effetti in una Società ad elevato grado di complessificazione: siamo bombardati da informazioni, siamo chiamati a prendere continue decisioni e ad impegnarci in prima persona in un sociale che spesso non riusciamo a capire compiutamente. Prendiamo parte alla vita politica e sociale in certe forme democratiche che, a volte, ci conducono a pensare che la nostra partecipazione ad un voto, ad un sondaggio, ad un programma sia qualcosa governato da forze occulte, o meglio occultate. Si ha l’impressione di un potere, che trascende dal singolo, il quale subisce, invece, decisioni prese altrove in una sorta di illusoria realtà, quasi da mondo virtuale.

Le migrazioni sono sempre più visibili, la popolazione europea sembra sempre più invecchiare e chiudersi in una sterilità controllata; mentre nelle scuole europee accanto ai ragazzi che sono europei da molte generazioni siedono e studiano ragazzi di un nuovo mondo multiculturale e multietnico. Vediamo nei banchi ragazzi extracomunitari siano essi di origine africana, asiatica o sudamericana o anche della più vicina – ma lontana – Albania.

La globalizzazione invade ed unifica i prodotti di consumo: usiamo i medesimi jeans, i medesimi telefonini, le stesse magliette riconoscibili da pochi e chiari marchi nel nostro attualizzato mercato globale…. ma siamo un villaggio globale?

Anche se torneremo su questo punto anticipiamo una risposta. La risposta è NO, perché non esiste – di fatto – ancora una vera comunicazione multiculturale; per poter convivere senza conflitti, senza pregiudizi, senza prepotenze verso le minoranze, è necessario fare degli sforzi enormi ai fini del conoscersi meglio. Basti pensare che è più semplice comunicare con un non credente avente un’origine etnica simile alla nostra che non con un credente di altra religione ma di etnia differente.

Sono molte le strade da percorrere, alcune più facili quali lo sperimentare le diverse cucine etniche. Qualcuno dice: i cinesi sono impareggiabili ristoratori, hanno uno spirito di adattamento che permette loro di dare da mangiare a chiunque nel mondo. Ma molti sono di parere contrario, non amano mangiare cinese e non amano i cambiamenti. Eppure ad un inviato all’estero farebbe comodo sapere che, ad esempio, per un giapponese soffiarsi il naso in pubblico è disdicevole quanto da noi ruttare??? in pubblico.

Così la scuola oggi, può – se ci riesce – riassumere quel ruolo di preparatore di base che sembra aver perduto, evitando quella che può definirsi una preparazione da spendere facilmente sul mercato ed affinando invece negli allievi le capacità di comprensione attraverso, se si vuole, la scrittura, la lettura, la composizione, le lingue, la storia delle nostre, ma anche delle altre, etnie, la religione intesa come storia delle Religioni e dei costumi, la scienza e le interconnessioni della Scienza con il mondo attuale, in un travaso di saperi che indirizzi il giovane verso una formazione di carattere generale che possa dargli duttilità e capacità di adattamento sul mercato del lavoro.

Per formare bene il cittadino di domani le conoscenze sono determinanti; soprattutto devono essere conoscenze spendibili nel mondo attuale. Così da un lato siamo chiamati ad insegnare l’Informatica al futuro cittadino, ma anche il diritto e l’economia e con tutto questo dobbiamo anche sviluppare in lui doti molteplici di intellettualizzazione ed internazionalizzazione, di creatività, di etica, ma anche di adattabilità al senso della comunità in cui si vive, decisamente ed irreversibilmente multirazziale e multiculturale. In realtà le strutture della scuola non riescono, da sole, ad insegnare tutto questo. Tuttavia il giovane studioso, che ha necessità di indirizzare il suo sapere, è bene conosca queste problematiche nelle quali si dovrebbe immergere e sfruttare tutti i canali a sua disposizione, per iniziare un cammino di saperi per il suo domani.

Si deve partire in questo dalla famiglia, ben diversa da quella patriarcale di primo Novecento, quella famiglia che, passata dalla microfamiglia degli anni pre-sessantottini, attraverso il femminismo ha preso oggi ben altra visione di se. Infatti anche nella vita privata è richiesta molta flessibilità, la nuova famiglia è sottoposta al regime delle separazioni e dei divorzi, si formano nuove famiglie con nuovi partner, si realizzano le famiglie allargate. I figli di precedenti unioni convivono così con i figli di nuove unioni e ci si avvia verso l’idea della scelta, nei matrimoni, di proseguirli o interromperli, riscoprendo modelli, che non sono nuovi, per chi studia i costumi delle società piccole e grandi che si sono venute alternando nei tempi.

Siamo anche chiamati a nuove scelte in termini di fecondazione assistita, clonazione, ricerca di nuove risorse energetiche, politica per le acque e quant’altro serva per intuire la complessità della vita moderna. Occorre cambiare per vivere nel mondo di oggi, cambiare mentalità, cultura, essere disposti ad adattabilità; purtroppo è solo una parte della società che è disposta ad imparare e a cambiare, l’altra parte è invece portata a chiudersi in una nostalgica ammirazione di un passato, che si illudono essere stato brillante, spesso brillante solo nella fantasia retrospettiva; passato comunque che appare di impossibile e antistorica riproducibilità.

Così inevitabilmente una parte della società è destinata alla dequalificazione professionale, ad un nuovo analfabetismo e quindi ad una precarietà, dalla quale breve è il salto alla povertà assoluta, come mostrano le società che hanno già sperimentato i regimi multietnici, multiculturali e complessi. In molti paesi si stanno operando vere e proprie riduzioni di diritti, le riduzioni dei sistemi assistiti, da quello sanitario all’istruzione. Probabilmente, saranno la solidarietà tra gruppi di lavoratori e le interazioni dirette con il mondo assicurativo a sostituirsi all’assistenza previdenziale del passato.

In questo scenario nascono le problematiche che porremo nel nostro corso di Informatica o di epistemologia della stessa.

Noi vogliamo capire cosa questa disciplina sia nel mondo di oggi e cosa di questa disciplina ci occorre per muoverci in modo corretto, forse produttivo, ma non solo, forse etico, ma anche consapevole nei confronti della società in cui viviamo.

Uno studio dettagliato della storia dell’Informatica è ancora da fare nel senso compiuto del termine, ma non vi è dubbio che la rivoluzione informatica è un capitolo della Storia della tecnologia non meno importante della Rivoluzione Industriale o, nella notte dei tempi, della scoperta del fuoco, rivoluzione tecnologica e non solo tale!

Forse tre momenti salienti delle rivoluzioni culturali possono essere:

  • il passaggio dalla oralità mimetico-poetica, tipo Omero, alle opere scritte, conservate e diffuse quali quelle di Platone il cui pensiero ci è pervenuto per intero. (400-300 a.C.);
  • la creazione e diffusione dei caratteri a stampa e la nascita del libro e delle biblioteche (1400/1500);
  • la rivoluzione della Comunicazione e dell’Informatica (oggi!).

 

 

Volendo a priori presentare un quadro di suddivisione dell’Informatica in sottosettori, peraltro del tutto arbitrari, ma validi per un primo approccio, si può tentare, grossolanamente, la ripartizione nei seguenti rami.

 

L’INFORMATICA TEORICA si avvale di metodi e di modelli matematici per la formulazione di algoritmi non necessariamente pensati per il calcolatore, si occupa di studi di Logica avanzata per i fondamenti dell’informatica, della Semantica, intesa quale disciplina che studia il significato delle parole nella loro evoluzione storica, naturalmente ai fini della comprensione e dello sviluppo di una corretta Teoria dei Linguaggi Formali. Si occupa ancora dello studio degli Automi e dell’Intelligenza Artificiale (IA), sulla quale sono aperti ampi e profondi dibattiti.

L’Informatica Teorica parte dallo schema della macchina di Von Newman[1] (che definisce in modo rigoroso il concetto di elaboratore elettronico a programma memorizzato, ancora oggi utilizzato nella progettazione di sistemi informatici), per giungere alle raffinate questioni connesse con la macchina (teorica) e il test di Turing[2].

Tali questioni oramai complesse e profonde hanno la loro origine e devono le basi del loro sviluppo a quanto è emerso anche dalla Teoria di Shannon[3], dagli studi sulla Computabilità e sulla Teoria della Complessità, delineate innanzitutto dalla macchina di Turing e dalle tesi di Church[4], che mettono in evidenza le potenzialità e le limitazioni dei calcolatori che l’uomo oggi è in grado costruire

 

L’INFORMATICA PRATICA si occupa della formulazione corretta di algoritmi per il calcolatore; molto importanti sono la definizione dei linguaggi di programmazione, lo sviluppo dei programmi di traduzione (interpreti) e dei sistemi operativi. Prepara inoltre metodi per la raccolta di grandi quantità di informazioni in “banche dati” e per l’accesso alle stesse.

Nell’Informatica pratica ci si occupa di tutti i vari programmi che fanno parte del pacchetto Office, (Word – Excel – Access – Outlook – Power Point), e di tutta una serie di ulteriori programmi quali: Nero Burning (per masterizzare un CD o un DVD), Photoshop (ritocchi e stampe di foto digitali), Adobe Premiere (acquisizione e ripulitura filmati – titolazioni di scene – inserimento di effetti speciali – esportazione e masterizzazione su Cd e su DVD). Tutti questi programmi sono utilizzabili, in genere, solo in ambiente Windows e non, ad esempio, in ambiente Macintosh ovvero Linux: per essi occorrono programmi diversi, simili ma diversi! Inoltre i programmi suddetti possono subire varianti e di essi possono essere presentate versioni aggiornate o addirittura essere assorbiti da programmi nuovi. Su ciascuno di essi si può scrivere qualcosa di più approfondito cosa che noi faremo per L&H Power Translator Pro.

Il programma L&H Power Translator Pro agisce come traduttore in ambo i versi tra due qualsiasi delle seguenti lingue: Francese, Inglese, Italiano, Tedesco, Portoghese, Spagnolo.

Tipico è il processo con il quale si lavora su una pagina: la si scannerizza e si opera su essa un riconoscimento con un programma di OCR (1 minuto circa) ottenendo così un file in lingua originale. Poi si esegue su essa un programma tipo Translator e si ottiene il file, orrendamente tradotto, ma tradotto, e si accomoda il testo con qualche minuto a disposizione e un po’ di fantasia, anche per lingue non conosciute. In altre parole il programma contiene[5] ben 30 traduttori in grado di tradurre istantaneamente e superficialmente un testo dall’una all’altra delle sei lingue indicate. Programmi simili al Translator, permettono operazioni di tal tipo, con traduzioni anche dal giapponese e dal cinese.

 

L’INFORMATICA TECNICA si occupa dell’architettura dei computer, che sono globalmente basati sullo schema teorico della macchina di Von Neumann, che è effettivamente utilizzato per la costruzione degli attuali calcolatori, pur riferendosi a tecnologie elettroniche in perenne modifica per il miglioramento dei rispettivi circuiti elettronici e dell’organizzazione dei sistemi di calcolatori con l’implementazione di sempre più efficaci protocolli di comunicazione. Per quanto riguarda l’hardware, oltre a ricordarne alcuni di vero interesse, si presentano diverse novità che si stanno affacciando sul mercato e che presto saranno disponibili per il grande pubblico.

 

  • Una significativa opera di hardware dedicato consiste nella costruzione di apparecchiature cifranti, alle quali ditte specializzate hanno dedicato interi reparti.
  • I computer attuali permettono non solo la gestione dei floppy disk, come nel passato, ma anche la visione e la masterizzazione di CD e DVD, e lo scaricamento diretto dei files da memorie di massa quali i mini dischetti, i memory stick, le flash card ecc. provenienti da macchine fotografiche digitali. Sono molto diffuse anche le cosiddette penne, con le quali si possono trasportare agevolmente informazioni per oltre 1 gigabyte. Il collegamento di questi piccoli hardware al computer può avvenire, in modo efficiente, anche attraverso le cosiddette porte USB.
  • Siamo in grado fin da oggi, anche se il tutto appare complesso e costoso, di costruire le cosiddette case intelligenti (ma anche grattacieli), nelle quali un computer dedicato può, con una preordinata programmazione, gestire riscaldamento, apertura e chiusura di porte e finestre, sistemi di allarme e telesorveglianza, sistemi di irrigazione e di sicurezza in caso d’incendio ed altro ancora.
  • E’ interessante il lettore di e-book, un libro elettronico delle dimensioni e del peso di un normale libro ma dotato di uno schermo di lettura, sul quale appaiono le pagine, tra le quali è possibile effettuare ricerche mirate, inserire segnalibri avendo la possibilità di prendere appunti. Ad esempio Librié realizzato da Sony, Philips e E-Link pesa 300grammi, ha uno spessore di 213 millimetri e contiene circa 500 volumi!
  • Il lavoro manuale sarà più facile nel futuro grazie agli esoscheletri che saranno altamente informatizzati e moltiplicheranno le capacità fisiche dell’uomo.
  • Il nuovo sistema “Windows Media Center” della Microsoft è un unico PC dedicato che sarà in grado di gestire da un unico apparecchio – tramite telecomando – TV, radio, ascoltare e/o registrare musica da radio o da CD, vedere e/o registrare un filmato dalla TV o da una videocamera, navigare in rete, e anche interrompere e registare in differita un programma che si sta vedendo in diretta, riprendendo la visione lì da dove si era lasciata.
  • L’iPod, il lettore personale mp3 di musica della Apple ha sostituito il walkman digitale negli anni 2000, infatti permette di ascoltare file audio mp3 attraverso delle cuffiette, oppure collegandolo ad un impianto stereo. La capacità dell’Ipod permette di portter trasportare un massimo di 15.000 musiche. Può inoltre essere utilizzato come rubrica, agenda, macchinetta fotografica digitale, voice recorder, player video.
  • Le nuove console XBOX 360, PlayStation 3 e PSP (PlayStation Portable) si sono trasformate in veri e propri elettrodomestici da intrattenimento, infatti questi strumenti non vengono più considerati semplici console per giocare, ma veri e propri sistemi per l’intrattenimento, in quanto permettono ad esempio al riproduzione di DVD, il gioco online, la videoregistrazione su HD o DVD, la riproduzione di musica e tante altre funzionalità tipiche degli elettrodomestici.

 

L’INFORMATICA APPLICATA si occupa soprattutto delle categorie di problemi da risolvere con il calcolatore e di tutti gli ambiti nei quali sia possibile introdurne l’uso. Sviluppa linguaggi di programmazione molto semplici, per esempio programmi adatti a facilitare l’accesso a banche dati, di interesse settoriale. Nell’Informatica Applicata vi sono particolari e molteplici sottosettori tra i quali quelli che studiano:

 

  • L’influenza dell’informatica e delle banche dati sulla società e sull’individuo (informatica, comunicazione e società).
  • La protezione dell’informazione (teoria dei codici correttori, crittografia, crittoanalisi, autenticazione, firma digitale).
  • Problemi riguardanti la legislazione informatica (informatica giuridica)[6] e le molteplici tematiche[7] trattate in questo contesto.
  • L’utilizzo delle telecomunicazioni in campo medico (Telemedicina) risale al ’68 sulla spinta dei controlli telematici dei cosmonauti. La Telemedicina oggi è estesa a tutta la penisola con sistemi di monitoraggio di vario tipo: teleassistenza, monitoraggi e telesoccorso a cardiopatici, dialici ed anziani che vivono soli, servizi per non vedenti, servizi di videotelefonia per sordomuti, programmi di gestione di servizi socio-sanitari a distanza e una nuova generazione di piccoli apparecchi di monitoraggio.
  • Una frontiera in medicina è rappresentata dalla telechirurgia nella quale la realtà virtuale è utilizzata per operare a distanza con l’aiuto di robot.
  • Possibilità di progettare e costruire protesi informatizzate del tipo più disparato, ma anche protesi di tipo psicologico che riproducono realtà virtuali di aiuto riabilitativo..

 

L’avvento di Internet ha permesso la creazione e la gestione di tutta una serie di servizi impensabile nell’era pre-internet. L’elenco che segue non è certo esaustivo, ma serve a dare un’idea dei servizi cui è possibile accedere a partire da un computer proprio o di un operatore a nostra disposizione. Tre le varie appunto ricordiamo le seguenti.

 

  • La creazione di strumenti per la navigazione on-line è di grande interesse. Primi tra tutti i browser che sono programmi che ci permettono di entrare in Internet per la visualizzazione delle pagine informative messe in rete. Tra i più diffusi Internet Explorer, Netscape, Mozilla ed oggi anche Maxthon e Firefox. Poi ci sono i cosiddetti motori di ricerca che permettono la ricerca di voci in Internet. Ogni motore ha le sue regole per assemblare le parole chiave. L’idea è che se ricerco il personaggio Sherlock Holmes scrivendo la due parole separate ricerco anche le parole Sherlock ed Holmes da sole. Ricercando Sherlock Holmes da un motore di ricerca è facile ottenere 2000 pagine web, quindi una ricerca va di fatto maggiormente specificata per non annegare nella navigazione. Solo due anni fa erano molti i motori di ricerca messi in atto per il Web, tra questi: altavista.com, www.yahoo.com, (leggi iaù) e tanti altri. Oggi uno dei motori più diffusi è www.google.com (leggi gugle) che si appoggia anche ad altri motori! Vi sono poi motori di ricerca, di dimensioni ridotte, e utilizzati per scopi particolari. Ad esempio, nel sito www.apav.it , sito dell’Accademia Piceno Aprutina dei Velati, al quale il nostro corso si appoggia, è stata digitalizzata la Rivista Ratio Matematica, che nel periodo 1990/2004 ha pubblicato – in tiratura limitata – 14 fascicoli e fino a poco tempo fa introvabile. Ora la rivista è on-line su APAV ed un motore di ricerca permette al suo interno di ricercare, ad esempio, tutti gli articoli aventi per autore Franco Eugeni, o nel cui titolo vi è la parola Codice o Crittografia e così via.
  • La posta elettronica con i suoi classici indirizzi: giuseppemanuppella@interfree.it oppure eugenif@tin.it sono, ad esempio gli indirizzi personali dei Proff. Giuseppe Manuppella e Franco Eugeni, ai quali i lettori di queste lezioni si possono rivolgere.
  • Non si può non menzionare il NAVIGATOR, navigatore GPS (Global Position System), sistema che collega automobili e satelliti, che offre la possibilità, all’interno di una città, di essere guidati da una voce preregistrata in maniera da districarsi anche quando la città è a noi sconosciuta con rispetto dei sensi vietati, dei percorsi minimi e forse – in futuro – anche con un’ottimizzazione che tenga conto statisticamente dell’intensità del traffico.
  • Per la velocità di accesso alla rete si possono usare vari tipi di connessione. Accanto alle connessioni dirette che viaggiano nel canale telefonico con le medesime frequenze dei messaggi telefonici ordinari vi sono anche linee di frequenza diversa, dedicate solo alla connessione Internet, come le cosiddette linee ADSL, diffuso acronimo di Asynchronous Digital Subscriber Line, offerte oramai anche dalle compagnie telefoniche alternative, che permettono un tipo di connessione più rapida e di maggior efficienza e accessi anche 20 volte più veloci dell’accesso tradizionale.
  • Utilizzo di banche date per problematiche connesse con il turismo ivi comprese le reti alle quali si appoggiano i vari operatori per la presentazione e prenotazione di vacanze in villaggi e località di interesse dei clienti.
  • Banche ed assicurazioni on-line. E’ oggi possibile, non solo controllare il proprio conto corrente bancario, eseguire bonifici da casa, ma perfino ottenere mutui on-line per l’acquisto di appartamenti ed altro.
  • Utilizzo di negozi virtuali. Tra i vari segnaliamo AMAZON che permette l’acquisto efficiente di libri on-line ma anche di CD ed altro nelle sue varie accezioni (www.amazon.com, www.amazon.fr, www.amazon.co.uk, e ulteriori …) con registrazione dell’utente per ordini successivi, registrazione che protegge il numero di carta di credito e la data di expiration (scadenza) della stessa. Interessante anche l’esistenza di un commercio antiquario all’interno della stessa Adeguate, magari costose, scelte del sistema di spedizione permettono di avere un oggetto a casa propria anche in 24 ore!
  • Aste on-line, quali quelle di e-bay (www.ebay.it), permettono a volte, alle categorie interessate, di fare dei veri e propri affari in rete. Perfino il vecchio mercato della compravendita di fumetti, gialli, fantascienza, romanzi popolari ed altro, quali francobolli, figurine, monete, materiale militare e quant’altro, è possibile on-line. Così alle bancarelle, ai rigattieri, ai negozi specializzati e ai commercianti per corrispondenza (che oggi hanno tutti il loro sito Internet) si è affiancato il mercato parallelo on-line, in grado di fare anche da calmiere dei prezzi mettendoli quanto meno a confronto.

 

 

L’INFORMATICA UMANISTICA si occupa dei rapporti tra l’Informatica, in quanto veicolo e supporto di contenuti, e quelli che sono i valori culturali del mondo umanistico in genere e ancora con tutto quanto attiene ai rapporti della gestione e della conservazione del sapere. Tale settore parte dalla fondamentale idea che la tecnica è alla portata di tutti, mentre l’analisi raffinata dei testi non lo è affatto.

Un’operazione tipica di interesse del settore è la digitalizzazione dei testi per la loro conservazione. Un’indicazione su questo procedimento è stata data poco sopra a riguardo della Rivista Ratio Matematica (digitalizzata e reperibile in www.apav.it ), ma ulteriori notizie su questa operazione di notevole importanza appariranno nel paragrafo relativo all’Informatica Umanistica a proposito della digitalizzazione del Periodico di Matematiche.

Altri interessanti progetti di Informatica Umanistica risultano essere:

  • Liber Liber (www.liberliber.it): “nota per il progetto di biblioteca telematica accessibile gratuitamente (progetto Manuzio), è una o.n.l.u.s. (organizzazione non lucrativa di utilità sociale) che ha come obiettivo la promozione di ogni espressione artistica e intellettuale. In particolare, Liber Liber si propone di favorire l’utilizzazione consapevole delle tecnologie informatiche in campo umanistico e di avvicinare la cultura umanistica e quella scientifica.”
  • l’IBM Digital Library: un’applicazione che consente la gestione e la catalogazione di grandi quantità di informazioni elaborate per diversi tipi di media. Questa soluzione include tecnologie per la cattura, creazione, e digitalizzazione di vari materiali: infatti tale sistema ha permesso pochi anni fa di digitalizzare l’intera Libreria del Vaticano in modo che Questa possa essere fruibile via Internet;
  • it (www.manuali.it): un portale web il cui scopo principale è quello di raccogliere e classificare tutti i manuali, in italiano ed inglese, presenti su Internet. In questo biblioteca verticale(si noti come su Internet sia molto più facile il poter creare biblioteche di carattere verticale, cioè biblioteche che si specializzano solo su alcune tipologie di libri che raccolgono), è possibile trovare e scaricare gratuitamente, oltre 2500 manuali suddivisi in dieci categorie. La natura dei manuali può essere sia di tipo Microsoft Word fino ad arrivare al alcuni documenti che sono vere e proprie immagini “rilegate”. Ogni guida, all’interno del sistema, oltre ad essere classificata, viene indicizzata attraverso delle parole chiavi che permettono la ricerca testuale in base alle proprie esigenze.
  • Google Print – Google Ricerca Libri (www.google.it): prevede la possibilità per ogni editore o biblioteca che ne fa richiesta, di inviare i propri libri in formato cartaceo a Google che provvederà a digitalizzare le parti più importanti del libro, ovviamente indicate dall’editore o dalla biblioteca, rispettando le normative sul copyright e renderle disponibili su Internet attraverso l’omonimo motore di ricerca. Ogni editore potrà ovviamente decidere la percentuale di testo da far digitalizzare che potrà variare tra il 20% ed il 100%. In questo modo sarà possibile ottenere un archivio globale dell’editoria contemporanea e non: in questo modo, tutti gli utenti potranno ricercare e comprare libri direttamente dal proprio computer.

 

Occupiamoci ora di un fenomeno di vasta portata quale la gestione culturale in termini di comprensione ed utilizzo delle Informazioni.

All’Università di Berkley hanno valutato, per fornire un’idea del reale flusso di informazioni che oggi ci bombarda, che in questo ultimo anno sono stati immagazzinati su hard disk, carta e pellicola circa 5 exabyte – la nuova unità di misura dell’informazione pari ad un miliardo di Gb (Gigabyte) – di nuove informazioni. Per avere un paragone concreto si tratta dell’equivalente cartaceo di 37.000 biblioteche del livello della Biblioteca del congresso USA, che contiene all’incirca 17.000 libri.

Emerge chiaramente che la ricerca delle informazioni è una nuova forma di conoscenza sulla quale sarà importante istruirsi sempre di più ed anche investire tempo, intelletto e denaro per migliorare le tecniche dei motori di ricerca, scoprire come inserire in essi strategie più selettive. Cio conduce a operare strategie atte alla eliminazione dei cosiddetti “contenuti spazzatura” che inquinano sempre maggiormente quel territorio virtuale che costituisce la nostra giungla delle informazioni.

Un’ottima novità del settore sono i cosiddetti Blog (da web = ragnatela e log = diario), ovvero i siti, spesso personali, con notizie a volte affastellate in prima pagina, gestiti da esperti che filtrano e disinquinano le informazioni di un determinato campo. Le strutture dei Blog sono spesso molto semplici, fanno poco uso di link interni, prediligono la linearità invece che la classica struttura ad albero dei siti. Nei Blog si trovano spesso dei Forum che raccolgono opinioni anche commentate, tesi proposte, notizie e a volte anche le chat; così partecipare ad un Blog, è come partecipare ad un qualcosa che in parte simile ad una conversazione ma anche in parte simile ad un convegno, in altre parole partecipare ad un’interazione con un blocco di volumi specializzati ed ad un contatto con chi, a riguardo, ne sa.

Si è valutato che esistono 500 mila Blog negli Stati Uniti e oltre 3 mila in Italia (vedasi a riguardo: http://bloggando.splinder.com , www.splinder.com , www.blogger.com ).

L’evoluzione della cultura letteraria, proprio a causa dei nuovi media – informatica compresa – ha aperto nuove vie per cui a volte, nelle attuali conversazioni, è forse più importante conoscere quanto scrive Umberto Eco che non ciò che scriveva Giovanni Pascoli. Entrano inoltre nella letteratura vecchi fenomeni letterari riabilitati dalla cultura di massa, quali il ruolo del romanzo popolare di ieri per comprendere le fiction di oggi e nuovi fenomeni letterari di autori di mondi impostisi da poco. I canali nei quali siamo immersi ci inondano di immagini, i messaggi ci arrivano per e-mail, attraverso gli Sms ed anche dei vecchi media. Una foto scattata da un telefonino ed inviataci per via e-mail dallo stesso, spesso contiene più informazioni di un file di testo.

Occorre imparare a leggere tutto questo, è una lettura nuova. Un esperimento facile: registrate un testo di un qualsiasi personaggio brillante che con il suo parlare e con la sua immagine fa audience e provate a sbobinare il testo registrato! Avrete sicuramente una grande delusione, poiché in realtà avrete fatto una traduzione dalla lingua giusta per cui il medium era stato progettato ad una errata, per la quale il medium non era stato progettato.

 

LA MULTIMEDIALITÁ ha il suo antenato nelle antiche tecniche di Arte della Memoria (cfr. paragrafo relativo) che venivano usate dalla mente per organizzare il proprio sapere. Oggigiorno tali tecniche hanno trovato terreno fertile perché si possa assemblare in un unico supporto scritti, immagini, brani musicali e filmati sia appositamente ottenuti sia archiviati in altri supporti. Opportuni programmi permettono la gestione, l’incollaggio e le rifiniture di presentazione di questi materiali. Sparisce l’idea del testo sequenziale e i rimandi non sono più soltanto brevi note, ma possono ottenersi delle connessioni – solo cliccando – a testi ben più ampi, anche contenuti in altri supporti e contenuti in altri siti della rete. Sono gli ipertesti, il più famoso e gigantesco dei quali si può considerare proprio Internet! Il libro (cf. par. relativo) verrà soppiantato da una siffatta struttura? E’ uno dei grandi interrogativi di oggi.

L’Informatica Umanistica e la Multimedialità si fondono ed operano in parallelo su una frontiera di interessi comuni, che tentiamo ora di sintetizzare.

  • Ricercare una filosofia della conservazione dei saperi per la gestione di archivi da poter riutilizzare e conservare anche nel caso di cambiamenti di tecnologie.
  • Partecipare con grande impegno alle nuove forme di creatività di composizioni multimediali.
  • Comprendere l’evoluzione della tecnologia e saperla comparare, con atteggiamento più critico, alle seduzioni – non sempre di contenuto – che il mercato offre. Non è utile rinnovare una macchina perché ne vengono proposte di nuove. Quello che dovremmo chiederci sempre è se le nuove funzioni, che la pubblicità attribuisce alla nuova macchina, sono veramente tali e se soddisfano realmente una nostra necessità di lavoro e non già uno sterile essere alla moda!

 

 

LA STORIA DELL’INFORMATICA presenta caratteristiche uniche. Intanto uno studio dettagliato della Storia di questa disciplina è ancora da fare nel senso compiuto del termine, occorre raccogliere idee dei protagonisti, citare le loro affermazioni in termini di certezze e speranze, confrontare le loro idee nei vari momenti epocali. La storia dell’Informatica è caratterizzata da un’evoluzione, che potremmo definire esponenziale, nel senso che, dopo una partenza lenta e insicura, il processo di crescita ha subito delle impennate, sempre più indicative, incalzanti per tempi sempre più rapidi. Così ci si sta avviando oggi verso una evoluzione multidisciplinare sempre più rapida ed invasiva.

 

L’EPISTEMOLOGIA DELL’INFORMATICA. Una visione epistemologica dell’Informatica (cf. Cap. 2 e Par.2.1) dà luogo ad una disciplina che osserva l’Informatica da un punto esterno alla disciplina stessa e nelle sue interconnessioni con le altre materie: in particolare con la matematica e la logica, ma anche con la fisica, con la medicina, con le scienze applicate, in genere, ma anche con le scienze politiche e sociali, ponendo l’accento sui molteplici paradigmi che in essa si evidenziano[8]. Va rilevato che nessun’altra disciplina ha avuto connessioni e invadenze così ampie come quelle prodotte nel settore dell’Informatica, al punto che lo scenario che emerge è molto diverso da quello che ci appare negli altri settori di studi epistemologici.

 

LA CRITICA DEI FONDAMENTI DELL’INFORMATICA è una disciplina di confine con l’Informatica teorica; si occupa dei vari problemi filosofici che si creano all’interno della disciplina dal punto di vista fondazionale e delle implicazioni verso l’Intelligenza Artificiale (I.A.). Ci si chiede ad esempio se si possano o meno fare dimostrazioni automatiche, se la Logica e i suoi fondamenti sono interessanti o meno per la fondazione dell’Informatica, come i grandi temi della Matematica influenzino le problematiche di sviluppo dell’Informatica.

 

Per concludere ci poniamo e vi poniamo alcune domande.

Intanto quali sono le tendenze della vita odierna influenzate dalle nuove tecnologie ?

Il vivere nella società attuale sembra richiedere il possesso di tutta una serie di qualità e conoscenze che non erano del tutto indispensabili nel passato. Tra queste elenchiamo alcuni saperi e gestione dei saperi, che a nostro avviso meritano di essere rimarcati e ripensati:

  • Investimento sulla qualità dei saperi, con relativa maggior conoscenza sia della scienza che della tecnologia.
  • Capacità di sintesi, specie ai fini di comunicazioni rapide ed efficienti.
  • Tendenza ad operare nelle società di volontariato ai fini dello sviluppo di azioni di solidarietà.

 

 

Tali aspetti, comunque, vanno riletti in chiave moderna e, se si vuole vanno attualizzati, nel modo che segue.

  • Acquisire capacità progettuali e di invenzioni di nuove attività, spesso temporanee; rinuncia totale all’idea del posto fisso – sotto casa – per tutta la vita. Uno dei valori più importanti nella società di oggi è saper imparare. Per questo, intanto, occorre avere un metodo, ma l’aver metodo non è novità del mercato attuale; va solo osservato che oggi il metodo di apprendimento deve essere necessariamente dinamico per permettere a ciascuno di noi di partecipare al modello della Educazione Continua Permanente.
  • Acquisire capacità di operare velocemente, capacità di autoaggiornarsi con altrettanta rapidità, forte adattabilità a riciclarsi professionalmente, anche in lavori paralleli. In altre parole acquisire la cosiddetta occupabilità. Un aspetto dell’occupabilità è la flessibilità sul lavoro: atteggiamento che coniuga, assieme al possesso di un metodo per imparare, una conoscenza tecnico-scientifica di qualità non disgiunta da varie competenze trasversali quali l’uso delle nuove tecnologie, disinvoltura all’uso di più lingue ma anche, a volte, conoscenze pratiche di psicologia sociale quali il saper lavorare e comunicare nei gruppi aventi come obiettivo una cooperazione efficiente.
  • Ricordare che l’investimento sulla comunicazione, vero fulcro della vita moderna, presenta interessi verso nuovi mondi economici quali ad esempio i mondi asiatici. Una proiezione ci indica che nel 2050 la lingua parlata maggiormente nel mondo sarà sempre più il cinese (oggi prima lingua). L’inglese, oggi seconda lingua parlata nel mondo, potrebbe essere soppiantato dalle lingue arabe, mentre lo spagnolo dovrebbe conservare una sua stabilità dopo l’Inglese, e non è chiaro cosa succederà dei nascenti mercati esistenti già nei paesi dell’Est. Per tornare ai paesi asiatici, l’importanza della Cina è documentabile con l’osservazione che essa ha oggi ben un miliardo e 300 milioni di abitanti ancora in espansione demografica.

 

Una domanda più tecnica è il chiedersi verso quali limiti, ai fini di uno sviluppo ulteriore della potenza dei computer, ci si stia dirigendo.

 

In realtà la risposta, che può essere data in questo anno 2004 è duplice: ci si sta muovendo in due precise direzioni. La prima via di perfezionamento è legata al concetto di quantità di operazioni che, un microprocessore inserito nel nostro computer, il vero e proprio cervello della macchina, è in grado di compiere. Questa quantità viene misurata in hertz (cicli al secondo). Negli anni ’80 i nostri PC (gli oramai mitici 286 – sigla del microprocessore) operavano in un ordine di grandezza di 8 megahertz. Aumentando in modo artificioso la capacità di calcolo, i microprocessori si scaldavano troppo e la macchina tendeva a collassare in termini di prestazioni. Lo sviluppo tecnologico e la concezione di nuovi chip (microprocessori), capaci anche di dissipare il calore superfluo, ha portato, specie negli ultimi anni, ad ordini di grandezza di oltre 1000 megahertz (limite denominato gigahertz).

La seconda direzione nella quale ci si muove è quella del cosiddetto “calcolo parallelo” (grid computing), direzione che si riallaccia alla possibilità di collegare assieme, in rete, un enorme numero di computer, così da sommare la potenza di calcolo delle singole macchine. Ad esempio la NEC, società giapponese, ha costituito l’Earth Simulator, una gigantesca rete che assomma la potenza di oltre ottomila microprocessori in termini di computer condivisi. La difficoltà di detti sistemi è comunque quella della gestione in contemporanea e delle strategie condivise. Sono partiti in Internet programmi cooperativi di questo tipo molto interessanti. Ad esempio GIMPS, nome diventato familiare ai matematici, come quello di un collega di alto valore, è un programma (Great Integre Mersenne Prime Search) che si occupa della ricerca di grandi numeri primi (per ragioni di calcolo cerca quelli del tipo 2p-1, con p primo,necessariamente[9]) tra quelli della cosiddetta forma di Mersenne[10]. Da notare che GIMPS – ovvero il sistema cooperativo che opera dietro la sigla – dal 1997 ad oggi ha migliorato ben cinque volte il primato del mondo realativo al più grande primo conosciuto.

Altro esempio di grid computing è il progetto SETI (Search for Extra Terrestrial Intelligence) un progetto finalizzato alla ricerca dei segnali da parte di civiltà extraterrestri.

 

E’ vero che lo scoprire numeri primi sempre più grandi ci permette di capire l’evoluzione tecnologica dei computer ?

 

Per comprendere il SI, che attualmente fa della ricerca del primato del più grande primo conosciuto, uno strumento di comprensione dell’evoluzione tecnologica, occorre presentare una ministoria del problema. Come è noto ai più, fu Euclide (300 a.C.) a dimostrare che i numeri primi sono infiniti. A quel tempo non era molto chiaro il concetto d’infinito[11] ed Euclide asseriva: “datemi un qualunque numero primo ed io ne costruirò uno più grande” e lo faceva realmente con un semplice ragionamento[12].

Tuttavia dal tempo di Euclide ad oggi nessuno, nonostante i grandi sforzi operati in questa direzione, è riuscito a costruire la formula dei numeri primi e nemmeno una formula che ne permetta di costruire un numero infinito. Così noi abbiamo solo un elenco di numeri primi, lunghissimo, grandissimo, dell’ordine di circa un milione di numeri, ma rigorosamente finito.

Hanno tentato la ricerca di formule, specie polinomiali, anzi di secondo grado, che contengano per valori interi un grande numero finito[13] di primi consecutivi, ma tali numeri sono decisamente piccoli. Quindi i numeri primi formano un elenco finito, tra questi il più grande è il record, il primato mondiale, ogni tanto migliorato e regolarmente riportato nel Guinnes dei Primati.

 Agli inizi del secolo il più grande numero primo conosciuto era di 39 cifre decimali, record questo ottenuto, manualmente, da Faburque nel 1914, provando una congettura avanzata da Eduard Lucas nel 1876. Con l’avvento delle prime macchine da calcolo si passa da un record di 157 cifre decimali del 1946 alla scoperta del 26° numero di Mersenne, formato 6987 cifre, datato 1976! Il ventennio 1976-1996, è l’epoca dei super computer[14] CRAY: dal 27° primato con 13.395 cifre si passa, attraverso miglioramenti successivi, al 34° di 378.632 cifre, ultimo record del mitico matematico statunitense David Slowiski, che, con la sua equipe, ha migliorato il primato sette volte!

Dal 1996 ad oggi, in meno di otto anni si è affacciato sul mercato GIMPS. Non si tratta di persona ma di un programma, uno dei primi programmi cooperativi! GIMPS (ci viene quasi da parlare di lui come una persona), ha migliorato il primato quattro volte portandolo dalla scoperta del 35° numero di Mersenne di 420.921 cifre (siamo verso il mezzo milione di cifre) alla scoperta del 39° di 4.053.946 (verso i 5 milioni di cifre) con la congettura sconvolgente che, per la rarefazione dei numeri primi, il successivo primato possa essere di 10 milioni di cifre (il 38° Numero di Mersenne era di circa 2 milioni di cifre) !!!!

La corrente, di cui parleremo in un paragrafo successivo, che si oppone al potere della Microsoft ed alle sue rigide regole di mercato è la linea dell’open source, cioè della condivisione in rete dei programmi e dei risultati informatici in modo libero. In questa filosofia si spera che ciascuno metta a disposizione, per il tempo che non lo utilizza, il suo computer così da creare una rete globale di grande potenza. Il futuro ci dirà, se tale via della cooperazione è o meno percorribile!

 

 

1.1.1. Il Meccanicismo e il paradigma meccanicistico

Questa lettura sul paradigma meccanicistico si propone di chiarire quanto espresso in una nota precedente nella quale il concetto è appena adombrato. Entrando sia pure bruscamente in argomento facciamo pure un salto dietro nel tempo, siamo nel 1623 e Galileo nella sua opera, Il Saggiatore, introduceva per la prima volta la distinzione tra quelle che saranno poi chiamate qualità “primarie” e qualità “secondarie” dei corpi. Queste espressioni risalgono a Boyle; mentre la loro universalizzazione nell’età dell’illuminismo è opera del Saggio sulla intelligenza umana di Locke. La distinzione galileiana fu tuttavia immediatamente accolta, nell’ambito della ragione o “paradigma” meccanicistico. Con esse si intendeva distinguere tra ciò che rientra nell’ambito dei sensi (qualità “secondarie”) e la struttura geometrico matematica della natura (qualità “primarie”). Galileo giustifica in questo modo il suo assunto metodologico rivoluzionario, cioè l’integrale applicazione del linguaggio matematico alla natura: quest’ultima è scritta “in lingua matematica, e i caratteri son triangoli, cerchi ed altre figure geometriche, senza i quali mezzi è impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro labirinto” (Il Saggiatore).

Conseguenza della distinzione galileiana: il mondo dell’esperienza quotidiana viene scisso in due: da una parte gli aspetti quantitativi, ossia traducibili in linguaggio matematico, e perciò veramente “oggettivi” o razionali; dall’altra gli aspetti qualitativi i quali, nella misura in cui non fossero riducibili ad un rapporto anch’esso meccanico o fisiologico tra i nostri organi di senso e il mondo esterno, dovevano essere considerati puramente “soggettivi” e quindi in definitiva irrazionali.

La vera novità della concezione galileiana non sta tanto nell’universale matematizzazione della natura, giacché ci sono precedenti illustri nell’antichità e nel medioevo (vedi rispettivamente il Timeo platonico, in cui s’imposta una cosmologia sistematica con tentativi di matematizzare la natura, e gli scolastici parigini, la scuola baconiana di Oxford). Infatti, anche in tutta la ragione “prescientifica” è presente sia una scienza della natura che una tecnica per il dominio di essa.

I due elementi di profonda divergenza sono invece:

  1. nell’intera ragione o “paradigma” cosmologico esiste un ordine precostituito dell’universo (o “cosmo”), e perciò afferrabile a priori o con il puro uso della ragione con cui essenzialmente si identifica la “scienza”;
  2. il dominio della natura o tecnica, pur legato alla prima, deve inserirsi anch’esso in quest’ordine o armonia prestabilita, deve cioè “imitare” la natura.

Perciò la macchina non viene utilizzata innanzitutto per modificare la natura, cioè a fini produttivi per sostituire l’energia umana. Ciò è riconducibile alla fondamentale continuità tra il paradigma “cosmologico” greco e quello “teologico” medievale (= la ragione premeccanicistica), data dal permanere di un modo di produzione caratterizzato dalla presenza del lavoro non libero, cioè da energia umana a buon mercato.

Concezione galileiana della natura:

  • universale matematizzazione della natura;
  • “naturalizzazione” o “empirizzazione” della matematica.

(Questo è messo in rilievo da coloro che sottolineano l'”empirismo” del metodo galileiano. D’altra parte, quegli autori che sottolineano invece il “platonismo” della matematizzazione della natura di Galileo, non mancano però di osservare come la nuova scienza meccanicistica della natura sia da lui intesa quale “una prova sperimentale del platonismo”, il che significa che il “platonismo” galileiano è in realtà il platonismo rinascimentale).

La scienza per Galileo non ha uno statuto ontologico, cioè non rispecchia l’ordine o l’armonia prestabilita del “cosmo”. La matematica si riduce per Galileo a un “linguaggio”, cioè ad uno strumento. La ragione, lungi dall’essere una scintilla o “partecipazione” di una ragione cosmica o divina, è una facoltà intrinsecamente umana e perciò, per quanto onnipossente, empirica.

Galileo ha stabilito la struttura matematica dell’universo perché ha deciso in anticipo di considerare irrilevanti gli aspetti qualitativi dell’esperienza quotidiana. La ragione di questa scelta risiede nel fatto che solo così è possibile dominare la natura per fini o scopi umani. Isolando, in base ad una scelta o giudizio di valore, gli aspetti quantitativi da quelli qualitativi che l’esperienza ci presenta strettamente intrecciati, è possibile cioè costruire degli strumenti di precisione o macchine; i quali non rappresentano più quindi un mero “adeguamento” ad un ordine presupposto della natura, ma l’imposizione ad essa di un tale ordine a vantaggio degli uomini.

Con Galileo risulta evidente il carattere intrinsecamente tecnologico della scienza. Questo perché lo stesso procedimento che stabilisce la verità della scienza è in sè un processo operativo, creativo, tecnico: le cosiddette “applicazioni” della scienza ai bisogni della vita umana non sono esteriori al processo teoretico della scienza, non vengono inserite dal di fuori come esigenze estranee, ma fanno parte diretta ed essenziale della stessa teoresi scientifica. Questo deriva ovviamente dal fatto che lo stesso criterio e ideale della “verità” scientifica, come le stesse categorie fondamentali in cui si articola un tale ideale (spazio e moto), sono stati costruiti già in vista di tale operatività, di tale fecondità tecnica.

Carattere storicamente condizionato di quel giudizio di valore che è alla base del nuovo concetto di ragione o “paradigma” rappresentato dalla ragione meccanicistica moderna:

  • sviluppi della tecnica e sua introduzione su larga scala,
  • problema del moto dei proiettili,

all’origine del fatto che la fisica meccanicistica moderna darà luogo essenzialmente ad una dinamica razionale, laddove quella antica aveva prodotto invece solo una statica.

 

1.2. UN CENNO SULL’INFORMATICA UMANISTICA

E’ piuttosto facile intuire che dal punto di vista culturale stiamo vivendo un periodo che si può definire di transizione. Con l’avvento del nuovo secolo un vecchio mondo sta scomparendo mentre uno nuovo, che non sappiamo ancora del tutto riconoscere, e certamente che non siamo ancora in grado di definire completamente, si sta realizzando – su scala mondiale – attraverso la fusione delle tecnologie dei media con quelle dell’informatica, sviluppando quella che oggi si chiama una Società dell’Informazione.

Chiunque, oggi, possieda a casa un personal computer collegato alla rete telefonica, ha possibilità, impensabili fino a pochi anni fa, di accedere tramite la struttura di Internet, ad informazioni di ogni tipo, purchè acquisisca un minimo di esperienza per muoversi all’interno di questa enorme giungla di informazioni che ci sovrasta. Il mutamento cui assistiamo da una parte esalta, ma dall’altra preoccupa e fa riflettere. Infatti ogni innovazione tecnologica, nella comunicazione, comporta un mutamento culturale, che fa dimenticare la specifica cultura legata al precedente strumento di comunicazione.

Un paragone forse interessante è il seguente: la scrittura, ad un certo punto della storia del mondo, creò la cultura del libro. Il processo fu lento, ma circa 500 anni fa nacque e si perfezionò la tecnica della stampa e il veicolo culturale globale ebbe una notevole impennata. La scrittura prima d’allora era usata soltanto per la registrazione delle merci o delle offerte al tempio o per le trascrizioni delle leggi. Il sapere era orale, poi lentamente nacquero i primi libri, come raccolta dei saperi, pochi volumi scritti a mano e copiati a mano nei vari monasteri. Con la invenzione dei caratteri mobili e l’avvento delle tipografie nacque il libro a stampa; con esso la diffusione della cultura anche grazie alla successiva nascita delle biblioteche.

Nella storia vi sono momenti di continuità e momenti di rottura, qualcosa continua nel nuovo e qualcos’altro viene dimenticato, perché ritenuto irrilevante. Oggi assistiamo a nuovi fenomeni di trasmissione e gestione della cultura, fenomeni che fanno pensare ad una possibilità, forse non immediata, ma futuribile: la scomparsa della civiltà del libro, o almeno la scomparsa della centralità della cultura del libro. Quali fenomeni si connettono a questo diverso modo di gestire il sapere ci sarà detto dal futuro, dai nostri studi, dai vostri studi futuri.

L’interesse dei giovani per l’universo comunicativo nelle sue forme più varie è notevole. Questo universo di informazioni che genera una cultura in continua evoluzione, a volte caotica, sembra essere lo strumento adatto per orientarsi in un mondo multiculturale e globalizzato. Il sapere odierno sfugge alle rigide contrapposizioni del passato tra una cultura umanistica, orgogliosamente rinchiusa nelle sue tradizionali certezze, ed una cultura tecnico-scientifica.

Negli impieghi delle tecnologie della comunicazione sono insiti anche diversi pericoli e diverse situazioni che occorre saper riconoscere e gestire. Parlo ad esempio, dell’imparare a non confondere l’esperienza artificiale del mondo virtuale con quella del mondo reale. I nuovi modelli di sapere e della cultura sono estremamente accattivanti in quanto essi si presentano nelle varie integrazioni di testi, suoni, immagini, ma non bisogna dimenticare i concetti e il sapere che vi sono alle spalle e che hanno permesso i loro assemblaggi. L’animazione dell’astratto – e astratti sono i testi, i suoni, le immagini, ecc. – per quanto accattivante, non può sostituirsi al sapere. La scrittura riunisce il campo umanistico a quello tecnologico e scientifico dando origine alla nuova Informatica applicata al testo letterario (Computing in Humanities) che oggi si ha tendenza a chiamare Informatica Umanistica. Tale disciplina parte dalla fondamentale idea la tecnica è alla portata di tutti, mentre l’analisi raffinata dei testi non lo è affatto.

La cultura del libro ha portato su supporto cartaceo lo scibile umano nella sua totale interezza.

Per meglio conservare tale cultura , ma anche, e specialmente, per diffondere e gestire con più facilità il vastissimo patrimonio culturale umano si aprono gli orizzonti del testo digitalizzato. L’operazione di digitalizzazione dei testi, operazione che in futuro condurrà alla creazione delle nuove biblioteche digitalizzate, comporta però diverse difficoltà. Indichiamone alcune.

Partiamo da un esempio. L’intera collezione del Periodico di Matematiche, rivista che costituisce l’organo ufficiale della Mathesis, una delle grandi società matematiche Italiane, non è posseduto interamente da nessuna biblioteca scientifica italiana. In alcune Università si trovano annate che non sono possedute da altre e così via. La semplice operazione di scannerizzazione di pagine in formato – diciamo fotografia – consente di copiare l’intera opera su circa al più 5 CD, che in termini cartacei equivale a circa 36.000 pagine per un peso di fogli formato A4 di 72 risme. Poiché ogni risma ha 500 fogli e una risma pesa circa 3 kg, il peso complessivo dell’opera sarebbe di circa 140 kg, ed occuperebbe all’incirca un prisma avente per base un foglio formato A4 e altezza 3,60 metri. Per chiunque desideri la raccolta completa, l’operazione di masterizzare 5 CD è operazione semplice, breve ed economica. Costo dell’intera operazione circa 4 volte il costo della semplice fotocopia per la prima copia.

In formato testo il fattore principale di cui bisogna tener conto non è il numero delle pagine ma il numero di caratteri per pagina.

Nella formattazione standard DOC di Word, considerando pagine nel formato standard del Periodico (corpo 12, interlinea 1), ma senza formule o grafici, si ha una media di 80 KB per un articolo di 10 pagine. Una uscita di 80 pagine occupa, pertanto, circa 640 KB; poiché partiamo da una base di circa 36000 pagine, che danno luogo a 450 fascicoli di 80 pagine, ciò produce un’occupazione di memoria pari a circa 280 MB, ovvero meno della metà di un usuale Cd-Rom.

Se invece utilizzassimo una formattazione diversa, l’occupazione di memoria cambierebbe anche in modo considerevole. Alcuni esempi: utilizzando la formattazione RTF, l’occupazione di memoria si ridurrebbe di un terzo, utilizzando la più semplice formattazione TXT (con tutti gli inconvenienti che però ne conseguirebbero) il peso si ridurrebbe di circa la metà.

Se considerassimo inoltre pagine formattate in DOC aventi anche formule e grafici, anche solo vettoriali (e sappiamo quanto ciò, a volte, sia ineludibile), avremmo una media di 140 KB per un articolo di 10 pagine, dunque circa 1 MB per una uscita di 80 pagine, ovvero una media di 450 MB per le complessive 36000 pagine.

Ovviamente questo calcolo è solo approssimato in quanto la presenza di immagini lo rende difficilmente standardizzabile, soprattutto se queste sono di tipo bitmap con risoluzione elevata. In tal caso la memoria occupata dipende innanzitutto dal numero e dalla grandezza delle immagini.

Tutto ciò sarebbe poi applicabile avendo a disposizione l’intero archivio del Periodico in forma digitalizzata (con la quasi totalità delle uscite da riscrivere interamente).

Utilizzando un più semplice formato immagine (ottenibile attraverso la scansione delle riviste) e un formato di compressione, diciamo JPEG, potremmo richiedere una qualità non altissima, ad esempio una risoluzione di 80 dpi. Con queste caratteristiche, un file immagine avente le dimensioni di una pagina tipo del Periodico occuperebbe 63 KB, ovvero un totale di circa 2215 MB per le complessive 36000 pagine. In tal modo non basterebbero 3 Cd-Rom. Ovviamente, per una migliore fruibilità del prodotto, bisognerebbe considerare anche un’interfaccia di navigazione che, nel caso fosse complessa con possibilità di ricerca fra tutto il materiale a disposizione, potrebbe anche richiedere qualche MB.

Per una migliore “leggibilità” del prodotto potremmo inoltre pensare ad un “comodo” formato Pdf. Un file alla grandezza pagina A4 avente in ogni pagina una foto bitmap di una pagina del Periodico, occuperebbe per pagina, alla compressione e-book, circa 100 KB, per un totale complessivo di circa 3500 MB per tutto il materiale da scansionare: ovvero un po’ più di 5 Cd-Rom. Anche in questo caso, comunque, l’occupazione di memoria varierebbe in base alla compressione scelta (con conseguente variazione della qualità di visualizzazione e di stampa), ed inoltre bisognerebbe aggiungere una piccola spesa di memoria per l’interfaccia di navigazione tra i vari articoli. L’obiettivo di avere, quindi, in modo sequenziale l’intera opera è un’operazione semplice, che non comporta costi eccessivi, che si replica con estrema facilità, una volta ottenuto un primo supporto elettronico. Ma l’appetito viene mangiando….. e, ad esempio, nasce il desiderio, a partire da un indice generale – ne esiste già uno in supporto cartaceo, diffuso al Convegno del Centenario – di raggiungere rapidamente un dato lavoro, solo cliccando sul titolo: bene anche questo si può fare.

Anzi, inserendo opportuni motori di ricerca si può ottenere molto di più: possiamo, ad esempio, trovare tutti i lavori del collega Mario Rossi, oppure tutti i lavori sui frattali, oppure tutti i lavori nella cui bibliografia è citato Giuseppe Bianchi o anche il tale lavoro di Giuseppe Bianchi ed altro ancora. Tutto questo è possibile. Allora il testo elettronico, come gestione, diventa cosa di notevole interesse. Si annullano le distanze tra due punti di una lunghissima sequenza cartacea, i tempi di attesa nello scorrere la sequenza e il lungo andare avanti ed indietro nel cercare i lavori di Mario Bianchi. Ci troviamo davanti a quello che oggi si dice ipertesto.

Molto importante è il problema della portabilità dei documenti, che riguarda l’indipendenza dalle piattaforme hardware e software esistenti ad oggi. Non dobbiamo, infatti, rischiare che i nostri dati muoiano assieme a una determinata macchina o assieme a un certo programma, ma dovremo essere sempre in grado di conservare l’informazione, qualunque sia il supporto tecnico utilizzato.

Il problema si risolve per mezzo di un linguaggio di marcatura che dichiari esplicitamente e in maniera univoca quale informazione intendiamo conservare, unitamente a come la vogliamo conservare. Solo pochi anni addietro, ad esempio, le ricerche bibliografiche richiedevano spesso il trasferimento dello studioso presso le istituzioni ove risiedevano le risorse informative: vedi il caso che ho citato del Periodico di Matematiche: oggi è possibile recuperarle senza muoversi dalla propria sedia, con un considerevole risparmio energetico, materiale e, in definitiva, economico. In particolare quando il Periodico in forma elettronica sarà pronto, ad esso si potrà accedere da Internet!

Ancora una questione:

informatica o scienza dei calcolatori !

 

Scienza dei calcolatori è una traduzione letterale di Computer Science termine inglese usato per la disciplina. In Italia è stato coniato il termine Informatica, come già detto, deriva da una contrazione di Informazione automatica, utilizzato con lo stesso significato.

 

 “Questo nome – osserva Daniele Mundici[15]è forse inaudito per una disciplina scientifica, certamente un pò strano – e a più d’un matematico di formazione bourbakista[16] potrebbe giustamente apparire una contraddizione in termini – perchè mette insieme un manufatto con la parola “scienza”. In questa scienza c’è una parte teorica – che cosa possiamo calcolare e di che risorse abbiamo bisogno per farlo – e una parte ingegneristica : come rendere i calcoli concretamente possibili.”

 

Da questo punto di vista la Computer Science può essere considerata come la scienza con la quale facciamo interagire i paradigmi (cfr. nota 2) delle varie scienze, che necessitano dell’uso di un calcolatore, con una sorta di paradigma operante una traduzione, in hardware e software, delle problematiche emerse ed emergenti. Il progresso tecnico, prodotto negli ultimi 30 anni in tutti i campi dello scibile umano, nessuno escluso, rileva un fenomeno senza precedenti riguardante il tipo di velocità dell’evoluzione e della sua invasività. I rapporti con la comunicazione e i mass media, la perfezione delle riproduzione di immagini e testi, la digitalizzazione, i rapporti uomo-macchina e le nuove idee sull’intelligenza artificiale, studia tutto questo, ne fa una scienza, nuova, ma una scienza.

 

“Casomai – afferma ancora Mundici – il termine “scienza del calcolatore” è riduttivo, a meno che la parola “calcolatore” non si intenda, ed a nostro avviso è così, un artefatto che va ben al di là del calcolo, pur calcolando, e questo in ragione della filosofia delle nuove interfacce studiate con sistemi operativi sempre più efficienti e condivisi.”

 

Non possiamo non concordare con la visione di una realizzazione di quanto, circa dieci anni fa[17],

ebbe ad affermare Giancarlo Rota[18] sottolineando che

 

“… oggi cominciamo ad intravedere un nuovo scenario nella scienza, nel quale fisici collaboreranno con neurofisiologi, psicologi con informatici, matematici con biologi. Il personaggio dello scienziato eclettico che oggi viene visto o come un raro esempio di genialità o come una figura isolata ai confini dell’eccentricità, diventerà in futuro una necessità inderogabile.”

 

Ricordiamo che Giancarlo Rota è stato uno dei precursori della Matematica Discreta[19], quella matematica che poi ha trovato grande applicazione all’interno dell’Informatica stessa. Circa la matematica egli soleva ribadire che :

 

“… ora che i computer fanno i lavori più umili per i matematici, cioè i calcoli, vi sarà più tempo per pensare anche a combattere contro i seri pericoli che la matematica corre per la sua sopravvivenza, grazie alla cattiva diffusione dei suoi risultati oramai imperativo in questa epoca di informazione di massa e di pubbliche relazioni.”

 

Ed ancora, egli indica[20], in ordine alla capacità divulgativa della matematica, una filosofia facilmente applicabile ad altre discipline (si provi allo scopo a sostituire alla parola matematica la parola scienza ed al termine dimostrare teoremi il verificare enunciati) :

 

“Si sente spesso dire che il compito della matematica è dimostrare teoremi. Se ciò fosse vero dovremmo coerentemente affermare che il compito di uno scrittore è quello di scrivere frasi!” …. La capacità di divulgare la matematica è più rara della scoperta di un nuovo teorema. Sfortunatamente, nell’attuale cervellotica scala di valori, i divulgatori non vengono ricompensati come meriterebbero. Ho imparato una lezione importante: un buon matematico non è necessariamente un buon soggetto. Inoltre un professore di Liceo o d’Università dovrebbe appartenere alla categoria dei presentatori televisivi, dei pubblicitari, dei predicatori, dei prestigiatori, dei gurù. In una buona lezione di matematica prima o poi un docente deve raccontare una barzelletta. Un buon insegnante non trasmette nozioni, bensì entusiasmo, apertura mentale e valori. Insegnare un argomento senza dare un esempio è la cosa più stupida che si possa fare.”

 

Se D. Mundici e G.Rota ci parlano da intellettuali dobbiamo convenire che uno sguardo generale al mondo che ci circonda non ci tranquillizza affatto. Fenomeni come l’analfabetismo informatico, oppure la cattiva gestione del tempo libero appaiono come due grandi mali della società odierna.

Allo stato attuale sembra improbabile, almeno per le vecchie generazioni, che sono abbastanza occupate, “mettersi in linea con i tempiinformatizzandosi!

Probabilmente coloro che rifiuteranno l’utilizzo della videoscrittura, di Internet, della posta elettronica (e-mail), dell’e-commerce ed anche dell’e-governament, in termini di interazione elettronica con le istituzioni, sono destinati a divenire la “nuova generazione dei non alfabetizzati”, cioè gli analfabeti del nuovo millennio. Ci si chiede naturalmente se, le nuove generazioni, nate nell’era del computer, quando arriveranno alle leve del potere potranno evocare a loro alcuni nuovi privilegi quali i seguenti :

 

  1. L’aumento del tempo individuale per pensare, elaborare e inventare.
  2. La possibilità, nell’arco della loro vita, di una mole di attività di gran lunga più complesse e quantitativamente più rilevanti rispetto a quelle che i loro antenati hanno potuto svolgere nel passato, in funzione delle tecnologie possedute.
  3. Trovarsi ad operare in un mondo più ampio, un mondo nel quale le distanze sono annullate ed anche alcune tradizioni locali si sono perse a favore di visioni globali. In altre parole saranno, a parte i traumi, buoni cittadini del villaggio globalizzato?

 

Noi pensiamo a queste possibilità come un possibile patrimonio futuro. Dobbiamo solo chiederci se siamo preparati ad usufruirne e se siamo pronti a capire le implicazioni derivanti dal fare parte di una comunità allargata quale è quella offerta da Internet.

Se fino a qualche anno fa vivevamo in un relativo isolamento fisico e culturale – infatti le innovazioni, le mode, le filosofie ecc. ci giungevano come echi lontani che venivano assorbiti gradualmente, senza alcuna possibilità di replica da parte nostra – oggi è possibile interagire non solo a livello istituzionale, ma anche personale, diventando soggetti attivi, pensanti e non più semplice massa, del tipo pubblico televisivo.

Torneremo ampiamente su queste riflessioni nel paragrafo successivo. Ora ci piace richiamare un luogo comune oggi in uso: il mondo è diventato piccolo!

 

1.3. IPERTESTI E CULTURA MULTIMEDIALE

In primo luogo è bene distinguere il concetto di multimedialità da quello di ipertesto. I due concetti a volte vengono tra loro confusi, ma mentre il primo si riferisce agli strumenti della comunicazione, il secondo si riferisce alla sfera dell’organizzazione dell’informazione.

L’ipertesto più massiccio oggi noto è tutto il complesso costituito da Internet. Si tratta di un grande edificio, di un grande labirinto, se si vuole, di una grande opportunità offerta, sia all’utente occasionale che allo studioso, per approfondire le proprie conoscenze su un qualunque argomento.

Tutto si critica e qualcuno ha definito Internet come …

 

un grande immondezzaio nel quale scavando e scavando può a volte emergere qualche preziosa perla!

 

Ovviamente non è esattamente così, ma va riconosciuto che in un ipertesto gigante come Internet si può trovare di tutto: dalla notizia falsa, dalle nozioni distorte fino alla criminalità organizzata e casuale. Vi sono denuncie di vario tipo sulla pericolosità di mezzi come Internet e dei fenomeni di globalizzazione. Il lettore interessato può avvalersi di quanto scrive il matematico Sunn[21] riguardo ad un paragone tra www e il numero 666 pensato come mistico numero di quell’Anticristo citato nell’Apocalisse di Giovanni! Sunn parla delle moderne tecniche, capaci di consentire un grande aumento della produttività. Tali tecniche, però potrebbero essere al contempo, strumenti molto efficaci per controllare, ma anche manipolare, l’intero genere umano. Sunn accusa i potenti del mondo, perchè aspirerebbero a creare una società totalmente sorvegliata da nuove tecnologie, nella quale il contatto reale con il mondo sarebbe , di fatto, solo virtuale, cioè solo attraverso lo schermo. La visione di Sunn sarà da noi ripresa non appena parleremo, più avanti nel testo, dell’opera di George Orwell 1984 e la confronteremo con uno dei film di recente successo come Matrix discutendone il senso e le logiche.

 

1.3.1. Le origini degli ipertesti

Per tornare ad un discorso più incentrato sulla storia, ricordiamo che la prima formulazione moderna dell’idea di ipertesto si trova in un articolo dal titolo As we May Think del 1945 del tecnologo statunitense Vannevar Bush. Nell’articolo di V. Bush, viene descritta una complicata e immaginaria macchina detta il Memex (da Memory extension), una sorta di scrivania meccanizzata, dotata di schermi per vedere e gestire microfilm ed in grado di interagire e creare collegamenti tra unità di informazione di differente provenienza e genere. Bush aveva anche previsto l’aggiunta di interazione vocale attraverso l’utilizzo di un sintetizzatore vocale elettronico e di un sistema di riconoscimento vocale. Lo statunitense ipotizzava che, un tale meccanismo sarebbe stato in grado di aumentare la produttività intellettuale, poiché ne imitava il meccanismo basato sulle catene di associazioni mentali: in pratica Bush sottolineava che questo tipo di collegamenti di idee è il modo di funzionamento naturale della nostra mente.

Agli inizi degli anni sessanta Ted Nelson nel suo scritto, considerato oggi il manifesto dell’ipertestualità, dal titolo Literary Machines, introduce il termine ipertesto e descrive un enorme sistema ipertestuale che chiama Xanadu (nome probabilmente ispirato a Citizien Kane (1941)), il famoso film di O. Welles, uscito in Italia con il nome Quarto Potere). Xanadu era la gigantesca tenuta dove Charles Foster Kane, magnate dell’industria e della stampa, muore nella disperata solitudine del suo infinito potere, il nascente potere dell’editoria e dei media!.

Il progetto Xanadu, nella utopica rappresentazione di Ted Nelson, era la base di un universo informativo globale ed orizzontale, costituito da una sconfinata rete ipertestuale distribuita su una rete mondiale di computer. Il progetto di Ted Nelson non venne mai realizzato concretamente, a parte alcuni vani tentativi.

Le idee del progetto sono comunque confluite, anni dopo, nella concezione del Word Wide Web (da parte di Tim Berners-Lee[22] nel 1994) e quindi di Internet.

La definizione ufficiale del CERN, per quanto concerne il Word Wide Web è: “sistema ipermediale distribuito” (Boutell 1994). All’inizio era stato concepito solamente come un mezzo per la distribuzione di informazioni a carattere scientifico tra gruppi di lavoro dislocati in luoghi distanti.

Di seguito è riportata un’analisi che Lee fece al fine di mostrare gli svantaggi nell’utilizzo di sistemi incompatibili e non connessi per lo scambio di informazioni, dimostrando quindi la necessità di un sistema omogeneo per rappresentare e distribuire l’informazione stessa.

 

Nel Cern è già disponibile una certa quantità di dati: informazioni, dati sperimentali, liste di indirizzi di posta elettronica, documentazione informatica, documentazione sperimentale e molti altri insiemi di dati stanno girando continuamente nei dischi dei calcolatori. Tuttavia, è impossibile ‘saltare’ da una da un insieme all’altro in modo automatico: ad esempio, una volta trovato che il nome di Joe Blogges è elencato in una descrizione incompleta di qualche software in linea, probabilmente non è possibile ricercare direttamente il suo indirizzo attuale di posta elettronica …

 

La conclusione è che “vi è un enorme beneficio potenziale nell’integrazione di diversi sistemi capaci di permettere agli utenti la possibilità di seguire connessioni che si spostano da un elemento ad un altro.” Si pretende poi che le risorse disponibili, localizzate in formato elettronico nei diversi calcolatori collegati alla rete, fossero accessibili ad ogni ricercatore dal proprio terminale, in modo chiaro ed esente da difficoltà, senza bisogno di imparare ad utilizzare diversi programmi. Inoltre, la rete dovrebbe facilitare il salto tra elementi dell’informazione connessi: le risorse esistenti dovrebbero integrarsi in una rete “ipertestuale gestita e distribuita da computer. …

 

Un punto focale da mettere in rilievo, consiste nel fatto che l’organizzazione dell’informazione si è sempre pensata sequenziale, avendo come modello di trasmissione essenzialmente quello del libro diviso nei vari capitoli e relativi paragrafi. Molti autori, del passato più o meno recente, hanno usato quale strumento di rimando, all’interno di un testo scritto, la tecnica delle note a piè di pagina e dei riferimenti ad altre parti del testo, al fine di consentire al lettore di approfondire il significato di una parola e/o di un concetto ed, eventualmente, stimolarlo alla ricerca di nuovi elementi.

Queste operazioni, però, sono sempre avvenute nell’ambito della coppia libro-lettore, in un circuito quindi chiuso e spesso funzionante in modo unidirezionale, perciò del tipo libro verso il lettore. Quindi il testo tradizionale, pur conservando i fondamentali requisiti della comodità di trasporto e della facilità di impiego, presenta sempre di più il notevole limite di ostacolare il lettore nello scegliere il proprio percorso di lettura, nell’interagire con l’autore, nel dare il proprio contributo alla crescita del testo con apporti personali.

Un ipertesto invece si basa su una struttura reticolare dell’informazione ed è composto da un insieme di unità informative (i nodi) e di un insieme di collegamenti (i link) che da un nodo portano ad uno o più nodi. Se le informazioni collegate tra loro, sono veicolate da media differenti (testi, immagini, suoni, video) allora l’ipertesto è multimediale.

Si tratta di un gigantesco sistema di punti (i nodi) e di collegamenti (i link) che ne fanno una struttura nota con il termine di grafo[23].

I collegamenti, devono naturalmente essere collocati in punti nei quali il riferimento sia semanticamente (ovvero d’interesse) rilevante, ai fini di non far smarrire l’utente in percorsi totalmente casuali se non privi di senso. Se la semantica studia il significato delle parole, nella loro evoluzione storica, allora può anche dirsi che l’oggetto ipertesto non rappresenta una novità assoluta, in ordine al fatto di acquisire informazioni per riferimento. Va invece rilevato che la tecnologia informatica ne permette un uso del tutto nuovo e di grande potenzialità a causa della interattività, che è fatto puramente tecnico e dovuto alla tecnologia stessa.

Senza voler sminuire la validità del supporto cartaceo, si può ritenere che l’ipertesto multimediale gli si affiancherà, riuscendo a colmare alcune lacune: insieme potranno diventare strumento di crescita individuale e collettiva del pensiero, di stimolo all’approfondimento delle più svariate tematiche che possono derivarne, analogamente alle connessioni neuroniche proprie del cervello fin dalla sua origine, evolvendosi nello sviluppo, fino a giungere alle complesse interazioni fra una forma di IO/PC individuale ed un moderno IO/INTERNET collettivo.

Già oggi l’ipertesto:

  • permette a chiunque di raccogliere informazioni in un contesto molto ampio;
  • consente di coordinare, organizzare, elaborare ed offrire tali informazioni;
  • stimola chiunque sia fortemente motivato a produrre nuove proposte, idee e a presentare le stesse sulla rete attivando così nuove sinergie, grazie anche alla posta elettronica, ai gruppi di discussione, contribuendo così a migliorare, in definitiva, i rapporti umani e quindi la crescita culturale ed economica di una moderna società civile;
  • dà la possibilità di “cliccare” sul video una parolina colorata in blu per ricevere come ricompensa una pagina ricca di spiegazioni relative al termine cliccato;
  • fornisce le istruzioni sull’acquisto on line di qualunque oggetto reperibile sul mercato.
  • comporterà notevoli variazioni sulle metodologie di insegnamento e di apprendimento;
  • è legato, fuori della ricerca, nel mondo del lavoro, alle occupazioni tipiche dei giovani che si occupano di queste problematiche quali le collaborazioni con le case editrici, con la RAI, con le software house:
  • è incontestabile circa la sua utilità nelle biblioteche virtuali, che ormai sono molte in tutto il mondo: si frantumano i tradizionali rigidi spaccati tra campi di studio così diversi, con effetti sulla spazialità, su noi stessi, sulla ricerca.

 

 

1.3.2. Internet e l’open source

Stiamo assistendo ad un cambiamento lento, ma progressivo, di intendere i rapporti fra le persone, grazie alla possibilità offerta dai nuovi media di fondere le esperienze individuali in una magmatica esperienza collettiva, alla quale ognuno potrà apportare il proprio contributo.

I grandi cambiamenti non avvengono mai all’improvviso; essi richiedono anni perché si formi un substrato adatto e fertile, rappresentato dai movimenti culturali, espressione e sintesi dei molteplici interrogativi che la collettività si pone. Occorre un buon seme, indicabile nelle potenzialità delle risorse umane. Tutto ciò non può crescere adeguatamente, se mancano un buon concime e delle amorevoli cure e cioè la sensibilità politica e sociale che concorrono a dare alla cultura la giusta importanza, anche per mezzo della sua interazione con l’evoluzione tecnologica. L’ipertesto di Internet è frutto di un’articolata e complessa macchina organizzativa, che potrà arricchirsi di contenuti solo se si affermerà la volontà di ognuno di noi di farlo crescere in senso costruttivo, come un “sistema nervoso” che si evolve sotto l’azione degli stimoli dell’esperienza.

Nella terra natale di Internet, non è un caso che si stanno affermando, oramai da alcuni anni, le tecniche di costruzione ipertestuale aperta, la cosiddetta “open source” (letteralmente significa sorgente – intesa come codice di programmazione di un software – “aperta”). Esso identifica tutti quei programmi la cui caratteristica è di non essere legati al copyright di case produttrici, ma di essere virtualmente disponibili all’uso attraverso licenze libere (si vedano le licenze GNU – General Public License); è, dunque, un modello di sviluppo basato sulla “apertura” a cooperare e a riciclare esperienze nel mondo dell’Information Technology. L’open source appare un simbolo di autentica democrazia informatica, in quanto il singolo o il gruppo, che soprintende alla elaborazione degli ipertesti, li progetta come potenzialmente fruibili da altri, i quali possono, volendo, ulteriormente migliorarli, in una crescita teoricamente (e praticamente ) senza fine.

La nascita dell’open source risale al 1991 per merito di Linus Torvald, uno studente dell’Università di Helsinki. Torvald nel tentativo di progettare un sistema operativo alternativo a quelli delle multinazionali, trovandosi di fronte ad una mole di lavoro al di sopra delle possibilità di qualsiasi singolo individuo, ebbe l’idea di pubblicare il suo lavoro su Internet e di dichiararlo disponibile a qualsiasi modifica, integrazione o suggerimento volto a completarlo o migliorarlo. Nacque in questo modo un nuovo sistema operativo, il primo ad essere libero: fu chiamato Linux. In pochi anni Linux si è diffuso al punto da creare una vera e propria comunità di programmatori, che da ogni parte del mondo ne curano lo sviluppo e la continua innovazione.

Si noti che la definizione di “software libero” proposta dalla Free Software Foundation (FSF) si riferisce alla libertà dell’utente di eseguire, copiare, distribuire, studiare, cambiare e migliorare il software. Più precisamente, esso si riferisce a quattro tipi di libertà per gli utenti del software:

  • libertà di eseguire il programma, per qualsiasi scopo (libertà 0);
  • libertà di studiare come funziona il programma e adattarlo alle proprie necessità (libertà 1). L’accesso al codice sorgente ne è un prerequisito;
  • libertà di ridistribuire copie in modo da aiutare il prossimo (libertà 2);
  • libertà di migliorare il programma e distribuirne pubblicamente i miglioramenti, in modo tale che tutta la comunità ne tragga beneficio (libertà 3). L’accesso al codice sorgente ne è un prerequisito.

 

I termini “open source” e “free software” non sempre si ritengono sinonimi e, comunque, essi si riferiscono a filosofie ed approcci diversi:

 

  1. La comunità del software Open source condivide in larga misura le posizioni del mondo del software libero, ma più che indugiare sugli aspetti etici, fonda le proprie scelte e motivazioni su considerazioni di carattere tecnico-economico. Secondo i sostenitori del software Open source, tali motivazioni tecnico-economiche sono sufficienti a giustificare la necessità di disporre di un software aperto/libero. In particolare, è stato proposto il concetto di community sourcing per indicare una qualche forma di condivisione controllata di codice all’interno di una comunità.
  2. Secondo la FREE SOFTWARE FOUNDATION (FSF) di Richard Stallman il Free software deve essere libero non in quanto gratuito, ma per una questione etica e di principio. Dice Richard Stallman che “L’Open Source è qualcosa di più di un ambiente operativo a codice aperto, gratuito ed estremamente versatile. E’ una cultura e una filosofia di vita.” Rimarchiamo naturalmente che esistono una serie di diritti dell’utente che devono essere adeguatamente tutelati; il software deve essere “libero” per questi motivi, prima ancora che per motivi di carattere economico e di mercato.

 

Si noti che però “open source” e “free software”, non sono sinonimi di “gratuito”: un software Open source può essere gratuito oppure offerto a pagamento. Ovviamente, le licenze OS ??? prevedono vincoli che regolano tale processo. L’idea di fondo è che, comunque, quando un utente è entrato in possesso di una copia di un programma libero (che deve necessariamente includere il codice sorgente e non solo l’eseguibile) ha il diritto di utilizzarlo secondo quanto previsto dalla licenza (tipicamente può modificarlo, copiarlo, installarlo, ridistribuirlo ed eventualmente anche rivenderlo).

 

1.3.3. Ipertesti e libri: la teoria del villaggio globale

Una ultima questione: gli Ipertesti soppianteranno il libro?

Domanda che probabilmente avrà una risposta affermativa nel futuro. Il libro oggi è amato dagli studiosi, molti, troppi, oggi ci direbbero che non è possibile questa cancellazione, che il libro va toccato con le mani, va amato!

Proseguendo nei paralleli storici un simile atteggiamento era quello dell’amanuense che dedicava, di tanto in tanto, un mese e forse più ad illustrare la lettera A che componeva la prima parola del capoverso X del capitolo Y. Quale sarà stato il suo atteggiamento verso quei caratteri a stampa, che inizialmente perdevano quelle caratteristiche di unicità, quell’estetica così spinta, elementi che conducevano, a volte, una persona a fare di un solo libro lo scopo della sua vita.

I libri da tempo immemorabile, precisamente dai tempi di Platone[24] (428-348 a.C), il primo ad organizzare le sue idee in dialoghi e quindi in libri, rappresentano la cultura di un popolo e la sua immissione in quello che oggi chiamiamo il villaggio globalizzato[25].

L’idea di villaggio globale è una metafora, spesso banalizzata dai media, in genere usata come aggregato di posti geograficamente anche lontani, ma resi vicini dalle nuove tecnologie al punto da poterli assimilare ad un “luogo”, dove due punti qualsiasi sono collegabili in tempo reale, così da avere le “vicinanze”, se si vuole, la topologia di un villaggio! In realtà rileggendo l’opera dei primi anni sessanta, del canadese Marshall McLuhan[26], forse uno dei pionieri più originali tra i teorici dei mezzi di comunicazione di massa, ci accorgiamo che la metafora sottesa all’idea di villaggio globale, non evidenzia solo una crescita tecnologica operante su una pacifica comunità, ma esprime un momento di rivoluzione, un conseguente processo che ha portato dalla stampa al telegrafo, dal telefono alla televisione e all’automazione (termine probabilmente includente anche l’Informatica odierna), imponendo una sorta di dominio del mondo occidentale su aree nazionali molto ben distinte. A processo completato la rivoluzione comporta avvicinamenti di culture un tempo lontane, ritorni a procedure di oralità dimenticate e a schemi tribali, avvicinando le più antiche e differenziate culture della Terra. Non è facile sintetizzare le tesi di McLuhan . Nella sua teoria dei “massmedia” egli divide la storia del pensiero dell’uomo in tre grandi periodi:

 

  • un periodo pre-letterario o dell’oralità mimetico-poetica (cf.1.4.2), che parte da momenti primitivi e tribali per giungere ai poemi tipo Omero;
  • un secondo periodo in relazione con l’avvento della stampa e delle biblioteche, periodo nel quale l’uomo subisce un profondo mutamento e conquista una forte autonomia culturale;
  • l’era elettrica, infine, appare come un’era contraddittoria nella quale si alternano momenti di ritorno al tribale e momenti di grandi mutamenti.

 

In questo contesto, il medium è il messaggio che in ogni periodo ha fornito differenti caratterizzazioni dei mezzi di comunicazione, propri del tempo cui si riferiscono, proprio come gli arnesi per lavorare prima la pietra e poi la terra, le armi per la guerra e le mitizzazioni dei guerrieri, le crociate e l’inquisizione, la stampa e le scoperte geografiche, fino all’era industriale.

Tuttavia, il mezzo con il quale si effettua la comunicazione ha il suo peso, la comunicazione non ne risulta – secondo McLuhan[27] – indipendente. Non è quindi solo il contenuto di un messaggio a formare il medium, bensì la coppia costituita dal contenuto e dalla modalità di comunicazione. La medesima immagine commentata non rappresenta lo stesso medium, allorchè la si esprima con supporti cartacei, o cinematografici o televisivi.

Così la pretesa evoluzione della società, che andrebbe chiamata solo trasformazione, sembra essere effetto esclusivamente del mutamento tecnologico (effetto McLuhan) , che progressivamente ha spostato l’uomo dal legame diretto con la natura, con la quale egli si confrontava in modo individuale e direttamente senza l’ausilio di alcun oggetto. I numerosi mutamenti psico-sociali sono da considerarsi come effetti prodotti da medium differenziati, il cui effetto è stato quello di collettivizzare le attività, specie di tipo economico, anzi consumistico, ed estendere i suoi sensi oltre la natura . Così nelle diverse epoche si sono verificati effetti dovuti a particolari abbigliamenti sorti in un preciso tempo, ma sempre come protesi della pelle umana ovvero di leve o macchine come protesi delle braccia, del libro come protesi della vista, della ruota o dei mezzi di trasporto come protesi delle gambe o ancora – aggiungiamo noi – effetti prodotti dai computer come protesi del cervello umano. Tuttavia, è anche innegabile che gli effetti della trasformazione creano forme di schiavitù striscianti per combattere le quali necessita studiare e comprendere i mezzi di comunicazione di massa e – diciamo ancora noi – le strutture informatiche che le veicolano, per impossessarsi della loro filosofia, per controllarli in modo da non esserne dominati, estendendo parimenti la globalizzazione oltre il solo consumismo economico. Queste idee, nelle quali abbiamo di tanto in tanto inserito sia oggetti informatici, sia concetti di globalizzazione dell’uomo nella sua umanità, erano assenti nel mondo di Mcluhan, ma teoricamente possibili nell’effetto Mc Luhan. Queste idee sono riprese dall’americano[28] Joshua Meyrovitz, negli anni ottanta. Meyrovitz ha avuto il pregio, dovuto ai mutamenti avvenuti nei vent’anni successivi all’opera di McLuhan, di includere nella metafora (effetto Mc Luhan) anche gli effetti e le rivoluzioni prodotte dal computer e quindi di aprire la metafora anche verso le attuali operazioni di digitalizzazione, unificatrici dei vari tipi di media. Si è pertanto aperta una grande finestra su un intero mondo, non del tutto reale e sempre più tendente al virtuale, costituito dalle molteplici holding delle comunicazioni. La nostra partecipazione, sia pure in tempo reale, a condividere l’intero mondo comunicativo sarebbe del tutto illusoria. L’avvento di questa immersione nel mondo della comunicazione ha creato quella comunità allargata, sparsa sulla faccia della terra, alla quale abbiamo dato il nome di villaggio globale, sede permanente di differenti forme di interazioni e cooperazioni, ma anche di profondi conflitti, che sembrerebbe essere una novità radicale. Il dibattito se il villaggio globale sia stato o meno realizzato e in che senso, lo studio delle interazioni conseguenza dei conflitti prodotti è aperto. Ci si chiede naturalmente quali siano, per l’uomo occidentale, che ne è il fruitore, i reali o apparenti benefici, non disgiunti da profondi traumi psicologici e sociali e magari uniti ad una nostra perdita individuale della capacità comunicativa, fenomeni questi che appaiono complessi ed interessanti per lo studioso.

Ne deriva così anche un disturbo delle identità o, se non altro, della forma unitaria dell’identità: si abbattono le separazioni tra le vite di uomo e donna, di adulto e bambino, si mescolano le razze, i retaggi, le tradizioni, gli stili di vita, i livelli di reddito ma anche, a causa dei continui confronti, si mescolano le contraddizioni e i conflitti profondi. La parità dell’accesso all’informazione sembra però renderci simili, ma anche fortemente intolleranti alle differenze e perennemente alla ricerca di identità private forti e forse rassicuranti. Ancora, tanto più ci immergiamo nel mondo dell’informazione ampia e condivisa proveniente dal villaggio globale, tanto più si evidenzia la nostra militanza nella cosiddetta folla delle solitudini. Dallo stato apparente di cittadini del mondo acquistiamo lo stato di sudditi passivi, spettatori malati d’indifferenza, privi di solidarietà e confronti, al limite schiavi[29] del villaggio globale e militanti nella folla delle solitudini.

In effetti questa metafora, o effetto, che sembra essere frutto di un processo attuale del mondo di oggi, ha prodromi e radici molto antiche. Come spesso accade, conviene dare uno sguardo alla civiltà dei Greci ed allo sviluppo politico e sociale che si aveva al tempo di Socrate e Platone. Anche allora, in una zona del mondo meno vasta, con i mezzi di comunicazione di massa di allora, esisteva un limitato villaggio globale, precursore di quel villaggio globale molto più ampio rappresentato dall’Impero Romano. L’unione dei Greci non era politica e nemmeno religiosa, era invece basata sul linguaggio comune, sull’oralità e sul denaro, anch’esso comune, e quindi sull’economia: in altre parole la loro unione era dovuta alla comunicazione in un prototipo di mercato/villaggio globalizzato. I dialoghi di Platone diedero il via ad una cultura scritta che si distanziava dalla cultura dell’oralità dei tempi del mitico Omero. Duemila anni dopo Gutenberg inventa la stampa, con più fortuna dei suoi predecessori cinesi, il libro si diffonde e nascono le biblioteche, veri e propri mausolei della cultura. Sono trascorsi 500 anni da allora, dalla nascita del libro, del libro per tutti ed esso (libro) ha svolto e continua a svolgere un grande ruolo nella diffusione della cultura. Sono stati proprio i libri i primi oggetti della globalizzazione, ed è stato Amazon uno dei primi grandi poli dell’e-commerce, pensato come commercio/mercato globalizzato.

Nella storia dell’uomo, spesso, a seguito dell’avvento di regimi totalitari e dopo i momenti iniziali di persecuzione fisica, sono seguiti momenti di persecuzione ideologica. Nella logica del potere non era sufficiente aver disperso ed isolato i rappresentanti del vecchio ordine sociale, magari sradicandoli dai luoghi di nascita e allontanandoli dalle tombe degli antenati, dopo averli sottomessi ed umiliati; occorreva fare anche la guerra alle loro idee e ai sistemi con i quali le stesse erano veicolate. Il libro era uno di questi veicoli, anche, e specialmente, prima della stampa. Alla luce delle osservazioni attuali, si operava quindi, una vera e propria lotta contro un’eventuale globalizzazione tra vecchie e nuove idee: erano solo le idee dei vincitori ad avere il sopravvento in una società che si chiudeva in se.

Si ricorda, nel contesto, il famoso rogo dei libri del 213 a.C. in Cina. Siamo nel periodo che va dal 220 al 200 a.C. e la dinastia Quin soppianta il vecchio regime, prendendo il sopravvento sulla dinastia Zhou. L’imperatore Li Si, ordinò il rogo di tutti i libri, mise al bando tutte le scuole di pensiero, ivi comprese quelle di pensatori non confuciani. Si salvarono ben poche opere con l’esclusione di pochi selezionati volumi, da conservarsi nella biblioteca della capitale, la cui consultazione sarebbe stata assolutamente riservata. Si salvarono dal rogo i libri di medicina, agricoltura e divinazione, che servivano alle necessità pratiche. Il patrimonio letterario cinese riportò immensi danni da questo grave momento inquisitorio, danni resi ancora più pesanti dall’incendio che qualche anno dopo avrebbe distrutto Xianyang, e, con essa, la biblioteca che conteneva le poche copie superstiti di quella cultura. Quello che oggi è conosciuto dell’antica letteratura cinese proviene da copie coraggiosamente nascoste o ricostruite a memoria, da letterati del tempo, all’avvento della dinastia successiva, la dinastia Han.

Altri momenti interessanti sono anche quelli relativi ai roghi dei documenti delle Logge massoniche operati in varie epoche della Storia. In vari momenti questa società o gruppi di società, sparse sulla faccia della terra, hanno dato l’idea di un villaggio globale sotteso nelle società esterne di tutti i tempi. Tipica fu la distruzione, ad opera del regime fascista attorno al 1925, dei materiali esistenti nelle Logge o sedi massoniche italiane. Una delle cause di questi roghi di documenti fa sì che oggi vi sia una grande difficoltà ad effettuare ricerche storiche in questo settore, ancora inesplorato della filosofia e metodologia di queste aggregazioni che – deviazioni a parte – dall’Illuminismo ad oggi continuano a lavorare a favore di una promozione verso la centralità dell’uomo nel suo evolvere e sul rafforzamento dei valori individuali così necessari attualmente nella confusione della globalizzazione, che rende l’uomo profondamente solo[30] nella virtualità, che lo conduce verso il villaggio globale.

Il film[31]Farenheit 451”, diretto da Francois Truffat nel 1966 e tratto dall’omonimo bestseller di Ray Bradbury, prolifico autore di Science Fiction, è uno dei capolavori, nella sua versione anni sessanta, sul “rogo dei libri”.

In un – si spera improbabile futuro – la legge vieta la lettura dei libri ed attrezzate squadre sono adibite alla distruzione mediante fiamme alla temperatura di appunto 451 gradi Farenheit. Il protagonista Montag (Oskar Werner) è uno di questi rassegnati uomini agenti anti-libro, sposato con una donna tranquilla e conformista. Conoscendo un professoressa ribelle (Julie Christie, attrice che interpreta anche la rassegnata moglie) e collezionista di libri, l’uomo è costretto a compiere scelte e analisi di realtà. Le scelte sono tra l’amore per i libri e la legge che rappresentava, simbolicamente tra le due donne, stessa faccia di differenti medaglie. L’amaro finale lo conduce nelle foreste in gruppi patologicamente impegnati nella conservazione del libro.

 

Appendice 1.3.1. Filosofia della Scienza ed epistemologia del cyberspazio

Intervista al Prof. Silvano Tagliagambe

 

Professore Ordinario di Filosofia della Scienza presso l’Università La Sapienza di Roma. Vicepresidente del CRS4 (Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna).

 

  • Che cos’è per Lei la Filosofia della scienza ?

Intanto distinguiamo tra Epistemologia e Filosofia della Scienza, termini che spesso sono trattati come sinonimi ma non lo sono del tutto; per quanto riguarda l’epistemologia, se andiamo a vedere la derivazione etimologica – quella classica – è da episteme logos(επιστήµη λογός), ossia “discorso sulla conoscenza”, che tende quindi a distinguere la conoscenza, quella strutturata, quella in qualche modo verificabile, dall’opinione, la doxa. Però oggi si tende, sulla scorta di Von Foerster – un esperto di Intelligenza artificiale e di Cibernetica – a dare una derivazione etimologica diversa, meno plausibile sotto il profilo puramente linguistico però più significativa sotto il profilo concettuale, cioè epi-istenai (επι-ίστεναι), “stare sopra”, che rende bene l’idea di una articolazione in più livelli del discorso che riguarda la conoscenza, cosa che d’altronde troviamo anche nelle lingue moderne, come ad esempio nel termine inglese understand.

 Sotto questo profilo l’Epistemologia è un discorso che da un livello differente da quello in cui si svolge la pratica della conoscenza e della ricerca, la pratica operativa, quella della scienza, indaga i linguaggi, le strutture, le forme: si chiede ad esempio che cos’è una legge scientifica, qual è il rapporto tra teoria ed esperimento all’interno del discorso scientifico, si pone domande che riguardano le specificità dell’impianto logico-concettuale della scienza.

 Ecco, la filosofia della scienza é un discorso che, sia pure rispettando quest’articolazione, é più strettamente connesso alla pratica scientifica vera e propria: così abbiamo la Filosofia della matematica, la Filosofia della fisica, la Filosofia della biologia, cioè un discorso che si salda in modo più diretto con quello delle discipline scientifiche vere e proprie, cerca di indagarne la forme,

 le modalità di estrinsecazione.

 

  • Quali sono secondo Lei le linee di sviluppo presenti e future più importanti nel panorama italiano?
  • Il panorama italiano generalmente è nato sulla scorta della lezione, dell’impianto concettuale del Neoempirismo, del Circolo di Vienna. In Italia, come e’ noto, la Filosofia della Scienza è stata introdotta da Ludovico Geymonat che era allievo di Moritz Schlick, e che chiaramente aveva questa particolare sensibilità nei confronti del Circolo di Vienna. Schlick era un fisico di formazione, allievo di Max Planck, quindi privilegiava la Filosofia della matematica, la Filosofia della fisica, e per molto tempo in Italia, anche in Italia, questa è stata la tendenza privilegiata della Filosofia della scienza. Più recentemente hanno acquisito un’importanza particolare campi quali la Teoria dell’evoluzione, la Filosofia della biologia, le tematiche dell’evoluzione che vengono anche da altre discipline come l’Antropologia molecolare, l’Antropologia fisica: penso, ad esempio, al lavoro di Stephen Jay Gould, di Niles Eldredge sulla teoria degli equilibri punteggiati, tutte le scoperte che sono state fatte sulle tappe dell’evoluzione, la comparsa dell’uomo e via dicendo.

Oggi lo spettro d’interessi della Filosofia della Scienza si va allargando e all’interno di questa estensione un’importanza particolare hanno da diverso tempo i problemi legati alle teorie della mente; esse hanno avuto una derivazione dal filone classico della logica, con l’ipotesi di Church e Turing l’equiparazione dell’uomo che pensa alla macchina che calcola, e quindi, in sostanza, l’equiparazione della nozione di calcolo alla nozione di Turing-computabilità e di quest’ultima all’attività di pensiero, che significava sostanzialmente ritenere che pensare equivalesse a calcolare, cioè ad operare con simboli. Suddetti simboli hanno una struttura particolare, sono, cioè, in generale passibili di una interpretazione intersoggettiva che non dà fraintendimenti, come quelli che sono, ad esempio, presenti nel calcolo matematico.

Oggi, anche in seguito al contributo delle neuroscienze, non solo viene discussa l’equiparazione del pensare al calcolare, ma anche la possibilità di individuare un qualcosa che corrisponda alla nozione di pensare isolando la mente dal corpo. Emerge una linea di pensiero che tende a ricostruire le connessioni tra mente e corpo, a dare sotto questo profilo una funzione determinante al cervello, e quindi a ripensare o riformulare il problema di cosa significhi pensare. Questi temi, la teoria della mente, il problema degli stati mentali, il problema di che cosa significhi pensare, in generale stanno acquisendo un’importanza determinante all’interno della Filosofia della Scienza.

 

  • Mi sembra che anche la riflessione sulla Rete, sulla realtà virtuale, sulle nuove tecnologie informatiche, sia oggetto di molti studi da parte degli specialisti di Epistemologia e Filosofia della scienza. A proposito del suo libro[32] “Epistemologia del cyberspazio”, dedicato a queste tematiche, due spunti di riflessione appaiono particolarmente interessanti e attuali: la mutata concezione spazio/tempo e il rapporto tra ali e radici, in altre parole tra[33] “nomadismo spirituale” ed “etnicità esasperata”.

Epistemologia del cyberspazio: a mio giudizio, parlando di estensioni e di diramazioni della Filosofia della scienza, è un aspetto particolarmente importante, non soltanto dal punto di vista filosofico ma dal punto di vista culturale sociale e formativo. Noi ad esempio vediamo che oggi c’è una crescente interazione tra spazio fisico e spazio virtuale; questo è testimoniato dai fatti. Quando parliamo ad esempio di globalizzazione, parliamo di fenomeni indotti dalla presenza di reti, le cosiddette autostrade informatiche, come Internet, che indeboliscono la nozione di prossimità fisica, quello che alcuni sociologi chiamano il principio di adiacenza o contiguità spaziale, e, invece, esaltano l’importanza dei collegamenti per funzione.

 Oggi, New York per certi aspetti è più vicina a Londra, nel senso che la City collabora molto più con Wall Street di quanto questa parte di Londra non sia collegata funzionalmente ad alcune periferie di Londra, o di quanto Wall Street non sia collegata funzionalmente ad alcune periferie di NewYork. Lo spazio virtuale determina uno scollamento tra la città compatta, muraria, e le funzioni urbane che sono qualcosa almeno parzialmente indipendente dalla localizzazione, dal territorio, quando si tratta funzioni astratte: la ricerca, il terziario avanzato, la formazione, i servizi finanziari e via dicendo, sono tutte funzioni in qualche modo astratte, nel senso che non sono legate in senso stretto al territorio di pertinenza e si collegano tra di loro attraverso le reti in uno spazio, che non è quello fisico tradizionale ma è quello appunto che chiamiamo cyberspazio. Da questo punto di vista sono emerse, secondo me, alcune forme di interpretazione distorta che vanno corrette, cioè l’idea che questo determini sostanzialmente una contrapposizione netta tra spazio fisico e spazio immateriale, tra lo spazio fisico e lo spazio virtuale. In realtà, noi vediamo che c’è non una contrapposizione, ma una crescente interazione e cooperazione tra spazio fisico e spazio virtuale, che si estrinseca nella nozione che viene usualmente definita realtà aumentata o potenziata. In realtà lo spazio virtuale interviene per potenziare, aumentare le prerogative, le possibilità dello spazio fisico e interagisce fortemente con lo spazio fisico. Ad esempio sono oggi possibili una serie di operazioni che prima determinavano uno spostamento nello spazio, come andare materialmente in banca o a prenotare certi servizi sanitari: oggi é possibile farlo dal proprio computer, muovendosi soltanto nello spazio virtuale. Questo significa potenziare lo spazio fisico, nutrirlo di nuove opportunità, in quel senso si parla di realtà aumentata.

Del resto le scrivanie virtuali che abbiamo nel nostro computer potenziano la nostra scrivania reale, nel senso che la estendono e la dotano di nuove funzioni e anche di nuove opportunità: quindi non c’è contrapposizione ma c’è un’integrazione. Questo significa che, ad esempio, oggi non ha senso progettare lo spazio urbano pensando soltanto allo spazio fisico, senza tener conto dello spazio immateriale. Una serie di servizi che riguardano il comune cittadino – rapporti con le Asl, con gli enti locali, con le banche – oggi si possono benissimo realizzare e perfezionare interamente in uno spazio virtuale: è evidente che nel progettare un quartiere di una città, uno spazio urbano, in generale, si deve tener conto di questa interazione tra spazio fisico e spazio virtuale. Il cyberspazio ha quindi un’importanza determinante dal punto di vista, ad esempio, della rete urbanistica e dell’organizzazione dello spazio.

Lo stesso discorso possiamo farlo in ambito economico; oggi le imprese si collegano sempre di più tra di loro in reti, tendono a diventare “macro imprese”, nozione che subentra a quella classica di “distretto industriale”: questo è reso possibile dalla disponibilità delle reti e dalla disponibilità degli scambi di materiale nello spazio virtuale. Pensiamo anche a come è mutato il concetto di fabbrica: prima la fabbrica era un grosso conglomerato cinto da mura, in cui la gente lavorava, che tendeva ad essere, se si trattava di grande fabbrica, il più possibile autosufficiente; oggi questi insediamenti produttivi non hanno più senso, tanto è vero che vengono smantellati, come a Torino, dove il Lingotto è diventato uno spazio espositivo. La telematica e le reti rendono possibile ridurre considerevolmente lo spazio delle fabbriche, non c’è più bisogno di magazzini, di grandi scorte; attraverso la telematica si possono seguire gli ordini, in modo da essere assolutamente sicuri della disponibilità di una data materia prima nel momento della necessità. La comunicazione in tempo reale, rende superfluo fare tutto all’interno di un medesimo spazio fisico, si può fare all’interno di uno spazio fisico molto più dilatato. La grande fabbrica tende sempre più a cedere il posto a conglomerati dispersi in uno spazio vasto; non c’è più il concetto di fabbrica concentrata.

 

Tutti questi fenomeni sono determinati dall’interazione tra spazio fisico e spazio virtuale; è evidente che, una riflessione filosofico-scientifica non può ignorare quest’aspetto, che incide in maniera così forte sulla nostra organizzazione sociale, ma anche su quella culturale.

Parlare di computer nelle scuole, parlare di reti, parlare di reti scolastiche significa che la formazione deve entrare sempre di più nel cyberspazio, al di là di tutte le banalizzazioni. In Sardegna c’è un progetto[34] che si chiama MARTE, che collegherà in rete tra di loro tutti i 700 plessi medi e medi-superiori della Sardegna, per dare loro la possibilità di collaborare in rete, scambiarsi esperienze, dialogare. E’ chiaro che stiamo parlando di un sistema scolastico, l’organizzazione in rete significa proprio questo, che si sta dislocando nel cyberspazio. Stiamo parlando della possibilità di accedere a Internet, di trarre da Internet materiali didattici che possono essere integrati e calati nell’attività didattica tradizionale. Questo avviene nel campo della formazione, non parliamo della ricerca… Non dimentichiamo che il World Wide Web che noi utilizziamo è nato al CERN, proprio quando Carlo Rubbia era direttore del CERN, per soddisfare l’esigenza di collaborazione, di cooperazione, di scambio di informazioni in tempi sempre più ridotti, sino a coincidere col tempo reale, da parte di unità di ricerca che stavano lavorando in unità di ricerca, spazi, paesi differenti. Questa presenza dello spazio virtuale si fa sempre più concreta, e sempre più concreta: è l’interazione tra lo spazio fisico e lo spazio virtuale. E’ evidente che la moderna riflessione filosofica non può prescindere da questi aspetti che incidono tanto fortemente sulla nostra vita.

 

L’altro spunto interessante riguarda il rapporto, descritto ad esempio nella sua Epistemologia del cyberspazio, tra radici e ali…

Certo: la lingua nasce per delimitare concettualmente: termine terminus – significa dal punto di vista etimologico “confine“. Quando noi diamo un’etichetta, battezziamo con un nome, una parola, tendiamo a circoscriverne l’ambito di pertinenza e il significato: è come se stabilissimo tante linee di demarcazione che mi dicono qual è l’uso legittimo e qual è l’uso illegittimo della parola. Chiaramente il rapporto dialettico tra il linguaggio e la realtà fa sì che, via via che la nostra conoscenza della realtà evolve e il concetto di realtà si sviluppa, gli antichi steccati posti dal linguaggio tendano a non avere più un grande significato. Noi siamo abituati nel linguaggio a coppie opposizionali, che ci disegnano delle antitesi più o meno radicali; locale-globale è sempre stata un’antitesi piuttosto radicale dal nostro punto di vista, nel senso che corrisponde a due significati/ambiti di pertinenza nettamente delimitati. Oggi si tende sempre più a utilizzare un ostico neologismo, glo-calizzazione, perchè ci sono tutta una serie di processi e fenomeni che sono al contempo locali e globali, per i quali questa linea di demarcazione non sussiste più. Pensiamo, ad esempio, al fatto che un territorio, un’impresa tende a dislocarsi sullo spazio cibernetico e quindi sullo spazio globale. Un’impresa oggi deve avere come spazio di mercato e ambiente di riferimento il mondo intero: questo sta di fatto avvenendo – basta verificare la provenienza dei prodotti venduti nel supermercato sotto casa .Con la globalizzazione abbiamo a che fare tutti giorni; d’altra parte un territorio per competere nello spazio globale deve avere delle capacità, prerogative, specificità: la competitività é data dalla capacità di offrire prodotti in qualche modo connotati dalle caratteristiche specifiche del luogo di provenienza.

Esempio: qual é il successo della moda italiana? Il fatto che su di essa si riversa una tradizione culturale porta alla confezione di prodotti che sanno accoppiare diverse componenti: l’eleganza, il gusto, un certo tipo di stile che proviene da lontano… Qual é il fascino della Ferrari ? Il fatto che all’efficienza sul piano tecnologico viene unito un gusto estetico che é una delle caratteristiche del made in Italy. E’ evidente, che la globalizzazione non può significare estinzione di queste caratteristiche, ma anzi ciascun territorio dovrà riuscire ad esaltare le proprie caratteristiche locali per poter riuscire meglio a competere sul mercato globale.

Questo sul piano economico. Sul piano sociale l’uomo – ed é questo un aspetto che veniva sottolineato nella Epistemologia del cyberspazio – al di là della validità dello spazio globale e dello spazio virtuale, ha bisogno di un suo ambiente naturale nel quale potersi orientare e muovere. Un apparente paradosso é che quanto più vasto diventa lo scenario in cui uno si può muovere fisicamente, ormai ci spostiamo da una parte all’altra del mondo con estrema facilità, quanto più, ad esempio, come impresa dobbiamo assumere come riferimento lo spazio globale, tanto più tendiamo a circoscriverci uno spazio di riferimento naturale nostro proprio, specifico, più familiare (il discorso e’, ovviamente, valido solo per i paesi industrializzati). Questa tendenza é rafforzata dal fatto che la nostra casa, il nostro ambiente più intimo, tende a diventare il terminale di una serie di attività che prima si svolgevano fuori: a casa si parla di teleformazione, di telelavoro, e, anche se questi fenomeni non si sono ancora realizzati compiutamente, designano una tendenza per cui gli spazi piccoli (la nostra casa) diventano sempre più i luoghi dove si svolgono funzioni “vaste”. Non e’ strano, quindi, che questa tendenza alla globalizzazione esalti in ciascuno di noi il bisogno di riconoscimento, di identità, di radici: ecco la compresenza di ali e radici.

 Certamente bisogna avere la capacità di spaziare nell’ ambiente vasto della globalizzazione. Questo e’ il nostro punto di riferimento, sia per la produzione che per la formazione: i nostri ragazzi devono competere con i ragazzi di tutto il mondo, devono avere le loro stesse capacità e possibilmente di più, altrimenti un domani – lo vediamo già da oggi – sarà sempre più difficile trovare un lavoro.

 Noi possiamo, tramite il computer, collegarci in rete e formare fori di discussione con ragazzi, docenti, colleghi che operano in aree diverse del mondo; questo avviene potenzialmente anche per i paesi che non hanno lo stesso grado di sviluppo degli Stati Uniti e dell’Europa occidentale. La mediazione e l’incontro-scontro tra società e culture diverse oggi avviene in pratica a tempo zero, in tempo reale, non ci sono più ammortizzatori; il tempo fisico, che era necessario per spostarsi dall’Europa all’Africa e per entrare nella mentalità di paesi diversi, costituiva in qualche modo una barriera da superare che faceva da freno rispetto ad un processo di accostamento istantaneo di culture diverse; oggi queste barriere tendono a cadere. L’incontro, la mediazione, lo scontro tra culture avviene in tempi molto rapidi; questo spaventa, determina delle reazioni, ciascuno cerca di difendere le proprie caratteristiche. Il problema è non rifiutare il fenomeno della globalizzazione, anche se lo rifiutassimo procederebbe lo stesso, nè ovviamente rinchiudersi nelle proprie radici come la linea di difesa, una linea Maginot da non oltrepassare: abbiamo visto i risultati di questo tipo di interpretazione delle radici.

 

Vorrei che commentasse questa frase[35] di Walter RUNCIMAN: “E’ fatale che nel ‘700 si pensasse la società come una macchina, e nell’800 come un organismo, come è fatale che nel ‘900 si sia tentati di pensarla come una rete di comunicazione”…

Ogni società ha un proprio ambito, un modello di riferimento che tende a sovrapporsi alla realtà e a dettare i modi con cui questa realtà viene vista e letta. Certamente dall’idea dell’universo come ambiente di riferimento “macchina“, tipica della civiltà industriale, si é passati a quello di “organismo“, e oggi il concetto di organismo non ci sembra più appropriato, perché l’organismo sembra essere comunque guidato, ha una cabina di regia (non dimentichiamo il famoso apologo di Menenio Agrippa, che faceva riferimento alla società appunto come organismo), mentre invece oggi si scopre, o si tende a sottolineare, che il cervello opera senza avere una “cabina di regia“. [36] La “cabina di regia” del cervello come luogo di deposito dell’intelligenza, sta perdendo di efficacia come concetto per rendere l’effettiva realtà del cervello. Il cervello si sta effettivamente configurando come una serie di nodi, di neuroni, collegati tra di loro da sinapsi, e si pensa che l’efficacia e la capacità del cervello sono legate al numero delle sinapsi attive: é la presenza di una rete capillare e fitta di scambi di informazione che dà al cervello la sua efficacia. Quindi il fenomeno della rete, oggi, tende a costituire la rappresentazione del modo di funzionare del nostro cervello. Non a caso il modello di intelligenza e di funzionamento della mente che oggi tende ad affermarsi é il connessionismo; l’idea di rete non e’ oggi una metafora, nel senso che le città sono organizzate a rete e il nostro cervello sembra essere organizzato a rete. Naturalmente e’ un paradigma che risente dei nostri attuali stati di conoscenza.

 

Quale sarà il prossimo paradigma secondo Lei ? E’ possibile azzardare un’ipotesi ?

Che cosa ci riserverà il futuro? Credo che la tendenza che va verso il passaggio dal concentrato al distribuito, dal localizzato all’esteso, sia irreversibile. Qualunque siano i modelli di riferimento che il futuro ci proporrà saranno sempre piu modelli non arroccati intorno a funzioni e spazi concentrati, ma saranno modelli che, in qualche modo, proporranno una distribuzione delle funzioni, di qualunque tipo di funzione si parli, e l’esigenza della loro connessione. Perché dico questo? Perché riflettere intorno al problema dei mutamenti degli stili di pensiero nella filosofia della scienza? Ho citato all’inizio il Neoempirismo; per il Neoempirismo, il problema della comunicazione della conoscenza era tutto sommato secondario, perché si partiva dal presupposto che esistessero linguaggi tali da essere sostanzialmente passibili di una lettura intersoggettiva senza fraintendimenti. I linguaggi del calcolo e il linguaggio dell’esperimento, che erano la base dei linguaggi scientifici di quel periodo, avevano questa caratteristica: i loro segni vengono letti da tutti allo stesso modo. Questo avviene senza che ci sia bisogno di comunicarsi reciprocamente le interpretazioni. Da questo punto di vista la comunicazione, lo scambio di informazione, non aveva un significato così determinante. Ora invece stiamo comprendendo che l’intelligenza é soprattutto scambio di informazioni, comunicazione. Una comunicazione che abbia la capacità di lasciare delle tracce, però – in Italia questa idea non ha ancora preso campo. In effetti la comunicazione che non lascia tracce in forma di informazione archiviabile, come quella telefonica, varrà sempre di meno, mentre tenderà a valere sempre di più l’informazione che lascia tracce, archiviabile, riutilizzabile. Io credo che l’importanza crescente della comunicazione, dello scambio dialogico, dell’intelligenza distribuita, delle modalità di organizzazione distribuite, sia comunque una tendenza irreversibile.

 


1.4. LA PRIMA RIVOLUZIONE: IL PENSIERO E L’OPERA DI PLATONE

Platone[37] nacque ad Atene nel 428 a.C, durante l’80.ma Olimpiade, il giorno 7 di Targelione (tra maggio e Giugno), quasi alla morte di Pericle (429 a.C) e all’inizio della guerra del Peloponneso.

Portava il nome di Aristole (nonno paterno) mentre Platone non era che un soprannome.

Suo padre si chiamava Aristone e sua madre Peritone era sorella di Carmide, elemento di spicco nel governo oligarchico dei “trenta Tiranni” di Atene. Platone era essenzialmente un aristocratico, imparentato con eminenti persone del governo oligarchico e la sua posizione sia sociale che familiare non fece si che amasse la democrazia. Diviene a vent’anni allievo di Socrate, che amava e rispettava profondamente e che fu condannato da una rinata democrazia. Si può comprendere come Sparta fu per Platone un riferimento maggiore che non la stessa Atene. Importanti sono i suoi viaggi . Visita l’Egitto, Cirene e la Magna Grecia. A Taranto diviene amico del pitagorico Archita, a Siracusa ebbe non lievi contrasti con Dionigi il vecchio, allora tiranno di Siracusa, mentre ebbe ottimi rapporti con Dione, il cognato del dittatore, il quale condivideva il pensiero di Platone.

Nel 387 rientra ad Atene e fonda una scuola che viene chiamata Accademia, in onore dell’eroe Accademo, al quale era dedicato il parco ove sorgeva la scuola. Alla morte di Platone, nel 348 a.C., il nipote Spisippo, figlio della sorella Potone, gli succede nella direzione della scuola.

 

1.4.1. L’universo greco : un affresco dell’epoca.

I Greci non hanno mai chiamato se stessi “greci”. Essi usavano il termine “Hellenes” attribuito loro da Esiodo dopo il 700 a.C. Nei poemi omerici : l’Iliade e l’Odissea (i libri che di fatto ne fondano la comunità) vengono usati più nomi, legati alle loro regioni, come quelli di Achei, Argivi, Danai, Micenei, Panelliani. La storicità di Omero e della guerra di Troia, collocata da Eratostene nel 1182 a.C., non furono mai messe in discussione, anche prima che Heinrich Schlieman trovasse le rovine di Micene (1870) e di Troia (1876).

I primi ritrovamenti riguardano la civiltà delle comunità di Mallia, Festo, Cnosso dove, attorno al 1200 a.C., si era sviluppata un’importante cultura dei palazzi. Il palazzo di Cnosso fu ritrovato da Arthur Evans nel 1900. Oltre che a Creta, altri reperti sono stati trovati a Cipro, in Asia minore, a Mileto, in Sicilia e Sardegna e nell’Italia meridionale. Nel 1952 Michael Ventris, riuscì a decifrare le tavolette della cosiddetta “lineare-B”, un’iniziale forma di greco, che ci ha fornito informazioni su luoghi, nomi di divinità, funzioni sociali, inventari, registri giuridici e quant’altro a testimonianza di tale fiorente società. Tra il 1100 e l’800 a.C. vi fu un periodo oscuro, nel quale vennero distrutti palazzi e città, si perde l’uso della scrittura, scompare la cultura. Attorno al 750 a.C. inizia la prima colonizzazione greca a partire da Mileto in Asia minore e dall’Egeo. Si crearono un centinaio di colonie, tanto che Platone asseriva che, a quel tempo, “ … i greci circondarono il mediterraneo come le rane fanno con uno stagno … “. Rimanevano fuori solo i Fenici e i Cartaginesi.

La tipica forma d’insediamento fu la polis, una sorta di città-stato fortificata. Nella polis vi era una agorà (mercato), un tempio, un ginnasio (gymnos “nudo”) per la pratica dello sport, che era una attività praticata senza vestiti. Erano preferiti i luoghi vicini al mare, e le città erano governate dai membri delle famiglie più influenti, esistevano delle assemblee popolari. Non vi fu una ricerca di unità politica nemmeno con Platone ed Aristotile, che avevano idee panelleniche. La loro unità era maggiormente dovuta alla lingua ed alla religione e perfino ad uno sviluppo di un sistema monetario che si fa risalire al 600 a.C.

Le prime monete furono coniate da Creso, re dei Lidi, e presto si diffusero nell’intero universo greco di allora, favorendo il fiorente commercio dietro al quale vi era pure il lavoro degli schiavi. Vivevano nel V secolo a.C. ad Atene uomini di grande genio.

Ricordiamo coloro ai quali si deve la nascita[38] del Teatro e della tragedia, con le opere di Eschilo[39] (525-456 a.C.) di Eleusi, Sofocle[40] (497-406 a.C) e Euripide[41] (480-406) di Salamina, Aristofane[42] (445-388? a.C) , divenute dei classici fuori dei tempi. Le avventure degli Argonauti, di Dedalo ed Icaro, i destini di Edipo e Antigone, continuano ad essere ancor oggi al centro dell’attenzione letteraria. A partire dal 776 a.C. si registrano le Olimpiadi, antenate di quelle odierne manifestazione mondiali dell’esaltazione del corpo umano.

I presocratici iniziarono a osservare la natura in modo filosofico, ricercando un elemento primordiale: l’archè. I filosofi del tempo diedero le loro interpretazioni: Talete (624-548 a.C.) di Mileto, lo individuò nell’acqua; Anassimandro (Mileto 610-546 a.C), fu sostenitore dell’esistenza di un elemento primordiale indefinito : l’apeiron e fu precursore dell’evoluzionismo di Darwin; Anassimene (Mileto sec. VI) lo individuò nell’aria intesa, come soffio vitale; Eraclito (576-480 a.C.) di Efeso lo individuò nel fuoco e con la sua “panta rhei” concepì il mondo come un sistema di opposti; Empedocle (490-432) di Agrigento, aggiunse la terra originando la teoria dei quattro elementi (acqua, aria, terra, fuoco) uniti o disgregati da Amore ed Odio. Il presocratico Anassagora (499-427 a.C.) di Clazomene sostenne che la natura è formata da particelle simili, le omeomerie, tratte dal caos da una mente ordinatrice. Ancora Leucippo (V sec) e Democrito(460-370 a.C.) di Abdera, fondatori della Scuola atomistica, iniziarono – all’inizio del V sec. – a concepire una spiegazione meccanicistica del mondo.

Tali spiegazioni a volte ingenue, culminarono pure con Pitagora (VI sec. A.C.) di Samo, e la sua scuola, che giunse alla scoperta dei numeri irrazionali e alla concezione della sfericità della terra.

Il più famoso maestro di Platone fu l’ateniese Socrate (469 – 399 a.C.). Socrate non scrisse libri, ciò che noi sappiamo di lui ci è stato tramandato da altri, specie da Platone. Gli insegnamenti ed i pensieri attribuiti a Socrate, noi li apprendiamo dai “Dialoghi” e dalle conversazioni riportate da Platone. Ancor oggi si discute se quanto Platone attribuisce a Socrate, sia il pensiero reale di Socrate o il pensiero che Platone interpretava nel maestro, forse taluno pensa che Platone ci ha tramandato il pensiero che lui desiderava il maestro avesse!

Con Socrate si può dire nasca la Filosofia. Egli si interroga sul come vivere una vita felice, nel senso moderno di vita realizzata, cui deve aspirare l’uomo. Per questo si interroga su quei concetti che ritiene valori basilari della vita umana quali i concetti di bellezza, bontà, giustizia, verità mettendo in discussione quasi tutti quei fatti usualmente dati per scontati, mettendo in dubbio ogni aspetto della vita, delle credenze e della società. Fu processato nel 399 a.C. con l’accusa di rinnegare le divinità riconosciute dallo Stato, di contestare le Istituzioni, di corrompere i giovani minando le figure genitoriali, ignorando in sostanza che rimuovere errori e preconcetti significa operare per tendere ad una verità!

 

1.4.2. Dall’oralità mimetico-poetica ai dialoghi di Platone

La Filosofia nasce in Grecia prodotta dalla “rivoluzione culturale” dei presocratici, per essere poi estesa dai sofisti a cerchie più ampie. La diffusione capillare è dovuta a Socrate ed alla sua ricerca della definizione, al suo “che cos’è?” Il culmine è toccato dall’opera di Platone che, dalla cultura dell’oralità e dell’immagine, ci conduce alla fondazione del pensiero razionale, preludendo alla nascita della Logica che, sarà opera del suo allievo Aristotile.

La ricerca filosofica d’ogni epoca e d’ogni tempo si è confrontata con il pensiero di Platone e con il contenuto delle sue opere, in una crescente e continua osmosi di saperi. Tra Socrate e Platone si realizza comunque un cambio di rotta e di atteggiamento nei confronti della conoscenza e tale cambio ha tutte le caratteristiche di quello che oggi noi chiamiamo un salto epistemologico, tra una vecchia via del ragionare ed una nuova via del ragionare, non escludente la vecchia. Simbolicamente sintetizziamo questo taglio epistemologico, sostituendo l’atteggiamento “io mi identifico con Achille” dell’antica cultura dell’oralità mimetico-poetica con “io penso attorno ad Achille”, simbolo questo del nuovo atteggiamento, della nascita di un modo di pensare filosofico e di una cultura filosofica, cultura che non esclude anche una identificazione del soggetto con l’oggetto, ma che non si riduce solo ad una passiva identificazione. Scrive Giovanni Reale[43].

 

“ … La cultura greca arcaica era fondata sull’oralità mimetico-poetica e aveva come punti di riferimento i poemi di Omero ed Esiodo, … espressioni di tutta la gamma del sapere possibile della comunità … una vera e propria enciclopedia tribale. La tecnica della conoscenza si basava sulla memorizzazione dei versi poetici e sulla continua ripetizione di essi a differenti livelli.

La nascita della Filosofia tende a modificare radicalmente la terminologia e la sintassi della cultura dell’oralità mimetico-poetica. La ricerca filosofica si è formata prima come oralità dialettica che implicava domanda e risposta, capovolgendo la struttura precedente. In parallelo si è rafforzata la diffusione della scrittura, senza la quale la nuova cultura non si sarebbe potuta imporre, conservare e sviluppare … ”.

 

La metodologia dialettica parte così da Socrate e si esplicita nei Dialoghi di Platone. L’espediente originario era forse quello di chiedere di ripetere quel che si intendeva dire, costringendo l’interlocutore a riformulare sempre meglio una enunciazione ritenuta non soddisfacente. L’utilizzo dell’ironia appare estremamente interessante. L’atteggiamento ironico è quello di un interlocutore che si mostra incapace a trattare l’argomento in questione e fingendosi ignorante conduce l’avversario a cadere in una contraddizione che ne riveli solo il presunto sapere. In Platone, nei suoi Dialoghi, si raggiunge quella forma evoluta di ragionamento logico e concatenato,che fanno si, che l’opera di un si insigne maestro, come Platone, sia passata indenne, attraverso i secoli, attraverso tutti i grandi mutamenti che la cultura essenzialmente occidentale ha subito. Gli interessi dei filosofi vecchi e nuovi sembrano essere perennemente attratti, nel bene e nel male, da un’opera, quella platonica, che non possiamo che collocare fuori dal tempo.

L’opera del Maestro ci è giunta per intero, così anche il grande vigore che emana e che a quel tempo acquistò anche per merito dell’avvento della scrittura che operò la trasmissione scritta del sapere, attraverso i Dialoghi. La forma del dialogo cela in se anche la scoperta della Maieutica, (dal greco maieutikè o arte della levatrice, che Socrate eredita dalla madre levatrice). Nel Teeteto, Platone presenta un dialogo nel quale Socrate dice al giovane Teeteto:

 

“ … la mia arte di ostetrico in tutto il resto rassomiglia a quella delle levatrici, ne differisce in questo: che si esercita sugli uomini e non sulle donne. Provvede alle anime partorienti e non ai corpi. Ciò che costituisce il maggior vanto della mia arte è il poter mettere alla prova in ogni modo se la mente del giovane partorisce fantasma o menzogna, o qualcosa di vitale e vero. Il dio mi costringe a fare da ostetrico, mi vieta di generare. Io sono in me tutt’altro che sapiente… coloro che sono con me ne traggono un profitto straordinario. E’ chiaro che da me non hanno imparato nulla, bensì proprio e solo da se stessi molte cose e belle hanno trovato e generato …”.

 

La maieutica appare così intesa come arte per stimolare gli allievi a cercare quella verità che, secondo Platone, ciascuno possiede nel fondo dell’animo e che ciascuno presenta agli altri e anche a se, coperta, se si vuole criptata, da opinioni false, pregiudizi e sovrastrutture di varia natura. La dialettica che si instaura con il Maestro aiuta l’allievo a far emergere il suo vero pensiero. Questa idea è importante anche se oggi si ritiene maggiormente che la Maieutica sia più applicabile a far emergere le risposte interne al nostro agire ed abbia più un’azione di tipo psicoanalitico che non di ricerca della verità. Personalmente due riflessioni mi sembrano importanti:

 

  1. L’idea di verità in Platone e nel suo maestro Socrate non ci appare di tipo assoluto e nemmeno di tipo rivelato. La verità umana è qualcosa di soggettivo che ciascuno deve trovare in se, o come dicono, nelle pieghe della propria anima, anche se Platone ritiene che ne esiste un corrispettivo unico nel mondo delle idee. La verità ci appare oggi anche variabile o almeno aggiornabile, in funzione della dialettica che dall’esterno si esercita su di essa. Una verità attuale può essere demolita e ricostruita in modo differente, con l’acquisizione di ulteriori informazioni. E’ parere, di chi scrive, che non esistano delle verità ma solo eventi osservabili. Quando noi osserviamo un evento, traiamo varie osservazioni e conclusioni, le concateniamo e le interpretiamo. Tali interpretazioni sono naturalmente funzioni della nostra storia individuale, delle informazioni che possediamo e di quanto i nostri sensi ci consentano di vedere e capire. Se ogni coppia osservazione/conclusione osservata la chiamiamo sfaccettatura dell’evento, noi ci troviamo davanti ad un evento costellato da una miriade di sfaccettature. Raggiungiamo in tal modo una verità soggettiva come una coppia evento-sfaccettatura osservata[44]. Questa visione dinamica della verità, da me spesso presentata ai miei allievi, ben si adatta alla vita odierna ed anche al mondo della scienza. Chi scrive ritiene pure che questa concezione, magari in modo meno formalizzato di quanto abbiamo scritto ora, appaia (cfr. fine di 1.4.3) in quello che chiaramente è il taglio epistemologico, creato da Socrate ed evidenziato da Platone (“mondo delle idee” a parte).
  2. Un secondo aspetto che mi interessa rimarcare è l’atteggiamento che Platone fa assumere a Socrate quando ricorre al dialogo e all’ironia. L’atteggiamento è quello di un moderno comunicatore, che oggi nella sua ricerca dei pareri, opera nel dibattito su ciascuno dei presenti per far ricercare i pareri ed opinioni entro il proprio io. Ancora, nel caso di gruppi di persone interagenti si tende a ricercare i pareri facendoli emergere dall’immaginario collettivo, così da ottenere sinergie non solo dalle singole personalità ma dagli interi gruppi, conducendoli a volte in contrasto, altre in alleanza tra loro. Tutto questo davanti ad un pubblico che, grazie agli attuali mass media, riesce ad essere sempre più ampio. Gli strumenti del tempo invece permisero solo a pochi privilegiati di servirsi degli scritti di Platone e dei contenuti dichiarati, sottintesi e forse nemmeno sospettati dallo stesso Platone.

 

1.4.3. La definizione, il mondo sensibile e il mondo delle idee

Ci occuperemo ora di alcuni aspetti che, assieme al cambiamento di rotta globale riteniamo i prodromi di una Filosofia della Scienza, in realtà già esistente nel grande pensatore. Platone tende a superare il contrasto tra la concezione dell’essere di Parmenide con quella del divenire presente in Eraclito. In realtà egli sembra applicare la logica eraclitea del divenire al mondo sensibile, riservando la logica dell’essere immutabile parmenidea al mondo delle idee. Egli quindi in un medesimo sistema filosofico fa coesistere due differenti logiche una riguardante il concreto (mondo sensibile) l’altra indirizzata verso l’astratto (mondo delle idee). In un bel passo di Aristotile, tradotto nell’introduzione dell’opera di Valgimigli riguardante Il Fedone, in una edizione pubblicata a Palermo nel 1921, ci viene brillantemente sintetizzato il pensiero platonico, da parole di Aristotile stesso :

 

 “…dopo le dette filosofie ci fu la dottrina di Platone, la quale seguì in parte i Pitagorei, ma ebbe anche teorie sue proprie indipendenti dalle filosofie di costoro. Da giovane egli ebbe anzitutto consuetudine con Cratilo e partecipò alle dottrine degli eraclitei, ritenendo che tutte le cose sensibili fluiscono perennemente e perciò di codeste non si può avere scienza; e si tenne anche in seguito di questa opinione. Come poi Socrate tratto di cose morali, e della natura in genere non si occupò affatto; e in queste cose morali ricercò l’universale e per primo fermò il pensiero sulle definizioni; Platone accolse il pensiero di Socrate, e capì, conseguentemente alla dottrina degli Eraclitei, che codesto definire dovea riguardare altre cose e non già le sensibili, non essendo possibile ci sia definizione universale di alcuna delle cose sensibili che mutano continuamente. E così queste tali altre cose chiamò idee, e le sensibili fuori di esse.”

 

Secondo Platone è Socrate che, per primo, ricercava la verità nei concetti per dare solide basi alla morale. Dice a riguardo Aristotile[45]

 

“Essendosi Socrate occupato delle virtù morali, per primo cercò di definirle universalmente. Democrito aveva soltanto toccato delle cose naturali e così occasionalmente definì il caldo e il freddo; i Pitagorici anche avevano dato la definizione di alcune cose, le cui ragioni si riducevano a numeri: che cosa sia il tempo, il giusto, le nozze; egli sanamente e razionalmente si chiedeva: ”che cos’è?” Infatti due cose possono attribuirsi di pieno diritto a Socrate, cioè i discorsi induttivi e la definizione universale: ambedue pertinenti ai principi della Scienza”.

 

In questo passo si rinviene quindi una traccia per una breve storia della definizione, primo elemento base, per una nascente Filosofia della Scienza. Ci sembra che un momento focale tra Socrate e Platone per una idea di corretta definizione si possa individuare l’intento della comprensione di un concetto di cui sia nota l’estensione. A riguardo del concetto di verità, per la quale ho indicato il mio modo di vedere in forma eventi e sfaccettature (cfr. 1.4.2. a) ), voglio riportare ora un passo del dialogo di Platone intitolato “Il Menone”, dialogo tra il vecchio Socrate e il giovane Menone, nel quale appare chiara l’affermazione da me fatta che forse in Socrate e Platone il concetto di verità era fortemente soggettivo, proprio nel senso da me definito. Il primo Socrate dice, “in modo chiaramente ironico” al secondo Menone:

“ … gran ventura, o Menone, mi è toccata, che andando alla ricerca di una virtù, ne ho trovato uno sciame presso di te … ”.

 

1.4.4. La Teoria della Conoscenza, la seconda navigazione e il mito della Caverna

Alla fine del VI libro del dialogo “Repubblica” si parla della conoscenza. Una delle idee fondamentali in Platone (428-348 a.C.), a mio avviso, risiede nel ritenere che la ragione ci possa dare certezze per concetti come bellezza, bontà, giustizia, verità esistenti realmente nel suo mondo delle idee: un mondo di realtà immutabile ed immutata[46] esistente al di la del mondo materiale. Anche se oggi, il mondo delle idee di Platone, è visto con grande scetticismo, non vi alcun dubbio che al suo tempo il mondo delle idee e servito ad indicare la via delle definizioni e della comprensione dei concetti astratti. Inoltre è proprio cercando di comprendere il mondo delle idee che è stata stimolata una corretta riflessione in tutti i settori della vita umana. E’ nata di conseguenza quella corrente che prende il nome di Idealismo, corrente non sempre comprensibile con la ragione.

 

Con Platone nasce la prima razionale osservazione di una realtà soprasensibile e trascendente : “vi sono molte più cose di quante la vostra filosofia limitata alla dimensione del fisico conosca” ed è appunto nel Fedone che Platone indica il passaggio dal mondo fisico e dall’esperienza empirica del concreto a quel mondo che chiama il mondo delle idee e che conduce invece all’esperienza universale. Illustriamo il suo pensiero, dal Fedone, mediante la metafora della seconda navigazione. In un dialogo che si svolge nel carcere dove è stato portato Socrate e poco prima che egli beva la fatale cicuta, si legge:

 

“ … Come al calar dei venti, la cui forza rende possibile fino a quel momento la navigazione, gli antichi marinai per far procedere la nave ammainano le vele e pongono mano ai remi, così di fronte all’inadeguatezza del conoscere sensibile occorre abbandonare la realtà empirica e assumere nuovi strumenti: l’intelletto, il pensiero, il discorso, i soli in grado di mettere l’uomo a contatto con le idee.”

 

Partendo da tali propositi Platone si interessa alle dottrine dei naturalisti e alle “…cause di ciascuna cosa, sapere perché ciascuna cosa si genera, perché si corrompe e perché esiste ” e della necessità di cambiamenti di rotta e del tentare altre vie di ricerca. Così la navigazione è allegoria per l’intero scibile, e divengono esempi tutte le varie teorie costruite per spiegare perché la terra e le cose del cielo sono lì. Occorre attenzione nel navigare e occorre attenzione a non confondere il mezzo con la causa, occorre essere sempre pronti ad una seconda navigazione per spiegare e capire!

Platone distingue tra opinione (doxa) o conoscenza imperfetta della realtà o se si vuole conoscenza sensibile, imperfetta perché collocata a metà strada tra l’essere e il non essere e tra scienza (epistème) costituita da un sistema di proposizioni universalmente valide in ogni tempo e per ogni individuo, sistema che non può trovare fondamento nella sensazione empirica ma solo in oggetti stabili, con un’assoluta costanza nelle proprietà e nella struttura e corredate da uno strumento conoscitivo e/o logico-deduttivo adeguato. Una tale struttura può esistere solo nel mondo delle idee, per averla dobbiamo rivolgerci all’anima (psiche), anzi è utile per comprendere sempre nuovi oggetti di quel mondo e per capire la vera natura e la vera essenza di cose sensibili.

In questa visione Platone appare erede di Euclide e della sua costruzione razionale della geometria e anticipa il concetto di Scienza Dimostrativa del suo grande allievo Aristotile, con i suoi postulati di base immutabili ed esistenti per divina opera, corredati da quella che divenne per tutti, la Logica Aristotelica. Ci sembra banale ricordare che in questa logica e nel Principio del terzo escluso[47],che ne fornisce un’idea essenzialmente binaria, vi era un ulteriore pensiero di verità rivelata, alla quale tuttavia sembra credettero più gli aristotelici che non lo stesso Aristotile[48]. L’idea ci guiderà per secoli fino all’Ottocento, periodo nel quale grazie ai ragionamenti sulle geometrie non euclidee e sulle logiche non aristoteliche, l’idea di insiemi di postulati arbitrari e di logiche polivalenti va a sostituirsi all’idea originale, dando il via a quelle meravigliose teorie che hanno, nella prova di Gödel , il giusto ridimensionamento della visione assiomatica della matematica, della logica e dei sistemi razionali in genere.

 

Nel valutare il legame tra mondo sensibile e mondo delle idee, Platone sembra preludere Hempel. “Deve esserci – dice Hempel – un punto di falsificazione, che spiega il rapporto tra il teorico/mondo delle idee e l’empirico del mondo sensibile”. L’allegoria di Hempel è interessante nel paragone con la conoscenza sensibile e con il mondo delle idee di Platone. L’allegoria si può sintetizzare come segue.

Una grande rete galleggia sull’empirico, costituita da nodi e legami fra di essi. I nodi rappresentano i termini tecnici della scienza ( massa, tempo, velocità, …), i legami rappresentano le definizioni e le relazioni costanti. Da qualche parte della rete pende un filo che si collega all’empirico. Questo filo ci raffigura il principio di connessione indiretta. La riduzione dei neopositivisti che doveva essere diretta, in questo modello, avviene invece in modo indiretto. Questo filo non è attaccato né ai nodi né ai legami, ma è attaccato a caso! Ora quando un singolo nodo, cioè un termine, viene legato con una relazione ad un altro nodo, cioè si ha una regolarità, in effetti si sta mettendo alla prova la coerenza dell’intera rete, analizzandone solo una posizione limitata. Questa tipo di approccio, detto di sperimentazione Olistica, è atto a mettere alla prova non solo la propria teoria ma l’intero paradigma, in esame, con tutte le teorie in esso inglobate.

Capito questo meccanismo in cui c’è ambiguità ed ambivalenza, nel quale uno stesso oggetto empirico può fungere, mediante la sua classe di equivalenza, come una molteplicità di oggetti scientifici distinguendo “cosa”(concreta) da “oggetto” (astratto) . Il termine objectum è usato nel senso di un termine che risponde ad una legge, se si vuole che soggiace ad una definizione . Il termine cosa è invece un termine indeterminato nella definizione ma individuato percettivamente come termine accettato da tutti . E’ come se avessimo una matrice dalla quale si ricavi tutto ed ancora permetta di vedere/intuire una varietà di cose ulteriori. Da ciò traspare la complessità e la polivalenza, appare inoltre la circostanza del come la scienza, mediante le sue operazioni di selezione, ha la viva capacità di destrutturare e poi di ricostruire il reale.

Vogliamo qui ricordare un importante mito, quello della caverna, dovuto a Platone ed atto a spiegare la difficoltà e la radicalità del cambiamento richiesto all’uomo per intraprendere il cammino verso la conoscenza ed accedere al mondo delle idee.

Nella Repubblica l’attore è sempre Socrate che si rivolge a Glaucone, uno dei due fratelli di Platone e gli dice:

 

“… paragona la nostra natura , per ciò che riguarda educazione e mancanza di educazione, ad una immagine come questa. Dentro una dimora sotterranea a forma di caverna, con l’entrata aperta alla luce e ampia quanto tutta la larghezza della caverna, pensa di vedere degli uomini che vi stanno dentro fin da fanciulli,incatenati gambe e collo, si da dover restare fermi e da poter vedere soltanto in avanti, incapaci, a causa della catena, di volgere attorno il capo. Alta e lontana brilli, alle loro spalle, la luce d’un fuoco e tra il fuoco e i prigionieri corra rialzata una strada. Lungo questa pensa di veder costruito un muricciolo, come quegli schermi che i burattinai pongono davanti alle persone per mostrare al disopra di essi i burattini … ”

 

È questo l’inizio del dialogo tra Socrate e Glaucone relativo all’allegoria della caverna. Questa allegoria vuole spiegare la conoscenza; nella caverna vediamo l’uomo chiuso ed incatenato, con le spalle rivolte alla luce, la testa bloccata in modo che egli sia impossibilitato a vedere le cose reali, condannato a vedere le ombre del reale che si proiettano sulla parete dell’antro. L’uomo una volta liberato e portato alla luce, viene nell’immediato abbagliato, poi l’occhio si abitua.

 

“… giunto alla luce, essendo i suoi occhi abbagliati, non potrebbe vedere nemmeno una delle cose che ora son dette vere … dovrebbe, credo, abituarsi se vuole vedere il mondo superiore … alla fine, potrà osservare e contemplare qual è veramente il sole, non le sue immagini nelle acque o su altra superficie … Potrà concludere che è esso a produrre le stagioni e a governare le cose del mondo visibile essendo la causa di ciò che egli e i suoi compagni vedevano”.

 

Così Platone, facendo parlare Socrate, indica che in una prima fase l’uomo ha una conoscenza solo sensibile, quella delle ombre, quando poi quando s’inoltra nella speculazione filosofica è disorientato, ha facilità d’errore; infine nella successiva fase è un cosciente contemplatore delle idee e del reale e tende a vedere le realtà più belle e sublimi, a vedere il sole e capire che è il bene!

Ancora ci si pone il problema della contemplazione del proprio passato, la vista dei propri compagni chiusi ancora nella vecchia prigione e agli onori e ai premi di quel mondo limitato[49], alla lotta sorda per stabilire chi tra loro potesse avere una visione superiore a quella degli altri, ma pur sempre inutile se guardata dall’esterno, come ora farebbe l’uomo libero dai vincoli iniziali. Ancora insiste Socrate, pensando ad un eventuale ritorno in catene dell’uomo libero reso nuovamente prigioniero, ma pronto a dire quello che ha visto:

 

“… se dovesse discendere nuovamente quelle ombre e contendere con coloro che son rimasti sempre prigionieri …. Non sarebbe egli oggetto di riso? Non si direbbe di lui che torna dall’ascesa con gli occhi rovinati e che non vale la pena di andar su? Chi prendesse a sciogliere e a portar su quei prigionieri, forse che non l’ucciderebbero, se potessero averlo tra le mani e ammazzarlo”.

 

L’allegoria della caverna, a mio avviso, descrive la metodologia di un processo di conoscenza, tipico di un epistemologo e se si vuole di un filosofo della scienza quando si esamini una disciplina particolare, ma dall’esterno. Il primo atteggiamento è di ombre del sapere. Di tracce non del tutto consapevoli, di opinioni ceche, come il prigioniero della doxa, schiavo dell’opinione. Quando poi ci si libera dalle catene e si conquista una visione di luce e di bene si è di fatto osservato un evento e di questo evento si sono colte sfaccettature che prima non erano nel bagaglio informativo del prigioniero. L’Idea del bene produce l’intelligibilità delle idee che pone l’essere al di la del suo ceco passato, ma che ricomprende il passato in una idea più generale. E’ una previsione di metodo quella di Platone, del tutto in sintonia con quella che sarà la scoperta delle geometrie non euclidee e con la conquista della teoria della relatività!

E’ interessante, nel concludere, gettare un ponte ideale tra Platone (428-348 a.C.) e Popper (1902-1994) un ponte lungo 2300 anni! Popper affronta la visione delle crisi e rivoluzioni scientifiche come distruttive, ma apre uno spiraglio verso il trinomio critica-correzione-abbandono di una teoria, ribadendo che il punto di vista corretto è quello di rendere feconda la discussione critica!

In Popper è chiara l’idea che non esistono metodologie “per trovare teorie vere”, aspetto che Popper considera una illusione della filosofia occidentale di Platone, Aristotile, Bacone, Cartesio, Stuart Mills fino ai suoi contemporanei[50]. Popper, si spinge oltre, ritenendo ulteriormente che non esista un metodo per accertare la verità di una teoria, nemmeno quello per verificare se una teoria è probabile o probabilmente vera. Citiamo:

 

“Non credo alla teoria corrente che , allo scopo di rendere feconda una discussione, chi vi partecipa debba avere molto in comune. Al contrario, credo che più diverso è il loro retroterra, più feconda sarà la discussione. Non c’è neppure bisogno di un linguaggio comune per iniziare: se non ci fosse stata la Torre di Babele, avremmo dovuto inventarne una.”

 

Ancora Popper, ironizzando sulla sua disciplina e al tempo stesso desiderando stupire con affermazioni che non possono che farci pensare anche da angolazioni inesplorate, ci presenta osservazioni sempre più brillanti su:

 

  1. Inesistenza di verità permanenti e dinamicità della conoscenza.
  2. Adozione cosciente del metodo critico.
  3. Crisi e mutamenti del sistema.
  4. Ricerca e produzione di crisi e rivoluzioni nei sistemi.

 

 “Di solito – dice Popper – inizio le mie lezioni sul metodo scientifico dicendo ai miei studenti che il metodo scientifico non esiste. Aggiungo che dovrei saperlo, visto che sono stato, almeno per un certo periodo, il solo e unico professore di questa inesistente disciplina nell’ambito del commonwealth britannico.”

 

Ancora Popper sostiene l’idea che:

 

la nostra conoscenza progredisce per tentativi ed eliminazioni degli errori, e che la differenza principale tra la sua crescita pre-scientifica e quella scientifica consiste nel fatto che a livello scientifico noi andiamo, consapevolmente, alla ricerca dei nostri errori

 

ed ancora a riguardo

 

è errato considerare la scienza soltanto come un che di statico. Lo sviluppo della Scienza riveste il massimo interesse dal punto di vista metodologico; infatti, soltanto nel mutamento del sistema, nelle condizioni metodologiche del progresso scientifico si mostra chiaramente il carattere di una scienza che trae insegnamento dalla realtà e dall’esperienza.

 

Oggi possiamo concludere che la metodologia dell’epistemologo vede l’uomo uscire dalla caverna e conquistare una luce, che, con il nostro linguaggio, non è altro che un insieme di sfaccettature/interpretazioni di un evento osservato. È contento, è fuori della caverna, al disopra! Secondo Platone, forse era arrivato, era arrivato se era nel mondo delle idee! Oggi, , ci si accorge ben presto, è il modello che vi propongo, un modello moderno, ci si accorge ben presto, è questo il modello che vi propongo, un modello moderno, la cui luce e i cui nuovi compagni sono in una nuova caverna, un modello che ci fornisce delle ombre nuove, ombre che sono luce per la vecchia caverna. Il processo conoscitivo, se si vuole iniziatico, se si vuole l’osservazione dell’evento inizia di nuovo! Ha mai termine questo processo? noi riteniamo di no e la conclusione meravigliosa ed amara è quella del maestro di Platone, il grande Socrate che asseriva, ironicamente, ma asseriva: “so di non sapere!”

 

Appendice 1.4.1. Una breve cronologia del tempo

Pensando di fare cosa gradita ai lettori di queste mie lezioni, riportiamo in queste due appendici A1,A2, sia un quadro sinottico dei tempi di Platone (A1) sia una schede delle opere di Platone, vere o apocrife che siano, e comunque illustrative del pensiero del grande filosofo.

Diamo uno sguardo complessivo agli avvenimenti dal millennio 1200 a.C. / 200 a.C.

 

Secoli precedenti al VII

1200 a.C. Sono fiorenti le civiltà di Creta ( Mallia, Festo, Crosso), Cipro e l’Asia minore.

   Periodo descritto da Omero.

1182 a.C. caduta di Troia (datazione di Erodoto)

1100/800 a.C. Periodo buio: caduta della civiltà e perdita della scrittura.   

 

VII secolo

750 a.C. (prima parte età del ferro) inizio colonizzazione greca

 

VI-V secolo

600/400 a.C. Nasce la Filosofia con i presocratici: Talete, Anassimene, Anassimandro, Empedocle

V secolo

500/ 400 a.C. Eraclito (scuola ionica), Leucippo, Democrito (Scuola atomistica) Pitagora (scuola pitagorica)

500/400 a. C. Nascita del Teatro tragico: Eschilo, Sofocle, Euripide

461/429 a.C. Pericle (495-429 a.C.) guida la politica ateniese (età di Pericle o periodo d’oro)

 capo del partito democratico di Atene promuove un periodo di equilibrio politico, di fioritura artistico-culturale.

431 a.C Scoppio della guerra del Peloponneso tra Atene paladina della democrazia e Sparta che al contrario propendeva per un governo di tipo oligarchico

429 a.C. Scoppio di una grave pestilenza e morte di Pericle

416 a.C. Gli Ateniesi massacrano gli abitanti dell’isola di Melos, alleata di Sparta

414 a.C. Fallita conquista di Siracusa alleata di Sparta, da parte degli Ateniesi

405 a.C. battaglia navale dell’Egospotamo con la vittoria definitiva di Sparta

  Sparta impone ad Atene un governo oligarchico detto “dei trenta Tiranni”, che dura

  un anno, viene ripristinata una forma di democrazia ed in questa nuova atmosfera

  avvenne il processo di Socrate. (399 a.C.)

 

IV secolo (400/300)

469 a.C. probabile nascita di Socrate

428 a.C. probabile nascita di Platone

384 a.C. probabile nascita di Aristotile

 

 

III secolo

399 a.C. Socrate muore bevendo la cicuta (70)

348 a.C. morte di Platone (80)

322 a.C. morte di Aristotile (62)

 

 

Appendice 1.4.2. Le opere di Platone

L’opera di Platone ci è giunta, per quanto ci è dato a sapere, per intero. Essa è costituita da 34 dialoghi, dall’apologia di Socrate e da 13 lettere.

 

  1. Dialoghi giovanili (socratici), precedenti al rientro ad Atene del 387.
    • Critone : intorno all’obbedienza (Socrate si rifiuta di fuggire dal carcere)
    • Carmide : intorno alla temperanza
    • Lachete : intorno al coraggio
    • Liside : intorno all’amicizia
    • Eutifrone : Socrate discute della pietà religiosa
    • Protagora : discussione con Protagora attorno all’insegnabilità della virtù
    • Ippia minore : errori intenzionali ed inintenzionali
    • Repubblica Libro I : intorno alla giustizia
    • Gorgia : Socrate discute con il sofista Gorgia della politica

 

  1. Apologia di Socrate

 

  1. Dialoghi della maturità (dopo il 387), Socrate è sempre il protagonista
  • Menesseno : posizione contro i maestri di retorica
  • Menone : intorno alla virtù
  • Eutidemo : contro gli artifici dei sofisti
  • Ippia maggiore : la teoria del bello
  • Cratilo : la teoria del linguaggio
  • Fedone : la teoria delle idee l’anima
  • Simposio: la teoria dell’eros, anche omosessuale
  • Repubblica libri II/X: la giustizia e lo stato
  • Fedro : l’amore e la retorica

 

  1. Dialoghi della vecchiaia (dopo il secondo viaggio in Sicilia)
  • Teeteto: la teoria della conoscenza
  • Parmenide: la teoria delle idee
  • Sofista : la dialettica
  • Politico : le funzioni della politica
  • Flebo : rapporto piacere/bene e questioni teologiche-ontologiche-cosmologiche
  • Timeo : sulla cosmologia platonica
  • Crizia: sullo stato agricolo ideale
  • Leggi : appendice alla Leggi
  • Epinomide: sono riviste le concezioni di Repubblica

 

  1. 13 lettere (non tutte ritenute autentiche)

 

  1. Dialoghi pseudo-platonici (non ritenuti autentici)
  • Alcibiade II , Ipparco , Amanti , Tergete , Clitofonte , Minosse

 

1.5. PRODROMI DI INTELLIGENZA ARTIFICIALE: I PICCOLI ROBOT DELL’ANTICHITÀ

 

Un fenomeno, risalente all’antichità e di grande interesse per la protostoria dell’intelligenza artificiale è la nascita degli oggetti d’arte animati meccanicamente, o se si vuole i cosiddetti “esseri artificiali meccanici”. Il termine Robot, che al momento non abbiamo usato di proposito – in luogo del termine esseri artificiali meccanici – è come vedremo più avanti, in questo paragrafo – un’invenzione letteraria successiva, risalente al primo ‘900.

La storia della problematica di tali oggetti d’arte animati è molto antica ed anche piuttosto interessante. In essa si evidenzia il sogno perenne dell’uomo a riprodursi artificialmente, sogno che oggi si è sviluppato nelle direzioni della robotica ed automatica e recentemente verso la clonazione.

I primi oggetti di quest’arte provengono dal mondo dell’arte e principalmente dello spettacolo. Fin dal II secolo a.C., abili inventori, provenienti dalla Grecia, iniziarono a creare degli attori artificiali animati, da usare negli spettacoli. Questi piccoli “robot ante-litteram” erano governati da macchinari e da meccanismi di tipo meccanico, anche molto complessi, erano in grado di recitare in ruoli drammatici, come richiedeva lo standard del Teatro Greco, ma erano principalmente in grado di lavorare in mezzo alle fiamme e al fumo, produrre effetti sonori non umani, erano in grado di emettere anelli di fumo, spruzzi d’acqua e lingue di fuoco. Altri meccanismi, tuttora in uso, erano alcuni grandi macchinari, mediante i quali si potessero operare rapidi ed efficienti cambi degli scenari che risultassero principalmente spettacolari. Tra i grandi nomi di coloro che si mossero in questa direzione dello studio della pre-robotica troviamo Filone di Bisanzio (200 a.C. circa), Cresibio e principalmente Gerone. Circa nell’anno 100 a.C. anche in Cina ci si mosse in questa direzione e con risultati anche considerabili di gran lunga più soddisfacenti.

Gerone di Alessandria (100 a.C. circa) fu colui che per primo inventò un motore a vapore, forse più per mostrare la potenza del vapore, che non perché ne avesse comprese le potenzialità e le applicazioni future. Gerone utilizzava il vapore anche per gli spettacoli nei quali faceva uso di attori artificiali. Nella sua opera principale Pneumatica egli ci descrive il comportamento dei fluidi ma anche l’uso di diverse macchine, nelle quali si ricorreva all’aria calda, sia per pompare acqua, sia per produrre suoni, sia per varie altre particolari cose abbastanza singolari.

Vi è sostanzialmente descritta l’idea delle camere a depressione, ottenute raffreddando, al loro interno, una sostanza trasformata in vapore. Questa idea, ebbe anche notevoli applicazioni pratiche e tra il XVI XVII secolo ebbe un uso pratico anche per pompare acqua dalle miniere. Per tornare a Gerone, in una sua successiva opera Automata, viene esaminato in dettaglio il problema degli attori artificiali. Attraverso l’esemplificazione e il dettaglio di una particolare recita, Gerone ci descrive tutto il macchinario sottostante, il modo con il quale faceva funzionare gli attori artificiali,come era possibile sincronizzarli con l’intero scenario e come si potevano inserire, nel contesto, i vari effetti speciali. Il movimento globale della scena era prodotto da un insieme di meccanismi costituiti da ruote, pulegge, cilindri, leve, contrappesi, ai quali si univano lampade speciali, serbatoi, lanciafiamme e pompe. L’operatore metteva in moto il congegno e tutto andava avanti da solo. Incredibile: era il 100 a.C.!

Rimarchiamo che gli effetti speciali di allora, ci inducono a farci riflettere intorno agli effetti speciali del cinema odierno che dalle origini fino agli anni ’80, si è servito di macchinari interpreti di King-Kong, e di vari altri mostri alla Rambelli, non sempre superiori a quelli del passato, ma anche di scene di disastri e crolli realizzati in modo … impeccabilmente … falso. Il concetto di “effetti speciali” è oggi profondamente modificato in relazione alle scene virtuali e ai personaggi computerizzati[51] .

Per continuare la nostra analisi del fenomeno pre-robotico ricordiamo che in Cina nel 70 a.C., al tempo della dinastia Tang, furono costruite macchine da spettacolo con la capacità di reagire a 13 stimoli esterni, macchine, che come diremmo oggi, appaiono di “generazione successiva” rispetto agli statici e programmati attori artificiali alla Gerone. Si narra di uno spettacolo connesso ad una festa nei giardini reali. Cinque omini artificiali, di circa cinquanta centimetri d’altezza, navigavano in una barca, lungo un piccolo fiume che attraversava i giardini e si snodava a serpente tra i tavoli degli ospiti. Vi era il timoniere, i rematori, un mescitore di vino che ad ogni tavolo serviva una tazza colma di vino, automaticamente. Tutte le volte che il commensale restituiva la tazza vuota il mescitore, sempre automaticamente, la riempiva di nuovo e la porgeva e questa era indubbiamente una reazione ad uno stimolo esterno. Purtroppo della narrata barca non è mai pervenuto il progetto!

L’opera di Copernico De Revoluzionibus (1545) segna un cambio d’epoca, il raggiungimento di un livello di gran lunga superiore a quanto si era riusciti a raggiungere nel passato, sia per la misura del tempo sia per gli strumenti che facilitassero la navigazione. Ma fin dal XIV secolo vi furono movimenti ed iniziative che condussero a quel momento evolutivo. L’invenzione della stampa che rese possibile la diffusione di vecchie e nuove conoscenze, la scoperta dell’America che allargò letteralmente i confini del mondo e del conosciuto, la nascita degli orologi, la conoscenza dei cieli, mai di livello così elevato, sono chiari segnali della nuova modernizzazione. Il dibattito sul senso del tempo, così che acquisti un senso la sua misura, è un dibattito perennemente aperto. Da Aristotile ad Einstein si tenta di tenere il concetto di tempo fuori della Fisica anzi della Scienza. L’idea che la Scienza sia l’analisi continua di fenomeni riproducibili ci porta a tenerne il tempo fuori. Il tempo dal supposto Bing Bang ad oggi, e per quello che accadrà nel futuro è un fenomeno irreversibile, non riproducibile e quindi non osservabile. E’ forse Ilya Prigogine[52] uno dei primi a porre nella Scienza anche i fenomeni di irreversibilità e di evoluzione. L’evoluzione biologica, l’evoluzione delle società sono – secondo Prigogine – una storia naturale del tempo. Il tempo precede la nascita dell’Universo segnando l’evoluzione dei fenomeni che lo hanno generato e forse non ha un momento di nascita e nemmeno di morte.

Si tratta di una visione – come alcuni affermano – “laica” del tempo. Dice Prigogine[53] a riguardo:

 

“ Laico è una parola che può avere vari significati. Se pensate che la concezione classica, nella quale il tempo è relegato al di fuori della Fisica, è una concezione che attribuisce all’uomo dei poteri quasi divini, sono d’accordo, perché credo che effettivamente che la Scienza sia fatta dall’uomo, a sua volta parte della natura che descrive. L’idea di un’onniscenza e di un tempo creato dall’uomo presuppone che l’uomo sia differente dalla natura che egli descrive, concezione che io considero non scientifica. Che si sia laici o religiosi, la scienza deve collegare l’uomo all’universo. Il ruolo della scienza è proprio quello di trovare dei legami, e il tempo è uno di questi. L’uomo proviene dal tempo; se l’uomo invece creasse il tempo, quest’ultimo sarebbe uno schermo tra l’uomo e la natura. Dunque , da questo punto di vista, è che questa sia una concezione laica e che la scienza debba essere laica, quali che siano le estrapolazioni che ci si possa permettere al di fuori della scienza.”

 

Tornando alla misura del tempo, prescindendo dalla sua vera ed impalpabile natura, giova notare che gli orologi non trovarono subito adeguati sviluppi. Solo nel XIV secolo cominciamo a trovare, nell’ordine dei meccanismi e dei meccanismi animati, interessanti orologi meccanici da porsi anche sulle torri dei campanili. Prima d’allora la gente comune non era in grado di distinguere le ore della giornata. Troviamo eleganti ed elaborati oggetti meccanici, come orologi dalle molteplici funzioni assieme a figure ed animali animati come cigni meccanici, cavalli meccanici ed uomini meccanici. Lentamente nasce l’idea del Robot, un essere artificiale che evolverà lentamente nell’essere, della prima fantascienza del post-1940, che può essere comandato a distanza, da congegni elettrici ed elettromeccanici.

In realtà l’idea di Robot fu un’invenzione letteraria, nata dal termine roboata, termine che, in lingua ceka, vuol dire lavoro pesante e fastidioso. Il Robot fu l’operaio artificiale, immaginato dallo scrittore praghese Karel KAPEK (1890-1938) autore di novelle (Racconti penosi) e drammi. Il dramma di Krakatic “R.U.R.”, La fabbrica dell’assoluto”, del 1920, è un tipico caso, ante litteram nel quale la letteratura ha prefigurato un caso futuribile.

Oggi con il termine Robotica si indica un’intera branca, della progettazione elettronica, alla quale si collega anche il termine Automatica. Questo ultimo termine viene dalla parola Automa che può essere inteso come un termine più generale. Ad esempio una macchina, anche con sembianze diverse da un essere umano, che può essere comandata a distanza.

Va pure rimarcato che il mito letterario del Robot si ispira anche al mito magico del Golem, che è un essere artificiale che nasce nella magia e fantasia praghese. Il Golem infatti, è legato alla figura del famoso rabbino Rabbi Low, molto esperto di Cabala e magia, operante nella seconda parte del 1500, e responsabile del ghetto di Praga, dal quale gli abitanti potevano uscire solo marcati da cappelli gialli o da altri segni evidenti. Il Golem, era presente nelle leggende giudaiche dei paesi dell’Est Europa, nell’epoca romantica della letteratura ceca. Il Golem è un essere artificiale, nato da un modello di creta, al quale “magicamente” per opera di un rabbino molto esperto, è stato dato il soffio di vita! Il novello Adamo è dunque un grumo di fango, plasmato a forma d’uomo, al quale rabbini particolarmente saggi avrebbero infuso l’alito della vita, anche se in una forma imperfetta, perché concepita come mentalità ottusa ma benigna, per difendere il ghetto e fare i lavori pesanti. Il golem, nato per difendere il ghetto di Praga, si ribella al suo creatore! Non vi è dubbio che questa immagine è una chiara esplicitazione del mito e della paura che l’uomo ha, consciamente ed inconsciamente, nei confronti delle sue stesse invenzioni e scoperte!

Ci troviamo davanti ai misteri della Nascita, il desiderio nascosto dell’uomo. La donna procreava e l’uomo non procreava, l’uomo guardava il mistero della procreazione e rivestiva la donna di sacralità per questo. La procreazione, un mistero, ma anche lo specchio psichico di alcune dualità

come il rapporto padre-figlio, dominante-dominato, maestro-allievo, assieme al desiderio di rubare alla donna, questa sua capacità sacrale. Così l’uomo, nel trascorrere del suo tempo, è stato di volta in volta tentato, usando la tecnologia di cui disponeva, a sopperire alla sua carenza di creatore. L’uomo ha tentato, usando l’Alchimia per secoli, di produrre, artificialmente, un essere dotato del soffio vitale come l’Homunculus medievale, fino ad arrivare al Golem praghese di Rabbi Low. Del resto quando i tentativi, in termini di agito, erano impossibili, si ricorreva ad invenzioni letterarie, a parti della fantasia. Così ricordiamo alcune ideazioni letterarie come i vampiri di Bram Stoker, o anche la costruzione di uomini assemblati, come quello prodotto dal dott. Frankstein! Oggi la frontiera si è spinta verso verso l’informatica, con le ricerche sull’intelligenza artificiale, ed ancora verso la Biologia con la moderna e discussa clonazione.

Tante altre anticipazioni ci sono venute dalla letteratura fantastica. In questo settore si è iniziato a parlare di Robot ed Automi. Questi esseri sono apparsi nel Romanzo Popolare a partire dalle opere di Jules Verne (1828-1905) e per finire con la letteratura relativa alla Science Fiction.

Siamo partiti con dei mostri di ferro negli anni ’30, l’evoluzione letteraria è stata lenta, il pubblico si è mostrato sempre più esigenze e le “invenzioni della Scienze Fiction” è divenuta sempre più elaborata e sofisticata, così i Robot dell’ultimo ventennio, che appaiono in letteratura, sono quasi umani. La letteratura fantascientifica, specie ad opera del compianto Isaac Asimov, ha concepito esseri non umani del tutto simili all’uomo esternamente, ma poi in realtà con una filosofia interna che apre impensabili problematiche. Basti pensare alla figura della Dr.sa Calvin, robo-psicologa, oppure al personaggio di Yvo Demerzel, i quali hanno dominato i più importanti cicli delle opere di Asimov. La fantascienza è stata talvolta profetica, come appare evidente nella lettura delle opere di Jules Verne, a volte irrimediabilmente non profetica come nei casi di Wells e la sua macchina del tempo o in relazione all’espansione della razza umana nell’intero universo, ma questo naturalmente dipende dal fatto che l’indagine sul futuribile racchiude in se l’insieme delle possibilità, dalle più concrete alle più vaghe, insite nei sogni, nei desideri e nelle tendenze dell’uomo.

Per tornare alle nostre macchine di calcolo, giova osservare che nel 1899 in occasione dell’Esposizione di Parigi e della inaugurazione della Torre Eiffel, l’inventore francese Léon Bollée, presentò una molto efficiente calcolatrice a moltiplicazione diretta attraverso tasti meccanici e quindi attraverso una tastiera. L’idea dell’utilizzo di tasti risaliva al 1850 e al professore di matematica Tito Gonnella, dell’Accademia delle Belle Arti di Firenze ed ebbe anche altri precursori come Door Felt, un giovane meccanico di Chicago, che nel 1884 costruì un altro rozzo prototipo, detto “Macaroni box”, perché appunto montato su una cassetta di spaghetti italiani, detti “macaroni”. Dopo tre anni di studi e perfezionamenti, nel 1887, quel rozzo prototipo, divenne un modello di addizionatrice a tasti, tutta in metallo, la mitica addizionatrice Comptometer.

La tastiera doveva subire poi una graduale evoluzione dalle macchine di calcolo a scrittura meccanica, poi elettrica fino alle tastiere elettroniche, elegantissime, prodotte anche da famosi designer, degli odierni PC.

 

1.6. PRODROMI INFORMATICI NELLA LOGICA: IL SOGNO DI LEIBNITZ

I Cinesi non risulta che avessero, in tempi remoti, un’aritmetica speculativa, ma solo operativa. Nei loro libri di divinazioni utilizzarono chiaramente la numerazione in base 2. In Europa questa idea apparve molto più tardi, parzialmente e forse vagamente, nell’opera del barone scozzese J. Napier[54], ma fu poi ripresa, approfondita e sviluppata in modo completo da Gottfried Wilhelm Leibnitz (1646-1716)[55]. Tuttavia, facendo un passo indietro nel tempo, citiamo R. Lullo, che fu uno dei precursori della Logica Matematica ed esercitò un grande influsso sul pensiero di Leibnitz. Ed è proprio Lullo, che aspira a costruire un procedimento meccanico, che ci permetta di ottenere in modo sistematico ogni deduzione a partire da principi dati. L’idea era parzialmente presente in Carneade[56], il “chi era costui” del manzoniano Don Abbondio e per certi aspetti se ne trovano tracce, circa duecento anni prima, anche nel pensiero di Socrate e Platone. Carneade, a quanto sembra, fu il primo a porsi nell’ottica che, nel costruire una teoria razionale non si può definire ogni oggetto, e quindi dimostrare ogni teorema, poiché ciò darebbe luogo ad un regressum in infinitum. Occorrono dunque dei punti di partenza accettati, che generalmente si dicono “postulati” (secondo Euclide), “principi dati” (secondo Lullo), “conoscenze innate” (secondo Leibnitz), “rivelazioni divine” secondo altri. Nella costruzione logica di una Scienza, a partire da Aristotile, i postulati o le idee a priori, sono considerate, quasi universalmente, delle vere e proprie “rivelazioni divine”. L’idea della non immutabilità dei postulati comincia vagamente a cambiare con i dubbi di Newton e ancor più di Leibnitz. La finalità comunque è sempre quella di dimostrare, o verificare, le conseguenze dalle premesse, quali che siano i motivi della accettazione delle stesse.

Proseguendo nel discorso ed in ordine alla accettazione non passiva delle premesse – seguendo Leibnitz – la validità di una scienza poggia sulla concezione della razionalità del reale e questo vale essenzialmente per le premesse. Le premesse, dunque, devono essere non solo innate ma devono anche rispecchiare il reale. Per il dedurre Leibnitz inseguiva una sua grande idea, certamente in anticipo sui tempi, alla quale ci si riferisce come al sogno di Leibnitz.

 Tale idea consisteva nella costruzione e ricerca di un simbolismo adeguato “characteristica universalis” atto a esprimere le relazioni logiche, senza equivoci ed indecisioni, che costituissero il fondamento di un’algebra della logica che permettesse un calculus ratiocinator applicabile a l’intero sapere umano. Egli è convinto che la characteristica sarebbe dovuta divenire “giudice delle controversie umane” così che gli errori dell’uomo si sarebbero potuti comparare ad errori di calcolo, facilmente correggibili con semplici ed attente revisioni delle catene di deduzione: i calcoli logici. Leibnitz sviluppò solo in parte la sua scienza e lo fece in modo sensibile nella costruzione del calcolo infinitesimale. Introdusse diversi simboli logici e si occupò della ricerca di concetti semplici da mettere a base dello sviluppo della conoscenza.

L’idea di sostituire al linguaggio ordinario un linguaggio logico adeguato ricompare in molti logici inglesi quali A. De Morgan[57], G. Boole[58] che ne furono i realizzatori e nell’opera di C. Sanders Peirce[59], uno dei primi codificatori dei metodi abduttivi e dei processi di conoscenza indiziari. Tutti costoro preludono ai lavori di quelli che saranno i grandi logici del XX secolo quali R. Carnap e B. Russel, ma anche ai futuri linguaggi che costituiscono uno dei fondamenti della programmazione.

 

1.7. PRODROMI DI ORGANIZZAZIONE DEI SAPERI NEL MEDIOEVO: L’ARTE DELLA MEMORIA

È noto che i Greci, inventori di tante arti, inventarono anche un’Arte della Memoria[60]che, attraverso la fase oscura del Medioevo, con Simonide di Ceo nel 470 a.C., Platone ed Aristotele, fu trasmessa a Roma da Cicerone e da Quintiliano e da loro si diffuse e s’inserì nella tradizione europea fino ad Agrippa[61] e agli studi di diversi padri gesuiti[62]. Quest’Arte cerca di fissare i ricordi attraverso la tecnica di imprimere nella memoria sia i luoghi sia le immagini; da taluno nel passato fu catalogata come mnemotecnica, nei tempi moderni sembra essere divenuta un ramo secondario dell’attività umana.

 

            La nostra tesi è provare che quest’antica e gloriosa arte non è un ramo secco, ma che l’idea del passato, di costruire una memoria ben addestrata, allora d’importanza vitale per la trasmissione della cultura, ha oggi le sue discendenze in svariati aspetti dell’architettura nell’organizzazione delle informazioni dentro un computer.

 

La disciplina denominata Arte della memoria, nel mondo classico appartiene alla Retorica, come la tecnica di imprimere nella memoria una serie di luoghi, dei quali la tecnica più nota fu quella di ideare e memorizzare un sistema architettonico (Palazzo) nel quale idealmente – diremmo oggi virtualmente – organizzare il proprio sapere.

La descrizione più chiara fu data da Quintiliano[63]:

 

“… per formare una serie di luoghi della memoria, egli dice, si deve ricordare un edificio, il più spazioso e vario possibile, con un atrio, soggiorno, camere e stanze. Nell’atrio ci saranno degli oggetti che ti ricorderanno tutti i tuoi discorsi preliminari, e sull’atrio si apriranno varie porte di differenti stanze, ciascuna delle quali ti ricorderà un capitolo del tuo sapere. All’interno delle stanza gli oggetti ti ricorderanno i dettagli di quel tuo sapere. Naturalmente in una stanza, se questo ti potrà servire, tu potrai aprire una porta che ti introduce nella una casa di un amico, o su una tua abitazione lontana, quella porta non esiste che nella tua mente ma da lì tu potrai andare ad altri discorsi ed accedere ad altro sapere …”

 

Cicerone fa ben notare come l’invenzione della memoria di Simonide poggiasse non solo sull’importanza dell’ordine per fissare il ricordo, ma anche sulla scoperta che tra tutti i sensi vi è anche quello della vista nella mente, che può essere considerato il più forte; infatti, com’è stato osservato da Simonide sono ben più complete le figure mentali che si formano nella nostra mente, dopo profonde ed accurate osservazioni.

 

1.7.1. I Palazzi di Memoria

Per la costruzione di una memoria un primo passo era quello del costruire un Palazzo della memoria nella propria mente ed arredarlo di saperi secondo una logica essenzialmente soggettiva e quindi imparare a destreggiarsi tra i percorsi possibili. È facile dedurre che persone desiderose di addestrare la facoltà della memoria, devono non solo scegliere alcuni luoghi da legare assieme ma anche formarsi immagini mentali, in modo che l’ordine dei luoghi nella mente garantisca l’ordine dei saperi nei luoghi come basi di ordine dei saperi nei discorsi. Ne segue che in noi, meglio nella nostra mente, si vengono ad avere due tipi di memoria:

 

  1. la memoria naturale: innata nelle nostre menti, è parte integrante del pensiero stesso. Una buona memoria naturale può essere migliorata e la si può pensare in uno stato di perenne evoluzione;
  2. la memoria artificiale: o memoria potenziata è consolidata dall’educazione.

 

Negli anni 86-82 a.C. un ignoto maestro di retorica in Roma compilò un primordiale manuale di memoria[64] dal titolo: Ad Herennium. Quest’opera, che sembra attingere a più antiche fonti probabilmente greche sull’educazione della memoria, antichi trattati di retorica, oramai perduti, sembra essere la sola trattazione latina sull’argomento. Certamente è l’unica che ci sia pervenuta e che sia servita, come spunto, a Cicerone e Quintiliano. Così essa costituisce la fonte principale, per l’arte della memoria classica, sia per quanto ci provenga dal mondo greco che da quello latino.

La memoria artificiale si basa su luoghi reali e su immagini, un locus è un posto facilmente afferrato dalla memoria, come una casa, un angolo ecc.; le immagini sono forme, simboli che desideriamo ricordare. Chi abbia imparato la mnemonica può sistemare nei luoghi tutto – diremmo oggi in modo virtuale – ciò che ha udito e ripeterlo, ripescarlo, usarlo come oggetto depositato nella memoria. Per ricordare molti eventi dobbiamo provvederci di un numero ampio di luoghi.

Aristotele ebbe certamente familiarità con la memoria artificiale, la teoria d’Aristotele sulla memoria[65] è basata sulla teoria della conoscenza, esposta nel “De Anima”, dove Aristotele afferma che è impossibile pensare senza un’immagine mentale. La memoria apparterrebbe così a quella stessa parte dell’anima alla quale appartiene l’immaginazione. La memoria, poiché, si collega con le impressioni sensoriali, essa non è peculiare dell’uomo: infatti, è parere di molti che anche certi animali sono dotati di memoria, magari più istintiva che cosciente, ma pur sempre memoria. Uno dei vantaggi della memoria artificiale risiedeva nella possibilità che il suo possessore poteva prendere le mosse da ogni punto degli intricati luoghi del suo palazzo di memoria e tali suoi luoghi poteva percorrerli in ogni direzione, attraverso vari e possibili cammini, attraverso immaginari corridoi, ed innumerevoli porte.

Platone, diversamente da Aristotele, credeva in una conoscenza non derivata da impressioni sensorie. Secondo lui occorreva sempre osservare la realtà; tutta la conoscenza e tutto l’apprendimento essendo solo tentativi di ricordare la realtà (la fondamentale opera platonica sull’argomento è il “Fedro”).

La memoria in senso platonico è fondamentalmente legata al reale, le idee di Aristotele sono essenziali per tutto il pensiero scolastico e medievale, il pensiero platonico si sviluppa come essenziale per l’arte mnemonica del Rinascimento. Fu Metrodoro di Scepsi a compiere un passo avanti in quest’arte, creando un procedimento di fissazione mnemonica di note o simboli, o stenogrammi, collegato con lo zodiaco.

Nel mondo sommerso dei barbari del Medioevo, le voci degli oratori tacquero, la cultura trovò posto e rifugio nei monasteri e l’arte della memoria, divenne superflua, sebbene la tecnica quintilianea di fissare nella memoria una pagina ben scritta, ben predisposta, possa essere stata ancora utile. È Marziano che in qualche modo tramanda al Medioevo la mnemonica collocata entro lo schema delle arti liberali.

L’interpretazione etica o prudenziale della memoria artificiale, è probabilmente opera dell’alto Medioevo. Si ha allora un’idea di ciò che fosse l’arte della memoria medievale, prima che se ne occupassero gli scolastici. Uno dei più importanti centri di quest’arte fu Bologna con la scuola Boncompagno da Signa, autore di due opere sulla retorica, tra cui la famosa “Rethorica Novissima”. Per Boncompagno la memoria artificiale è un’arte ed la sua scoperta si ritiene dovuta all’ingegno. Alberto Magno considerava la memoria una parte sensitiva dell’uomo, e la reminiscenza la parte intellettiva. Si afferma che Tommaso d’Aquino possedesse una memoria (esercitata) fenomenale che Cicerone avrebbe detto quasi divina. Giova ricordare che lo scopo dei dotti domenicani, cui Tommaso e Alberto furono rappresentanti, era l’utilizzo del rivisitato sapere aristotelico principalmente per difendere la Chiesa e per confutare le argomentazioni degli eretici.

La sapienza di Tommaso d’Aquino è rappresentata sulle pareti della sale capitolare del Convento domenicano di Santa Maria Novella in Firenze, dove si esaltano le sue virtù. ¨ (teologali, cardinali).

 

1.7.2. Il Teatro della memoria di Robert Fludd

In Europa, gli influssi ermetici raggiunsero il loro culmine durante il Rinascimento. Dal Medioevo al Rinascimento in molti tentarono di costruire un Palazzo di memoria, tra questi, famoso fu quello del Gesuita marchigiano[66] Matteo Ricci. Il Ricci visse, per molti anni in Cina, creò anche una sorta di grammatica in italiano della lingua cinese, costruì profonde analogie tra la struttura linguistica ad ideogrammi e l’arte della memoria. Uno dei filosofi ermetici più noti fu Robert Fludd; egli appartenne alla tradizione ermetico-cabalistica del Rinascimento. Il sistema di memoria di Fludd è più sofisticato dei Palazzi della memoria del passato. Egli rappresentava il suo sistema attraverso il cosiddetto “Teatro di memoria”, composto di stanze di memoria, ma associati ai cieli rotondi, perché le stanze erano – virtualmente – poste nello zodiaco. Il palcoscenico ove si rappresentavano mentalmente le “memorie” (conferenze, teorie, dialoghi, ecc.) era, di fatto, l’intero zodiaco, chiamato il “Cielo Rotondo”.

S’innestarono due diversi tipi di arte: l’arte Rotonda che si occupava dell’immaginario collettivo del tempo e faceva riferimento a immagini della mente totalmente ideali (figure delle stelle, talismani, segni dello zodiaco) e l’arte Quadrata, sostanzialmente l’arte della memoria tradizionale, sia pure artificiale, che si connette con l’idea classica di “edificio della memoria” e che utilizza luoghi reali in edifici reali. I sistemi di memoria di Fludd utilizzano oculate misture di arte Rotonda e arte Quadrata nell’idea di far intervenire nei luoghi recanti immagini di memoria, quella che lui chiama “energia astrale”, una sorta di immaginario sacrale, o se si vuole l’energia dovuta alla sinergia di tutti coloro che interagiscono nel pensiero collettivo.

Con il termine teatro, così non si intende ciò che è un teatro nel senso comune del termine, in altre parole un edificio dotato di un palcoscenico ed una platea, ma si intende semplicemente il “solo palcoscenico” – beninteso virtuale – dove rappresentare le immagini che sono nel nostro io. Fludd introduce con queste parole il suo teatro: “Chiamo teatro un luogo in cui tutte le azioni di parole, pensieri, e particolari di un discorso o di un argomento, sono rappresentati come in un pubblico teatro, dove si rappresentano tragedie e commedie.” Fludd intende avvalersi di questo teatro come di un sistema di luoghi mnemonici detti “public theatres “, dove si rappresentano commedie e tragedie, ma dove è unico protagonista il possessore/oratore del Teatro e attori tutti coloro che hanno relazioni con il possessore/oratore.

Fludd lascia intendere di avere appreso o meglio progettato e costruito la sua arte di memoria in Francia. In una sezione sull’arte della geomanzia nell’ Utriusque Cosmi Historia, dice di avere praticato geomanzia ad Avignone nell’inverno 1601-602, dopo avere lasciato Marsiglia, dove era stato come istruttore del duca di Guisa e di suo fratello nelle scienze matematiche.

L’uomo di Fludd poiché microcosmo, contiene in potenza il mondo intero, per rifletterlo interiormente; l’arte di memoria occultista di Fludd è un tentativo di riprodurre la relazione macrocosmo-microcosmo, stabilendo o formando o portando a coscienza nella memoria del microcosmo il mondo che egli contiene che è immagine del macrocosmo, immagine sacrale a sua volta del Grande Architetto dell’Universo. In altre parole il “teatro della memoria” di Fludd è un Tempio Massonico, immagine del modo intero reale e spirituale, dell’individuo e del suo microcosmo. Una delle figure di Fludd rappresenta in forma visiva il riflettersi dei vari mondi entro la mente e evidenziando la memoria del microcosmo, mostra un uomo che raccoglie impressioni sensoriali dal mondo sensibile, attraverso i suoi cinque sensi, con una apertura – l’occhio sulla fronte – verso una miriade di sensi nascosti, non esercitati.

 

1.8. LA SECONDA RIVOLUZIONE. L’AVVENTO DI GUTEMBERG E LA STAMPA

La trasmissione del sapere, uno storia lunga cinquemila anni, è passata attraverso diverse fasi e a volte da importanti momenti di sviluppi ed accelerazioni della comunicazione tra gli uomini. Nei cinquemila anni vediamo la nascita dell’alfabeto, della recitazione, della trasmissione orale, della trasmissione scritta, prima rivoluzione culturale, utilizzando supporti sempre più differenziati quali papiri, pergamene, codici miniati. La copia dei testi ha permesso la circolazione delle informazioni a più persone, ma l’esplosione è avvenuta con l’invenzione di Gutemberg dei caratteri a stampa e la successiva nascita di biblioteche e rotative, con la stampa, con i giornali ed infine attraverso la terza rivoluzione l’avvento della comunicazione globale di Internet.

Johannes Genfleish, detto Gutenberg, nasce a Mainz probabilmente tra il 1393 e il 1403.

La sua vita[67] è, per molti versi, ancora avvolta nel mistero e frutto di ipotesi scaturite dai libri che ha prodotto e dai documenti legali, che lo riguardano, ritrovati in archivi ufficiali. Quindi tutti gli avvenimenti e gli episodi della sua vita sono solo dovuti a congetture plausibili e a ricerche indiziarie. Non v’è dubbio comunque che la sua conoscenza della lingua latina e il bagaglio culturale da lui posseduto inducono a supporre che egli abbia studiato, con grande probabilità presso i frati di un convento, dove la cultura non era fatto marginale e che abbia successivamente intrapreso studi universitari.

Il padre, Fiele Genfleish, era un mercante, ma anche un patrizio di Magonza, che per un certo periodo ricoprì la carica di maestro comunale dei conti. Pare, però, che già nel 1411 i contrasti tra patrizi e corporazioni fossero tali da far si che ragioni di prudenza inducessero la famiglia di Gutenberg a trasferirsi da Magonza a Eltville e, forse, proprio in questi anni, Johannes potrebbe aver frequentato l’università di Erfurt.

E’ certo che a partire dal 1430 Gutenberg non è più a Magonza, dove le corporazioni hanno assunto il governo cittadino. Dal 1436 lo si ritrova a Strasburgo: è diventato un abile uomo d’affari, inventore, maestro artigiano ed orafo. Dal 1437 egli insegnò ad Andreas Dritzehn di Strasburgo l’arte di levigare e molare le pietre preziose; in questi anni, con altri soci, lavora su tre progetti.

Il primo progetto di Gutemberg riguarda le nuove tecniche per la pulitura delle gemme.

Il secondo progetto di Gutemberg prevede la fabbricazione di specchi destinati ai pellegrini che si recavano in pellegrinaggio ad Aquisgrana. Tali specchi, in lega di piombo e stagno, erano oggetti ricordo all’epoca molto diffusi, specie nella credenza popolare. Si riteneva infatti che, con essi, si fosse in grado di catturare l’energia catartica emessa dalle reliquie esposte in processione per tornare poi successivamente a far uso dei benefici delle reliquie stesse. Tale progetto causò a Gutenberg non pochi problemi finanziari, derivanti dal fatto che il pellegrinaggio previsto non fu mai realizzato, per non correre il rischio della diffusione di malattie infettive (la peste).

Il terzo progetto di Gutemberg, l’ultimo, tenuto segreto, riguardava proprio la stampa assieme ai procedimenti usati per timbrare fogli e cartelle; tuttavia l’essenza completa dell’intero progetto rimase un mistero. Di qualsiasi cosa si sia trattato certo è che Gutenberg si pose alla ricerca di nuove tecnologie, tra le più avanzate, per la stampa, anche per procurarsi guadagni.

Si hanno notizie piuttosto incerte circa la sua attività tra il 1444 e il 1448. E’ sicuro che il 17 ottobre 1448 egli è a Magonza, dove ottiene in prestito 150 fiorini dal cugino Arnold Gelthus, con un interesse del cinque per cento, che probabilmente usa per la realizzazione di alcune sue invenzioni relativa ai nuovi processi di stampa che prendono via, via corpo. Nel 1450 i suoi esperimenti hanno già raggiunto un livello abbastanza elevato: egli è in grado di “stampare” indulgenze su richiesta del cardinale tedesco Nicola Cusano, ma di esse non si è conservata traccia.

Le opere di questo periodo si possono dividere in due gruppi: da un lato quelle minori, quali lettere di indulgenza, calendari e dizionari; dall’altro il suo capolavoro di 1282 pagine a stampa: la Bibbia in latino.

In una lettera del 12 marzo 1455 Enea Silvio Piccolomini, futuro papa Pio II, scrive a Juan Carvajal che a Francoforte c’è un uomo meraviglioso che lavora sulla Bibbia; tiene a precisare che il libro presenta lettere così chiare da poter essere lette senza occhiali. Probabilmente Gutenberg ha copiato per la stampa della Bibbia un manoscritto in suo possesso, imitandolo in tutti gli aspetti, riproducendone la ripartizione e la disposizione in colonne, la composizione a blocco. Il carattere usato, il gotico, inoltre consentiva una veste tipografica molto compatta, perché le singole lettere visivamente procuravano l’effetto di una grata, dando alla pagina l’aspetto di una trama.

 

Per sfruttare al meglio la carta, egli fece diverse prove sul numero di righe per colonne e, da un primo tentativi di 40 e 41 righe, arrivò alle 42 definitive; la fusione dei centomila caratteri, si suppone inoltre, abbia richiesto almeno sei mesi e il lavoro complessivo circa due anni. Furono impiegati dodici stampatori con sei torchi, oltre a coloro che si occuparono dell’inchiostrazione e della messa in opera dei fogli; la stampa delle 1282 pagine comportò ben 230670 passaggi al torchio. Finanziariamente l’opera costò circa 1000 fiorini e Gutenberg, dopo il primo prestito avuto dal cugino, ebbe il resto da Johann Fust che divenne suo socio nella “fabbricazione dei libri”.

Come si legge in un documento del 1455 stilato da un notaio di Magonza e relativo ad una disputa finanziaria tra l’inventore e Fust; quest’ultimo lo avrebbe accusato di appropriazione indebita e di non aver pagato i suoi interessi. Sembra che Gutenberg abbia perso la causa e abbia dovuto cedere l’attività al suo socio, che, con Peter Schoeffer, già lavorante nella stamperia, avviò un’attività per proprio conto.

Gli esemplari della Bibbia pervenuti sino ad oggi sono 49 ed ognuno di essi è una copia unica[68].

Dopo il 1458 non si hanno notizie certe sulla attività di Gutenberg, si suppone solo che nel 1462 egli possa essere stato bandito da Magonza, ma nel 1465 si sa che Adolf von Nassau lo nomina uomo di corte, lo rifornisce di vestiario, grano e vino e lo esenta dal pagare imposte e tasse.

Egli muore a Magonza il 3 febbraio 1468. Gutenberg è considerato l’inventore della stampa a caratteri mobili: le lettere, cioè, fuse singolarmente, venivano assemblate per formare le pagine, consentendo maggior chiarezza nella lettura e nella successiva correzione del testo.

 

Questo procedimento, apparentemente solo tecnico, ha rappresentato una rivoluzione che ha coinvolto non solo la “forma”, bensì il “significato” e il “concetto” di libro, rivestendo quindi l’aspetto di rivoluzione culturale. Fissiamo per un attimo l’attenzione sul concetto di libro. Il libro è solo una raccolta di fogli? Può essere definito libro un insieme di fogli non scritti cuciti insieme? Pensare questo sarebbe riduttivo per ciò che il libro ha rappresentato nella storia dell’uomo, esso è stato da sempre lo strumento per trasmettere conoscenze e cultura in senso più vasto.

 

 

Il “libro dei morti” degli Egiziani è uno dei ritrovamenti più antichi dell’attività letteraria dell’uomo; conteneva i riti e le formule sacre necessarie a guidare il defunto nell’aldilà. La “forma” di questo libro non assomigliava assolutamente a ciò che si intende attualmente per libro, almeno nella sua forma apparente. Infatti esso è una raccolta di rotoli di papiro che venivano avvolti intorno ad un cilindro di avorio o di legno e per leggerli bisognava svolgerli. È a Pergamo, a causa dei costi enormi del papiro, prodotto importato dall’Africa, che si sviluppò una nuova tecnica di scrittura su nuovi supporti, ricavati dalla pelle di agnello. Il nuovo supporto venne chiamato pergamena. E’ una situazione analoga alla nascita dei vari supporti elettronici quali cassette di registrazione per il Commodore degli anni ’80, i floppy disk da 5 pollici (quelli grandi per intenderci) del 1986/90, i piccoli floppy da 3,5 pollici ancor oggi in uso, i CD riscrivibili ed oggi le cosiddette penne USB che raggiungono nel 2005 le dimensioni di un 1-2 giga!

 

Accanto al concetto di libro nacquero i luoghi di raccolta e di consultazione dei libri: le biblioteche.

Le biblioteche più importanti dell’antichità le troviamo ad Alessandria, in Egitto, e a Pergamo, in Grecia, ma anche ad Antochia e a Pella.. Non ci sono pervenute tracce delle biblioteche egizie, evento dovuto essenzialmente alla fragilità del papiro che non ne ha consentito la conservazione, nemmeno parziale, nel tempo. Pian piano i rotoli, chiamati dai latini volumina, vengono sostituiti dai codici, molto più simili ai nostri libri; infatti erano costituiti da una serie fogli di pergamena. Essi, però, non erano molto diffusi sia per l’alto grado di analfabetismo, sia perché ogni copia era scritta a mano. È con questi supporti che ci è pervenuta, ad esempio l’opera di Platone, indubbiamente la prima opera globalmente trasmessaci in modo non orale.

 

La più antica struttura di cui si ha notizia è la Biblioteca di Lagas (XXI secolo a.C.), antichissima città numerica presso l’antico Tigri (oggi canale Satt-el-Garraf), archeologicamente riscoperta. Dell’VII secolo a.C. è la Biblioteca di Assurbanipal a Ninive, antica città dell’Assiria, sulla riva sinistra del Tigri, distrutta nel 612 .C., le cui rovine oggi sono di fronte all’attuale Mosul (Iraq). Nel mondo greco era famosa la Biblioteca di Aristotile, smembrata tra le due biblioteche di Alessandria[69] e Pergamo. La Biblioteca di Alessandria d’Egitto fu la struttura del sapere più nota ed importante dell’antichità, fondata da un re egiziano, Tolomeo I [70] (308-246 a.C.), cui si deve pure il Museo e il Porto.

A Roma ricordiamo che la prima struttura pubblica organizzata fu la Biblioteca di Asinio Pollione (39 a.C.), ma in epoca imperiale ne troviamo ben 28, delle quali la maggiore era la Biblioteca dell’Ulpia, ospitata nel Foro Traiano.

Dal VI secolo la cultura si rifugiò nei conventi, quali ad esempio quelli di Montecassino e Bobbio, e per secoli i monaci, assuntosi il compito di amanuensi, si sono occupati di trascrivere minuziosamente manoscritti, abbellendoli con miniature, decorazioni e illustrazioni. Nei conventi ove si operava l’arte della trascrizione vi era lo scriptorium, il cuore della produzione artistica dei libri, una vera e propria officina d’arte amanuense. Non v’è dubbio che, in questo periodo, la funzione del “libro” è prevalentemente estetica e artistica. E’ interessante la visione di una biblioteca e del relativo scriptorium, del periodo pre-Gutemberg che si può ammirare nella magnifica ricostruzione fatta nel film “Il nome della Rosa” tratto dal romanzo di Umberto Eco.

Con l’Anno Mille nascono le biblioteche delle sorgenti Università e con l’Umanesimo quelle dei Principi, germi e nuclei fondanti delle biblioteche moderne.

E finalmente con l’avvento di Gutenberg e con l’invenzione della stampa a caratteri mobili, da considerare un’invenzione di sintesi, si ha quella che chiamiamo la seconda rivoluzione ma che è essenzialmente una rivoluzione industriale oltre che culturale. Peter Schoft nel 1472 in un catalogo delle sue edizioni afferma che la “moltiplicatio librorum” è la sua prima ambizione per poter gareggiare in velocità ed efficienza con gli scriptoria medioevali. E’ dopo Gutemberg che così che a seguito dell’aumento vertiginoso di libri, e delle informazioni in essi veicolate, nasce la Biblioteca moderna ma principalmente si afferma l’idea dell’uso pubblico e di promozione sociale della biblioteca. Pertanto il contesto in cui si affermano l’arte e l’industria della stampa è segnato da un’evoluzione sociale che, pur tra epidemie, crisi demografiche e guerre, vede una crescita dell’alfabetizzazione e l’ascesa dei nuovi gruppi sociali che, per mezzo di questo strumento di diffusione della cultura scritta, si affacciano sulla scena della società europea. I testi stampati fino a tutto il 1500 sono gli “incunaboli”[71]; ne esistono circa 450.000 di cui 100.000 in Italia.

Continuando la nostra breve disamina storica ricordiamo che nel 1602 nasce la biblioteca Bodleiana di Oxford, nel 1646 la biblioteca universitaria di Cambridge e nel 1759 la biblioteca annessa al British Museum. Nel XVII nasce la prima biblioteca nazionale quella di Berlino. E’ solo l’inizio, infatti nel 1712 nasce la biblioteca nazionale di Madrid, a Parigi la biblioteca dei Re si trasforma in biblioteca nazionale; nel 1789 nasce la biblioteca nazionale americana (Library of Concress) con 10 milioni di volumi; la più ricca del mondo è la biblioteca nazionale “Lenin” di Mosca, con 16 milioni libri e riviste; più piccola ma notevole è pure la biblioteca nazionale di Pechino con 2 milioni. In Italia al tempi dei vari stati nascono la Braidense di Milano, la Marciana di Venezia e le varie biblioteche di Torino, Napoli, Palermo e poi Roma, e Firenze. Il clima di rinnovamento dal Rinascimento all’unità d’Italia permise alla stampa, di raggiungere risultati che sarebbero stato incomprensibili ad un redivivo amanuense del tempo della scrittura manuale

.

Per circa due secoli il termine stampa è stato sinonimo di libro fino a quando nel XVII secolo compaiono i primi fogli periodici, inizialmente solo di cronaca, successivamente anche di opinione.

Nasce così la dialettica dell’informazione che ha usato la stampa come strumento quasi esclusivo di formazione dell’opinione pubblica.

Se si considera la stampa come insieme di attività intellettuali, tecnico-industriali e commerciali finalizzate alla produzione e alla diffusione della carta stampata quale strumento per veicolare idee, informazione e cultura, quindi mezzo che contribuisce alla formazione della coscienza civile, si capisce l’interessamento di cui essa è stata oggetto da parte dei legislatori.

La libertà di stampa[72], infatti, da sempre, è la cartina di tornasole del livello di democrazia raggiunto da un popolo.

I metodi di stampa sono rimasti gli stessi fino oltre la metà del Novecento, quando la fotocomposizione, generata dal computer, ha dato luogo ad una nuova rivoluzione, non meno incisiva di quella operata da Gutemberg.

 

1.9. RIFLESSIONI VERSO L’INTELLIGENZA ARTIFICIALE

 

Nel corso degli ultimi decenni la tecnologia dei computer elettronici ha compiuto enormi passi avanti. I computer sono oggi in grado di svolgere numerosi compiti che sono stati in passato una prerogativa esclusiva del pensiero umano, con una velocità e precisione che supera molto i risultati di un essere umano. Queste conquiste non turbano per nulla il nostro orgoglio, ma saper pensare è sempre stata una prerogativa umana. Un’area che ha assunto enorme interesse in anni recenti, è quella che della cosiddetta[73] Intelligenza Artificiale, spesso abbreviata semplicemente in IA. Gli obiettivi della IA sono di imitare attraverso strumenti elettronici, quanto più possibile l’attività mentale umana, e forse di andare, per certi versi, oltre la capacità umana.

La IA potrebbe avere, sotto certi aspetti, una pertinenza diretta con la psicologia; si spera che cercando di imitare il comportamento di un cervello umano per mezzo di un dispositivo elettronico, o non riuscendo a farlo, si possa apprendere qualcosa d’importante sul funzionamento del cervello stesso. Facciamo un esempio: i computer giocatori di scacchi simulano un comportamento che potrebbe essere considerato un “ intelligente”. Tali computer fanno molto affidamento sulla “conoscenza teorica” oltre che su un’accurata capacità di calcolo. Va notato che i computer, giocatori di scacchi, si comportano meglio dei giocatori umani, quando si richiede che le mosse siano eseguite rapidamente; i giocatori umani ottengono risultati relativamente migliori rispetto alle macchine quando si concede una buona durata di tempo per ogni mossa. Si può comprendere meglio questa situazione se si considera che il computer prende le sue decisioni in conformità a calcoli estesi precisi e rapidi, mentre il giocatore umano si basa su “giudizi fondati su valutazioni coscienti relativamente lente”.

L’utilizzo cattivo del modello matematico, consiste nel creare Macchine che si prefiggono di sostituire l’uomo attraverso un progressivo processo di livellamento, ma la Macchina deve essere un prezioso assistente (e peggio per chi non ne dispone) e mai un pericoloso antagonista.

Ad esempio ogni volta che il calcolo numerico tende a complicarsi, il modo migliore per l’esecuzione è l’affidarsi ad un computer. L’insieme di Mandelbrot, ossia la regione nera dell’esoterico mondo di Tor Bled-Nam, è precisamente quella regione del piano d’Argand-Gasss consistente dei punti rappresentati dai numeri complessi c, per i quali una certa sequenza rimane limitata. La sequenza (Z, Z1, Z, …, Z, ….) si costruisce a partire dal numero complesso c, per ricorrenza, mediante la relazione:

Zn = Z+ C.

 

La regione nera è il luogo dei punti c per i quali la sequenza (Z, Z1, Z, …, Z, ….) è limitata, mentre la regione bianca è il luogo dei punti c per cui la stessa sequenza è invece illimitata.

Contrariamente ad ogni attesa il contorno della zona nera non è una linea continua, come le linee tradizionali, in cui in ogni punto si può disegnare una retta tangente. La linee che racchiude “insieme di Mandelbrot” non c’è, vi è al suo posto quello che si chiama un frattale, un contorno che con uno zoom riproduce mirabilmente tutte le sue caratteristiche di frastagliatura.

Le immagini dettagliate che possiamo vedere si possono trarre tutte dagli output di computer. Il computer esamina sistematicamente tutte le scelte possibili del numero complesso c, e per ogni scelta di c elabora la sequenza e decide secondo assegnati criteri appropriato, se la sequenza è limitata o no. se è limitata, il computer colorirà il punto c di nero, altrimenti di bianco. Si ha l’impressione che questa struttura non sia solo il frutto della nostra mente, ma che abbia una realtà propria; inoltre i dettagli completi della complessa struttura dell’insieme di Mandelbrot non possono essere rilevati completamente da alcun computer, ma senza il computer non erano stati nemmeno rilevati, Mandelbrot aveva in mente che l’insieme da lui considerato fosse qualcosa di nuovo, ma solo l’immagine ha parzialmente rivelato questo nuovo universo frattale!

Rileggendo l’attività descritta nel paragrafo precedente, dedicata all’arte della memoria che, Robert Fludd chiama arte quadra, con l’occhio di chi ha assimilato la struttura interna, l’architettura, le memorie e i programmi con tutta l’archiviazione vi è da essere esterrefatti. L’intera struttura informatica sembra una trasposizione in chiave moderna dell’intero progetto fluddiano. Questo evidenzia l’importanza enorme dell’opera di Fludd che con il suo Teatro chiarisce quali sono i palcoscenici costruibili dalla mente umana ma non presenti nelle attuali architettura del Computer. Sembra allo stato attuale che il Computer non sia in grado di occuparsi dell’arte tonda, nella quale prevale l’emozionale e l’intuitivo.

Certo, il grande Orwell[74] nel suo romanzo 1984, scritto nel 1948 quando il 1984 sembrava un futuro lontano, immagina queste future autorità d’Oceania, una nazione che occupa un terzo del mondo, che s’incarnano in un’immagine umana: il Grande Fratello. L’immagine del Grande Fratello, pur non esistendo – ovvero esistendo virtualmente – è, in quel mondo, in ogni luogo. Sovrasta la vita pubblica e privata di ognuno. Entra in ogni abitazione attraverso uno schermo, prototipo letterario di una televisione, che nel 1948 non esisteva, ma operante nei due sensi, trasmettitore e strumento di controllo visivo dell’individuo. Ogni pensiero, ogni parola sono controllati da vari ministeri, specie da quelli dell’Amore e della Verità; essi sono preposti in quella realtà romanzesca all’imbonimento ideologico e morale dei cittadini, per renderli completamente succubi del sistema, pronti a tradire qualsiasi sentimento d’affetto e d’amore anche verso i propri famigliari per servire lo Stato. Appare in Orwell un pessimismo totale, una previsione di un possibile totalitarismo futuro, basato sulla Tecnologia, assunta come strumento di potere e di controllo. Queste previsioni nascono naturalmente in un particolare momento storico e le visioni del futuro riflettono le preoccupazioni del tempo in cui sono state scritte. Riletto nell’ottica di questi paragrafi si coglie una paura di un controllo occulto, non dedito al bene del mondo, ma forse ad un’inconscia lotta – ignaro il buon Orwell – contro l’arte tonda di Fludd. Al contrario del pessimismo di Orwell, nella storia del mondo l’arte tonda sembra sempre prevalere. Così al controllo totale del Grande Fratello da lui ipotizzato, si oppone nella realtà l’apertura totale di una rete come Internet, rete che non ha un capo, che si estende in tutte le possibili direzioni in cui si sviluppa e nella sua totale democraticità è tuttavia ancora pericolosa, realizzando un modello di totale anarchia.

Anche dell’immagine del Grande Fratello, di orwelliana memoria, si sono impadroniti i Media, ma riducendolo a spettacolo, strumentalizzazione si, ma in direzioni ben diverse da quelle che Orwell aveva concepito. Sembrerebbe quasi impossibile allora, da queste considerazioni, la sostituzione totale della macchina all’uomo.

Per tornare all’IA si tende a pensare che tutte le qualità mentali dell’uomo: pensiero, sentimento, intelligenza e conoscenza devono essere considerate come semplici aspetti di una complessità di funzionamento; sarebbero, in altri termini, caratteri dell’algoritmo eseguito dal cervello. Se esistesse un algoritmo di questo genere, i sostenitori dell’IA sono convinti che lo si potrebbe far girare in un computer. Esso potrebbe, in effetti, essere usato in qualsiasi moderno elaboratore, se non fosse per limitazioni di memoria e di rapidità di operazione. Si prevede che tali limitazioni saranno superate dai grandi computer veloci di un futuro non troppo lontano. I fautori dell’IA affermerebbero che, dovunque l’algoritmo fosse fatto girare, esso sperimenterebbe sentimenti, avrebbe una coscienza, sarebbe una mente. Il nostro modello di mente umana presuppone l’esistenza di due forme di pensiero fondamentali: quello logico e quello analogico; la comprensione e la consapevolezza dell’esistenza di queste due forme di pensiero rappresentano la base per ogni successivo ragionamento sui processi decisionali dell’uomo.

Per pensiero logico, deduttivo e matematico, s’intende tutta quella attività mentale umana che, con un po’ di semplificazione, potremmo dire essere gestita dall’emisfero sinistro del cervello. Infatti, mentre l’emisfero destro sovrintende all’immaginazione e alla creatività e all’arte tonda in generale, l’emisfero sinistro è quello che sovrintende alla razionalità, alle attività logiche e di programmazione, in sostanza all’arte quadra. Per pensiero analogico s’intende tutta quella attività umana, che da un punto di vista funzionale dà luogo a capacità associative e geometriche. Ma dove entri in ciò la tensione verso il sacrale e le differenze tra arte quadra e tonda, nel senso di Fludd, è ancora tutto da scoprire. Se è pensabile che l’arte quadra di Fludd e dei suoi predecessori sia inquadrabile solo in macchine logiche, nulla a nostro avviso può ancora essere detto sull’arte tonda, così vicina all’arte regia. L’uomo può essere aiutato solo nella zona logica, nel suo immaginario razionale. Possiamo affermare che una Macchina Intelligente può permettersi di essere perfetta, senza essere costretta nei vincoli strutturali del cervello umano. Cosi l’evoluzione celebrale dell’uomo, sia in termini individuali sia sociali e in continuo movimento e tale sviluppo è ottenuto mediante due soli fattori fondamentali: l’esperienza personale diretta e l’esperienza indiretta sintetizzata nella tecnologia. Molte individui si rifiutano spesso di avvicinarsi ad una macchina percependola aliena nei confronti del loro modo di ragionare. Viceversa l’aspetto pratico delle nuove generazioni di computer è molto interessante, ed anche negli aspetti multimediali vicino ai dettami dell’Arte classica degli Edifici della Memoria. In più virtuali corridoi che permettono il salto da una stanza all’altra dell’edificio, operazione impossibile su una struttura muraria, ma sempre pensata nella nostra mente! Si spera che l’interesse, suscitato da questi fenomeni straordinari, possa indirizzare una futura ricerca di molti studiosi intorno attorno a questi problemi e che, la natura e il significato della memoria occultista del Rinascimento, diventino in futuro più chiari e quindi maggiormente applicabili.

 

APPENDICE 1: Da Petrarca all’informatica Alla Normale un congresso su “Parole e immagini”

(da: Il Tirreno, 19 maggio 2001)

 

PISA. Il successo della conferenza del videoartista Bill Viola tenutasi recentemente al Palazzo della Carovana, la Scuola Normale conferma la propria apertura verso nuovi spazi intellettuali ed artistici e verso nuovi orizzonti della ricerca, con la creazione di un centro di studi all’avanguardia nell’uso delle nuove tecnologie e nel relazionarsi con i campi più diversi della scena culturale contemporanea. Il Centro per le elaborazione informatica di testi e immagini nella Tradizione Letteraria (CTL) è stato fondato nel dicembre scorso ed è diretto da Lina Bolzoni, presidente del corso di Laurea di lettere e filosofia. Gli scopi di tale progetto mirano a un tipo di ricerca multidisciplinare, che avvalendosi della tecnologia Informatica, approfondisca i rapporti tra parola e immagine presenti nella letteratura.

Si inserisce così nel solco della lunga esperienza condotta dal Cribecu, Il Centro della Scuola dedicato ai Beni Culturali. “Il potenziale innovativo delle ricerche condotte dal Centro- come spiega la prof.ssa Bolzoni – “sta proprio in questo intreccio tra una dimensione di studi prettamente umanistici, centrati in particolare sul Medioevo e sul Rinascimento, un utilizzo sistematico delle più avanzate tecnologie informatiche ed un forte interesse per come i temi delle nostre ricerche si possono intrecciare con le sperimentazioni artistiche contemporanee”. Il CTL – questa la sigla del nuovo Centro, raggiungibile in rete all’indirizzo hyperlink http://www.ctl.sns.it – si avvale di collaborazioni con prestigiose università e istituzioni culturali italiane e straniere, tra cui l’Ecole Normale Supérieure di Parigi, il Warburg Institute di Londra, la New York University e l’Università di California-Los Angeles. Le caratteristiche e le finalità del Centro verranno illustrate nel corso di un’importante giornata di studi, che si terrà nel Palazzo della Carovana lunedì e martedì prossimi. Il titolo del convegno è, non a caso, Parole e Immagini. Linee di ricerca e di elaborazione informatica per un nuovo Centro della Scuola Normale Superiore. Il programma si configura come diviso in due sezioni, nell’ambito delle quali vari relatori si avvicenderanno nell’illustrare le finalità che gli ideatori ed i responsabili del progetto si propongono, nonché le effettive possibilità insite in questo nuovo tipo di ricerca. La prima sezione, vale a dire l’intera giornata del 21 maggio, sarà dedicata all’affascinante tema delle arti della memoria ed al rapporto sussistente tra l’opera di Petrarca e le arti figurative. Lamberto Maffei, professore della Scuola Normale e direttore del laboratorio di Neurobiologia del CNR, terrà un intervento sul legame tra percezione visiva, plasticità e memoria; la presenza di uno scienziato in un convegno di stampo umanistico conferma l’attitudine del Centro per la multidisciplinarità e l’apertura ad esperienze solo apparentemente non conciliabili con gli studi letterari. In serata, il convegno si sposterà nella sede del Cinema Arsenale, dove Paolo Rosa, videoartista di fama internazionale, presenterà al pubblico il suo film Il Mnemonista, a dimostrazione del proficuo legame che la ricerca umanistica può instaurare con le forme più attuali dell’arte cinematografica. La giornata successiva si aprirà con la presentazione dei progetti già avviati dal Centro oppure previsti per l’immediato futuro. L’impegno concreto nel realizzare la rete di collaborazioni internazionali sarà comprovato dalla presenza di tre studiose francesi (Nadejie Lanerie-Dagen, Françoise Graziani e Colette Nativel), peraltro precedute, nella sezione del 21 maggio, dall’intervento di Mary Carruthers, della New York University. Dopo aver nuovamente messo in luce l’ambizione di internazionalità del Centro, l’ultima parte del convegno ne sottolineerà la multidisciplinarità, concedendo ampio spazio a relatori provenienti dal mondo dell’editoria e del teatro. Stella Casiraghi illustrerà le ricerche sul tema della memoria condotte al Piccolo Teatro di Milano, mentre Ernesto Franco, Direttore editoriale di Einaudi, esporrà i problemi relativi alla difficile scelta per la pubblicazione di opere originali e fuori dal consueto “canone”. Il convegno si concluderà alle ore 18 con un appuntamento di carattere musicale: il mezzosoprano Chiara Piazzesi, con l’accompagnamento al pianoforte di Carlo Pernigotti, una scelta di composizioni di Benjamin Britten e Maurice Ravel.

Gabriela Jacomella

 

 

APPENDICE 2: Informatica Umanistica

Intervista a Giuseppe Gigliozzi, Università Roma – La Sapienza di Nunzia Latini

 

La scrittura connette il campo umanistico a quello tecnologico e scientifico.

Per la memoria del vastissimo patrimonio culturale italiano si aprono gli orizzonti del testo digitalizzato.

Per i laureati in lettere, l’informatica umanistica diventa una possibilità professionale da non sottovalutare, già diversi giovani laureati e dottorandi sono stati chiamati a collaborare nell’ambito della digitalizzazione di testi letterari per la costruzione di biblioteche virtuali, ma non solo.

Conferma Giuseppe Gigliozzi, ricercatore all’Università La Sapienza, che si occupa da tempo di Informatica applicata al testo letterario (Computing in Humanities in inglese), ha un affidamento per questa disciplina presso l’Università di Tor Vergata e si occupa del lato tecnico scientifico del progetto TIL (Testi Italiani in Linea):

“Mi pare assolutamente evidente che questa, come poche altre frontiere, sembrano poter offrire sbocchi professionali agli studenti di Lettere. Questo perché la formazione culturale di un “letterato” unita a una buona conoscenza dei problemi teorici e metodologici che stanno dietro al fenomeno informatica, costruiscono uno dei miscugli più ricercati. La ricetta è: competenza tecnica unita alla capacità di collocare il fenomeno da trattare nel proprio contesto, di analizzarlo e di trasformarlo in un efficiente oggetto informatico. Come dire: la tecnica è alla portata di tutti, l’analisi raffinata un po’ meno.”

 

Anche nel progetto TIL sono stati chiamati a collaborare diversi laureati, come sono organizzati? “Nell’ambito della ricerca i più “vecchi” (dottori di ricerca, dottorandi o laureati) stanno svolgendo una funzione di tutor nei riguardi dei più giovani codificatori. Sono di fatto l’anello di collegamento tra la redazione scientifica e chi fisicamente fa il lavoro.”

 

E fuori della ricerca quali sono i possibili inserimenti?

“Fuori della ricerca, nel mondo del lavoro, le occupazioni tipiche di questi giovani sono le collaborazioni con le case editrici, con la RAI, con le software house.”

 

L’utilità delle biblioteche virtuali, che ormai sono molte in tutto il mondo è incontestabile: si frantumano i tradizionali rigidi spaccati tra campi di studio così diversi, con effetti sulla spazialità, su noi stessi, sulla ricerca. Ci sono però difficoltà nuove che si devono capire:

“vanno ricercate su due ordini diversi di motivi. Il nostro progetto si confronta con due tipi di difficoltà: se io digitalizzo un testo, lo faccio ovviamente per poter compiere sul testo elettronico una serie di operazioni che sarebbe impossibile o antieconomico fare utilizzando il testo originale. Dobbiamo garantire la “conformità” del testo elettronico all’originale. Pensiamo solo alla complessità delle informazioni contenute in un testo letterario (semantiche, filologiche, grammaticali, sintattiche, ecc.) e capiremo quanto complesso sarà il nostro lavoro di descrizione. Non meno importante il problema della portabilità dei documenti, che vuol dire indipendenza dalle piattaforme hardware e software. Non dobbiamo, infatti, rischiare che i nostri dati muoiano assieme a una determinata macchina o assieme a un certo programma, ma dovremo essere sempre in grado di conservare l’informazione, qualunque sia il supporto tecnico. Tutte e due queste opzioni si soddisfano per mezzo di un linguaggio di marcatura che dichiari esplicitamente e in maniera univoca l’informazione che intendiamo conservare, assieme al modo con il quale conserviamo la nostra informazione.”

 

L’accesso remoto alla cultura umanistica sarà l’unico velocissimo viaggio, per raggiungere quella ancora lontana pubblicazione, solo in quella biblioteca, solo personalmente. Si annullano le distanze, i tempi di attesa. Ma per costruire un patrimonio unico dunque, bisogna che l’accesso sia riconosciuto da tutti. Si è tenuto all’Università di Roma “La Sapienza” il seminario internazionale “Computer, Letteratura e Filologia” nell’ambito del Progetto TIL , Testi Italiani in Linea, dal 3 al 5 novembre 1999, organizzato dal Dipartimento di Scienze Linguistiche e Letterarie, in collaborazione con l’ Università di Edimburgo, l’Istituto Italiano di Cultura per la Scozia e l’Irlanda del Nord. Parteciperanno i maggiori esperti di informatica applicata alle discipline, che tratteranno anche l’argomento “Per un Curriculum Europeo di Informatica Umanistica” tra cui Lou Burnard, Università di Oxford; Elisabeth Burr, Università Gerhard-Mercator; Roberto Mercuri, Università di Roma I, Tito Orlandi, Università di Roma I, Allen Renear, Brown University, USA; Jonathan Usher, Università di Edimburgo; Antonio Zampolli, Università di Pisa. Si confrontano sulla teoria e la metodologia degli archivi digitali, gli standard di codifica dei testi, l’insegnamento della lingua e della Letteratura in rete. Il progetto vede impegnati il CIBIT, il Centro Italiano Biblioteca Telematica, Tullio De Mauro e Alberto Asor Rosa. Il progetto TIL, e’ la prima ricerca basata su una codifica standard internazionalmente riconosciuta e si basa sull’idea che un testo possa conservare la propria forma testuale originale.

 

Ipertesti e cultura

Ipertesto : se ne sente parlare sempre più spesso ma se diverse persone (non molte per la verità) sono in grado di associare a questa parola la possibilità di “cliccare” sul video una parolina colorata in blu per ricevere come ricompensa una pagina ricca di spiegazioni relative al termine cliccato oppure di istruzioni su come farsi recapitare l’ultimo modello di un qualunque oggetto di consumo, per molte altre appare irrilevante il suo significato in termini di influenze che potrebbe avere sulle metodologie di insegnamento e di apprendimento. La qualità di esse, infatti, sempre più spesso trae linfa vitale dall’informazione e dalla comunicazione; la dotazione (e la qualità) culturale del singolo è sempre meno statica e più dipendente dall’incessante ritmo con cui invecchiano le fonti informative e l’ipertesto permette di dare una risposta a queste nuove esigenze.

Se è vero che, per la prima volta dall’inizio dell’era moderna, si sono accresciute enormemente le nostre potenzialità nell’acquisizione di questi fattori, in passato a disponibilità limitata, è altrettanto vero che dovremo sempre di più porre attenzione nel selezionare le informazioni, al modo con cui sono organizzate e al come intenderemo organizzarle per renderle disponibili. È implicito che in siffatte azioni possa ancora una volta manifestarsi la (storica) tentazione dei manipolatori dell’informazione che potrebbe costituire un pericolo potenziale all’affermazione dell’autentica democrazia elettronica.

L’ipertesto globale costituito da Internet è anche un’opportunità offerta, sia all’utente occasionale che allo studioso, per approfondire le proprie conoscenze su qualunque argomento. Solo pochi anni addietro,ad esempio, le ricerche bibliografiche richiedevano spesso il trasferimento fisico dello studioso presso le istituzioni ove risiedevano le risorse informative: oggi è possibile recuperarle senza muoversi dalla propria sedia, con un considerevole risparmio energetico, materiale e, in definitiva, economico. È già possibile cimentarsi in esperimenti virtuali di fisica e di biologia utilizzando laboratori situati in qualunque angolo della terra, oppure studiare l’anatomia umana con strumenti sofisticatissimi di realtà virtuale…Aumenterà il tempo a disposizione per pensare, elaborare, inventare?

La risposta è affermativa ma ci si deve chiedere se l’italico substrato culturale sia pronto a recepire il significato delle implicazioni derivanti dal fare parte di una comunità allargata quale è quella offerta da Internet. Se fino a qualche anno fa vivevamo in un relativo isolamento fisico e culturale, infatti le innovazioni, le mode, le filosofie ecc., ci giungevano come echi lontani che venivano assorbiti gradualmente, senza alcuna possibilità di replica da parte nostra, oggi è possibile interagire con quei messaggi provenienti dai nostri non più lontani interlocutori per comunicare loro che anche noi siamo dei soggetti attivi, pensanti e non più semplice massa, come un pubblico televisivo. Il mondo è davvero diventato piccolo e si sono accresciute enormemente le possibilità di confronto culturale, tecnologico, scientifico; non solo a livello istituzionale ma anche personale.

 

E in Italia?

La tecnica di stesura dell’ipertesto, in Italia, si sta diffondendo prevalentemente in ambito pubblicitario e stenta ad entrare a far parte del bagaglio culturale del laureato medio . A tale proposito, immaginiamo gli effetti che potrebbe avere l’adozione di questo mezzo sulle bibliografie nelle tesi di laurea, ad esempio. Si deve inoltre rilevare che “nulla o quasi” viene fatto per utilizzare questo nuovo strumento nella didattica. Proviamo ad immaginare le sue positive ripercussioni sulle analisi/sintesi in ambito interdisciplinare… Forse non è che il primo di una lunga serie di modi con cui sarà possibile coinvolgere tutti i nostri allievi in una partecipazione produttiva alla crescita individuale e cooperativa del sapere.

Le strutture ipertestuali, se impiegate adeguatamente, potrebbero contribuire a migliorare le tecniche di elaborazione dei contenuti (potrebbero far riscoprire l’antica, abbandonata, arte della scrittura ad un maggior numero di persone?), la qualità dell’informazione in quanto esse sono fruibili da chiunque, personalizzabili e quindi suscettibili di evoluzione (ipertesti aperti). L’organizzazione e i dinamismi del pensiero subiranno delle radicali trasformazioni?

È vero che il numero delle scuole dotate di aule di informatica è in progressiva crescita, in ossequio alla tanto decantata sperimentazione (ti insegno ad usare un foglio elettronico, a fare una ricerca bibliografica, ecc.;), ma è altrettanto vero che la scuola italiana (la maggior parte dei suoi insegnanti) è ancora del tutto insensibile alle sollecitazioni provocate dall’ ipertesto globale quale può ritenersi sia Internet. Ci sono, allo stato attuale, poco meno di un migliaio di scuole italiane che presentano in rete la propria pagina web ma, al di fuori di un po’ di pubblicità colorata e di qualche fotografia, nulla di tangibile e di fruibile sembra emergere dall’ipertesto .L’utente che approccia un sito fornitore di servizi scolastici si attenderebbe qualcosa di più di un po’di pubblicità (che, tra l’altro, gli costa); perlomeno dovrebbe essergli data la possibilità di consultare lo schedario della biblioteca per poter effettuare delle eventuali ricerche, oppure di prendere visione del curriculum vitae degli insegnanti, di acquisire dati, esperienze, ricerche, svolti dagli allievi e/o dagli insegnanti, al fine di conoscerle, elaborarle, utilizzarle, diffonderle per attivare poi in altri soggetti la continuazione e la crescita dei processi cognitivi e rielaborativi. Prevarrà l’italico individualismo?

Ben venga dunque la diffusione dell’ipertesto come strumento integrante (per il momento) le tecniche di studio e di ricerca tradizionali, facendo attenzione a non confinarne l’impiego nell’ambito esclusivamente umanistico in quanto si presterebbe molto bene anche in campo scientifico e tecnico per elaborare le basi di conoscenza dinamiche, che potrebbero rappresentare la prossima tappa verso la realizzazione di nuovi modelli di intelligenza artificiale .

Le esperienze di numerosi insegnanti italiani che stanno “sperimentando e ricercando” insieme ai propri allievi nuove metodologie didattiche e di studio, se da un lato ci incoraggiano perché sono “pionieristiche” e premonitrici di buona volontà e di impegno, dall’altro ci fanno notare come tutto ciò rischi di rimanere confinato nel “luogo e nel tempo che fu” se non se ne consentirà la stratificazione e la sedimentazione a livello di fatto culturale di massa .

In tale prospettiva, il “Piano nazionale” per l’introduzione dell’informatica nelle scuole di ogni ordine e grado appare nettamente insufficiente in quanto non si tratta semplicemente di dotare ogni scuola di un’aula informatica e di un nodo Internet ma, soprattutto, di riqualificare culturalmente tutto il personale insegnante stimolandolo e motivandolo ad una formazione permanente che lo porti ad evolversi da promotore del sapere a promotore del saper fare, cioè capace dal punto di vista culturale di rispondere alle sollecitazioni provocate dalle nuove tecnologie e di trasmetterle agli allievi, quindi con anticipo rispetto all’ingresso nel mondo del lavoro di questi ultimi.

Sebbene tutto ciò abbia un costo enorme, tuttavia è molto giustificato come investimento di lungo periodo; infatti la nostra società di domani dovrà “farsi i conti” con chi la cultura tecnologica l’avrà saputa elaborare per accrescere l’efficacia e l’efficienza individuali e cooperative.

Già oggi l’ipertesto:

  • permette a chiunque di raccogliere informazioni in un contesto molto ampio;
  • consente di coordinarle ,organizzarle,elaborarle ed offrirle;
  • stimola chiunque sia fortemente motivato a produrre nuove proposte, idee e a presentarle sulla rete attivando così nuove sinergie, grazie anche alla posta elettronica, ai gruppi di discussione e contribuendo a migliorare, in definitiva, i rapporti umani e quindi la crescita culturale ed economica di una moderna società civile.

 

Ipertesto : cos’è ?

Molti autori del passato più o meno recente hanno usato quale strumento di rimando, all’interno di un testo scritto, la tecnica delle note a piè di pagina e dei riferimenti ad altre parti del testo (questo è l’ipertesto) per consentire al lettore di approfondire il significato di una parola e/o di un concetto e di stimolarlo alla formulazione di nuovi elementi .

Queste operazioni, però, sono sempre avvenute nell’ambito libro-lettore, in un circuito quindi chiuso e spesso funzionante in modo unidirezionale. Perciò il testo tradizionale, pur conservando i fondamentali requisiti della comodità di trasporto e della facilità di impiego, presenta sempre di più il notevole limite di ostacolare il lettore nella scelta del proprio percorso di lettura, nell’interazione con l’autore, nel dare il proprio contributo alla crescita del testo con gli apporti personali.

Senza voler sminuire la validità del supporto cartaceo, si può ritenere che l’ipertesto elettronico gli si affiancherà, riuscendo a colmare le lacune anzidette; insieme potranno diventare strumento di crescita individuale e collettiva del pensiero, di stimolo all’approfondimento delle più svariate tematiche che possono derivarne; analogamente alle connessioni neuroniche che si formano nel cervello fin dalla sua origine, evolvendosi nello sviluppo, per giungere alle complesse interazioni fra l’ “Io” individuale e quello collettivo .

Stiamo perciò assistendo ad un cambiamento lento, ma progressivo, di intendere i rapporti fra le persone grazie alla possibilità offerta dai nuovi media di fondere le esperienze individuali in una magmatica esperienza collettiva alla quale ognuno potrà apportare il proprio contributo, consentendo la nascita di nuove “connessioni neuroniche ” fra culture e persone non necessariamente vicine.

I grandi cambiamenti non avvengono mai all’improvviso; richiedono anni perché si formi un substrato fertile, rappresentato dalla cultura, sintesi di molteplici domande che si pongono tutte le persone; occorre un buon seme, indicabile nelle potenzialità delle risorse umane; tutto ciò non può crescere se mancano un buon concime e delle amorevoli cure e cioè le sensibilità politica e sociale all’importanza della cultura, anche nell’evoluzione tecnologica .

L’ipertesto di Internet è frutto di un’articolata e complessa macchina organizzativa che potrà arricchirsi di contenuti solo se si affermerà la volontà di ognuno di noi di farlo crescere in senso costruttivo, come un “sistema nervoso” che si evolve sotto l’azione degli stimoli dell’esperienza……

Nella terra natale di Internet, non è un caso, oramai da alcuni anni si stanno affermando le tecniche di costruzione ipertestuale aperta, simbolo di autentica democrazia in quanto il singolo o il gruppo che elabora questi ipertesti già li vede come potenzialmente fruibili da altri, i quali possono ulteriormente migliorarli, in una crescita teoricamente (e praticamente) senza fine.

Mi domando:quali ripercussioni potrà avere un fenomeno del genere nel nostro Paese? Quanti sono (e chi sono) coloro che sono disposti a diffondere le proprie esperienze,conoscenze, competenze con questo nuovo “strumento di confronto” qual è l’ipertesto?

Purtroppo, i luoghi dai quali dovrebbero partire simili iniziative hanno dei budget molto limitati; il massimo che è loro concesso è avere la pagina web (quindi solo un semplice aggiustamento del trucco) ma al loro interno rimangono obsoleti e quindi nell’incapacità di diventare fonte di arricchimento culturale per gli altri.

Un uso intelligente degli ipertesti e di tutti i nuovi media dovrebbe avere inizio in tutte, proprio tutte, le nostre scuole, in ogni disciplina; si rafforzerebbero gli obiettivi interdisciplinari, sarebbe possibile coordinare e realizzare elaborati simili a tesi di laurea già dalle scuole superiori, diventerebbero più attivi e stimolanti sia il confronto reciproco (anche a grandi distanze) che il dialogo.

 

APPENDICE 3 : Cenni sulle missioni ermetiche dei maestri di Scienza e d’arte tra 1500 e 1600

 

Gli Architetti della mente.

Sulla fine del Medioevo ed agli inizi dei 1600 si afferma la figura degli Architetti e nasce una idea di progetto non sempre dedicato a luoghi concreti ma anche agli edifici della memoria e della cultura in genere. Varie sono le frasi significative in questo senso, che sembrano tutte parafrasare l’idea di Geometra di Platone. Si legge:

 

Penso che nessuno possa considerarsi Architetto se non colui che, fin dagli anni dell’infanzia, salendo i gradini della conoscenza, nutrito dall’apprendimento di un gran numero di lingue a di arti, abbia raggiunto l’alto Tabernacolo dell’Architettura”.

 

E ancora:

 

Il nome di Architettura indica il primato che questa Scienza ha su tutte le altre Arti.”

 

E Platone afferma che l’Architetto è su tutti il “Maestro”.

Per J. Dee l’architettura è “un’arte la cui essenza si fonda sui princìpi astratti della proporzione matematica e dell’armonia cosmica”. In breve, l’architettura è intrinsecamente ermetica a “ha una dimensione magica, poiché le sue strutture sono disegnate a imitazione delle potenti armonie celesti”. I suoi princìpi furono in seguito abbracciati da personalità come Inigo Jones a Christopher Wren e, a cinquant’anni dalla sua morte, entrarono a far parte del complesso di norme della massoneria speculativa, che iniziò a far entrare nelle sue file anche muratori/costruttori del pensiero.

Da un punto di vista cristiano, e in particolare cattolico, J. Dee sarebbe un equivalente del Faustus, ma va ricordato che Faustus è dannato, secondo la concezione cristiana, a causa della sua sete di conoscenza oltre i limiti imposti dalla Chiesa. In termini meno dogmatici, tale ricerca di conoscenza sarebbe encomiabile, in particolare se condotta nell’interesse della società a allo scopo di integrare i diversi frammenti della realtà. Nella sua ricerca, Dee indubbiamente si conformò a questi criteri tanto da rivelarsi non solo Faustus, ma anche il suo opposto, il rovescio della medaglia. J. Dee è il Prospero di Shakespeare, il mago benefico votato al servizio a alla protezione di coloro che gli sono affidati. Non v’è dubbio che il personaggio dell’ultima opera di Shakespeare debba qualcosa a J. Dee. Come dice Frances Yates: “Dee è il perfetto elisabettiano” nel quale “si incontrano Prospero e Francis Drake”.

 

La missione ermetica di Giordano Bruno

È noto che l’eccessiva confidenza fa perdere il rispetto, e Dee aveva vissuto troppo a lungo in Inghilterra per non suscitare, almeno fra la gente, una reazione di questo tipo. Pur potendo contare su amici leali, la sua vulnerabilità, la sua modestia, la sua benevolenza a gentilezza sembravano ispirare più affetto che timore, più riguardo che soggezione. Prospero ispira fiducia, non paura. Non sembra che Dee sia mai riuscito a galvanizzare o a entusiasmare i suoi contemporanei come avevano fatto Agrippa e Paracelso. Se il destino di Dee fu questo, toccò a uno straniero esercitare un’influenza ben diversa a avere un ben diverso impatto. Questo magus ribelle, aggressivo e violento era un italiano, Giordano Bruno.

Di ventun’anni più giovane di Dee, Bruno nacque nel 1548 in un piccolo centro vicino a Napoli. All’età di quindici anni entrò in un monastero domenicano dove il suo temperamento estroverso, ribelle e per molti aspetti megalomane lo portò ben presto a scontrarsi con i superiori. Nel 1576 Bruno si spogliò dell’abito monacale e si dette alla macchia, mentre le autorità ecclesiastiche, che lo avevano ufficialmente bollato come eretico, gli davano la caccia. Per il resto della sua vita, Giordano Bruno fu in lotta con la Chiesa, sempre girovago, sempre polemico a provocatorio, sempre in fuga per non cadere nelle mani dell’Inquisizione.

A Ginevra si attirò ben presto anche l’ostilità del regime calvinista; fu costretto a fuggire a Parigi, dove tenne pubbliche conferenze a nel 1582 dette alle stampe i suoi primi libri. In due delle sue opere si ispirò ad Agrippa a Paracelso e dichiarò di essere un mago altrettanto capace. Forse la sua magia aveva un portato psicologico superiore a quella dei suoi predecessori; o forse egli divulgò apertamente quello che essi avevano preferito mantenere segreto a confidare solo a pochi iniziati. In ogni caso, Bruno adattò le tecniche classiche di addestramento mnemonico (praticate, per esempio, dagli antichi oratori romani) a fini strettamente ermetici. In effetti, egli tentò di delineare un programma di addestramento pratico in base al quale il mago poteva agire sulla propria mente trasformandola in un punto di convergenza dei poteri cosmici, rendere la propria psiche una sorta di campo di forze che attraeva le energie celesti a quindi le proiettava di nuovo all’esterno in forma concentrata.

La prospettiva di acquisire tali capacità guadagnò a Bruno il favore del re di Francia Enrico III, che come sua madre Caterina de’ Medici era da tempo affascinato dalla magia. Ma Bruno, per ragioni che restano oscure, era ansioso di arrivare in Inghilterra. Enrico gli concesse allora una lettera di presentazione per l’ambasciatore francese a Londra, dove giunse nel 1583 prendendo domicilio presso l’Ambasciata che lo ospitò per tre anni.

A Londra Bruno pubblicò nel 1585 i suoi due libri più famosi a importanti, La cena delle ceneri e Lo Spaccio della bestia trionfante, e fu proprio l’Inghilterra a riservargli un’accoglienza cordiale per non dire entusiastica. È noto che visitò Oxford, dove tenne conferenze seguite con ammirazione fanatica e a cui parteciparono molti nomi illustri, come Fulke Greville a Sir Philip Sidney. Non esiste nessuna prova che Bruno abbia conosciuto J. Dee di persona, ma è noto che Sidney, dopo aver assistito a un suo dibattito pubblico, si recò immediatamente da Dee a Mortlake, presumibilmente per informarlo e fargli un resoconto. Durante quel dibattito Bruno aveva esposto e difeso la teoria di Copernico secondo la quale era la Terra a girare intorno al Sole.

È difficile immaginare cosa pensasse Dee di Bruno. Resta il fatto che Bruno era più radicale e possedeva una carica potenzialmente sovversiva. Secondo Frances Yates:

 

“Bruno ha ripreso l’uso di Ficino del talismano con estrema determinazione a senza le sue remore cristiane, poiché egli crede nell’ermetismo egiziano più che nel cristianesimo. Con il suo rifiuto del cristianesimo a il suo entusiasmo per l’ermetismo egiziano, Bruno torna a una negromanzia più oscura, di tipo medievale.”

 

Più di ogni altro mago rinascimentale, Bruno si comportava come un uomo che aveva da compiere una missione che Frances Yates definisce “religiosa, ermetica […], una missione in cui la magia di Ficino si spinge fino al progetto di un ritorno alla religione magica”. Se si guarda da vicino all’opera di Bruno si comprende che egli aveva in mente due obiettivi diversi ma che in un certo senso si sovrapponevano, ambedue accentuatamente rivoluzionari. In primo luogo voleva elaborare una metodologia pratica a concreta, grazie alla quale un aspirante mago potesse trasformare la propria mente in ricettacolo a fonte di potere cosmico. In secondo luogo, tendeva a stabilire nientemeno che una nuova religione universale, o per meglio dire a ristabilire l’antica religione, il sincretismo ermetico di Alessandria in forma rinnovata.

Come sottolinea Frances Yates, Bruno “fa tornare la magia rinascimentale alla sua fonte pagana”, rifiuta i devoti tentativi di Ficino e di Pico di cristianizzare l’ermetismo o di trovare un terreno comune. Al contrario, egli condanna il cristianesimo, lamentandone l’allontanamento dalle divinità classiche a dalla magia dell’antico Egitto. Parlando del corpus ermetico, Bruno esalta il culto della divinità presente in tutte le cose. Seguendo la tradizione ermetica, insiste sull’idea di un tutto unico che tutto comprende e in cui tutto è collegato. Bruno afferma che “una sola a unica divinità che è tutte le cose splende in diversi soggetti a prende nomi diversi” e profetizza 1’avvento di una nuova età di riforma, che verrà determinata “manipolando le immagini celestiali dalle quali tutte le cose inferiori dipendono”. In breve, la concezione di Bruno decreta la creazione di un nuovo ordine mondiale attraverso l’uso magico delle corrispondenze ermetiche fra microcosmo a macrocosmo. Portando a compimento questa nuova realtà, l’uomo (l’uomo mago) diventa in realtà Dio. Con Giordano Bruno, Faust raggiunge la propria apoteosi.

Come nel caso di Agrippa, si pensa che nei suoi viaggi Bruno abbia fondato una rete di società segrete e che, data la sua ammirazione per Agrippa, potrebbero aver fatto parte della stessa rete; fu anche accusato dall’Inquisizione di voler fondare una nuova setta.

Negli scritti dei Rosacroce, Frances Yates vede l’influenza di Giordano Bruno, oltre a quella di Dee; la stessa opinione esprime in riferimento alla massoneria. Verso la fine del XVI secolo

gli uomini cercavano nell’ermetismo religioso il modo di rendere più tolleranti o unite le sette in guerra fra loro. Esistevano in quel periodo vari tipi di ermetismo, cristiano, cattolico e protestante, la maggior parte dei quali rifuggiva dalla magia. Poi arriva Giordano Bruno che prende a fondamento del proprio pensiero l’ermetismo egiziano; predica una specie di controriforma egiziana; profetizza il ritorno alle dottrine a alla cultura dell’antico Egitto, in cui le difficoltà religiose sarebbero scomparse trovando nuove soluzioni; predica una riforma morale, soprattutto in campo sociale, a un’etica del servizio sociale. Dove esiste una tale combinazione di tolleranza religiosa, legame emotivo con il passato medievale, enfasi sulle buone azioni verso gli altri a un attaccamento alla religione e al simbolismo dell’antico Egitto? L’unica risposta che mi viene in mente è: nella massoneria. La massoneria non compare in Inghilterra prima dell’inizio del XVII secolo, ma ebbe sicuramente precursori, antecedenti a tradizioni che risalivano al passato . È difficile squarciare il mistero, ma non possiamo fare a meno di chiederci se non fu tra coloro che provavano un disagio spirituale a che colsero nel messaggio “egizio” di Bruno uno spiraglio di speranza, che per la prima volta aleggiarono gli accordi del Flauto magico.

La natura messianica della missione ermetica di Giordano Bruno non gli impedì di dedicarsi, come avveniva per Dee, a questioni più terrene. È noto che, fra il 1583 e il 1586, Sir Francis Walsingham, amico di Dee a capo del servizio segreto di Elisabetta, aveva ricevuto informazioni dettagliate da un agente segreto che operava all’interno dell’Ambasciata francese. I rapporti riguardavano le fazioni cattoliche in Inghilterra e in Scozia (per esempio quelle legate a Maria, regina di Scozia, e a suo figlio GiacomoVI) e i loro collegamenti con la famiglia cattolica dei conti di Guisa in Francia. È anche noto che l’autore dei rapporti era un italiano, un religioso o ex religioso, implacabilmente ostile alla Spagna a alla Chiesa. Si conservano ancora molte lettere scritte da tale agente che attestano i suoi contatti con Elisabetta a la sua lealtà verso il trono inglese. In un libro pubblicato nel 1991, il professor J. Bossy dell’Università di York ha identificato in Giordano Bruno, con prove convincenti, la spia che agiva all’interno dell’Ambasciata francese.

Per tutta la vita, Bruno dimostrò un’impulsività a un’audacia che rasentavano la temerarietà. Si ha a volte l’impressione che la convinzione di svolgere un compito messianico lo portasse a credere di essere invulnerabile e ciò provocherà la sua rovina. Nel 1586, l’anno in cui terminano i rapporti dall’interno dell’Ambasciata francese, Bruno fece ritorno a Parigi, da dove poi si allontanò per iniziare una serie di vagabondaggi attraverso varie città tedesche. Per sei mesi, nel 1588, soggiornò a Praga, ma non ci sono testimonianze di un suo incontro con J. Dee che in quello stesso periodo si trovava in Boemia; è certo, tuttavia, che conobbe l’imperatore Rodolfo II. Nel 1591 Bruno prese la decisione sconsiderata di tornare in Italia. L’anno seguente fu catturato dall’Inquisizione a Venezia e condotto a Roma, dove per otto anni fu interrogato a sottoposto a tortura. Nel 1600 rifiutò abiurare e ripudiare i propri scritti e fu messo al rogo come eretico.

Diversamente da altri maghi rinascimentali, Giordano Bruno ha anche un posto, seppure relativamente modesto, come letterato, poeta a drammaturgo. Le sue opere letterarie, in latino e in italiano, meritano una certa considerazione sul piano artistico, ma qualunque ne sia il pregio, viene eclissato dagli aspetti straordinariamente visionari dei trattati esoterici. Tuttavia, a causa del loro carattere strettamente individuale, idiosincratico e spesso confuso, i trattati di Giordano Bruno non hanno mai avuto la stessa diffusione del De occulta philosophia di Agrippa o di alcuni testi di Paracelso. È piuttosto come personaggio e come simbolo che Bruno è sopravvissuto fino a suscitare, nel nostro secolo, l’interesse di autori come Joyce. Il carattere spettacolare della sua ribellione, la sua ricerca faustiana, la sua sfida e la sua ostilità intransigente verso Roma, sono tutti aspetti che hanno contribuito a fare di lui l’incarnazione dei valori rinascimentali: libertà di pensiero e di immaginazione, audacia intellettuale, intensità mistica e aspirazioni prometeiche. La sua morte, che ha fatto di lui un martire di quei valori, è un atto di accusa contro la tirannia ecclesiastica che disonora la Chiesa ancora oggi.

 

Il teatro del mondo

Tritemio, Agrippa, Paracelso, Dee, Bruno, Fludd sono gli alchimisti, i filosofi ermetici, se si vuole i maghi rinascimentali più importanti, le figure che più di altre hanno lasciato la loro impronta. Ci furono, naturalmente, altri ermetici minori, alcuni dei quali dettero un loro contributo originale a duraturo. Per esempio Giulio Camillo, il cui teatro magico di immagini della memoria talismanica influenzò Giordano Bruno nella sua opera di addestramento mnemonico a fini ermetici . E ci fu Tommaso Campanella, che passò la maggior parte della propria vita nelle carceri dell’Inquisizione a sfuggì alla condanna a morte fingendosi pazzo. Nella sua opera più famosa, La città del sole, riprende in termini ermetici la concezione umanistica di Tommaso Moro in Utopia. Vale la pena, tuttavia, di soffermarci su quello che può essere considerato l’ultimo magus rinascimentale, l’inglese Robert Fludd.

Fludd (1574-1637) era figlio di un cavaliere, favorito di Elisabetta I, che aveva prestato servizio come tesoriere militare nelle Fiandre. Il giovane si rifiutò di seguire le orme del padre a studiò medicina a Oxford, dove si laureò nonostante fosse noto il suo rifiuto della dottrina tradizionale in favore di Paracelso. Fra il 1598 a il 1604 condusse vita itinerante sul continente, in Francia, Spagna e Italia, e per qualche tempo in Germania, lavorando come istitutore presso famiglie nobili, compresa quella dei duchi di Guisa. Nel 1605 tornò in Inghilterra dove, a causa del suo orientamento ermetico a del suo rifiuto dell’ortodossia, fu obbligato ad attendere quattro anni prima di essere ammesso nel Royal College of Physicians, sebbene già nel 1606 gli fosse stata concessa la licenza per praticare la professione medica.

L’attività gli andò bene e Fludd si sistemò in una bella casa che comprendeva anche un laboratorio dove preparava di persona medicamenti ed effettuava esperimenti alchemici. Si dette anche a un’intensa attività di scrittura, influenzato da Agrippa a Paracelso, ma soprattutto da J. Dee. Non ci sono prove che Fludd lo abbia conosciuto di persona, ed egli non lo cita mai per nome (omissione forse dovuta al fatto che in quel momento Dee era caduto in disgrazia), ma la sua opera ne porta l’impronta inconfondibile. Sicuramente egli ebbe, comunque, contatti con ex discepoli di Dee e può aver avuto accesso a materiale inedito su argomenti come artiglieria, rilevamenti topografici e prospettiva in pittura, in seguito pubblicati da Fludd sotto proprio nome.

Nel 1614, lo studioso Isaac Casaubon effettuò un’analisi testuale del corpus ermetico arrivando alla conclusione che la sua redazione risaliva ai primi secoli dell’era cristiana e non a tempi più antichi, come fino ad allora si era creduto. Nonostante oggi si riconosca che almeno parte del corpus risale a un’epoca precedente, la datazione di Casaubon è universalmente accettata, ed è giudicata corretta la sua affermazione che Ermete Trismegisto non era un personaggio storico, ma una figura composita e romanzata. Fludd ignorò del tutto le scoperte di Casaubon e non si degnò nemmeno di contestarle; continuò a considerare Ermete Trismegisto una figura storica e il corpus ermetico alla pari della Bibbia per autorevolezza a antichità. Come osserva Frances Yates, praticamente ogni pagina di ogni libro che Fludd scrisse contiene almeno una citazione dal corpus ermetico.

Nello stesso anno in cui Casaubon pubblicava il suo studio contro corrente, fece la comparsa in Germania la prima delle pubblicazioni anonime che annunciavano l’imminente rivelazione degli inafferrabili Rosacroce, o confraternita di Rosacroce; un anno dopo ne circolò una seconda. La terza doveva essere pubblicata dopo lo scoppio della guerra dei trent’anni.

Non vi è dubbio che la guerra dei trent’anni fu il conflitto più devastante avvenuto sul territorio europeo prima del xx secolo.

Il protestantesimo sopravvisse in una forma austera, ascetica e intollerante e l’ermetismo fu ricacciato nell’ombra. Un anno dopo lo scoppio della guerra, Johann Valentin Andreae, probabile autore della terza pubblicazione rosacrociana, le Nozze chimiche di Christian Rosenkreutz dette alle stampe la sua ultima opera conosciuta, Christia nopolis, in cui descriveva una società ideale, una sorta d’Utopia costruita in base ai princìpi della geometria ermetica. La vita in questa città appare imperniata sull’insegnamento e l’apprendimento di scienze, meccanica, medicina, architettura, pittura e soprattutto musica; richiamandosi a J. Dee, Andreae sottolinea l’importanza dell’istruzione é dell’inventiva della classe artigianale. Dopo Christianopolis, tuttavia, Andreae tacque, dedicando le proprie energie soprattutto all’organizzazione di una rete di “unioni cristiane” che presentavano aspetti simili a quelli delle logge massoniche a delle società segrete, ma avevano lo scopo d dare rifugio agli ermetici in pericolo.’ Anche Andreae sopravvisse alla Guerra dei trent’anni, ma in modo così appartato che nulla si conosce della sua attività dopo il 1620 .

Forse l’unico magus rinascimentale del XVII secolo, l’unica figura che ricordi Agrippa a Paracelso è il tedesco Jackob Bóhme (1575-1624). Nato in Slesia, Bóhme era praticamente un autodidatta e per quasi tutta la vita continuò a fare il ciabattino. I suoi ripetuti tentativi di creare un circolo contemplativo di pensatori nella città natale di Gorlitz furono contrastati dal pastore luterano locale. Di conseguenza, in vita Bóhme pubblicò poco e le sue opere maggiori apparvero postume. Imbevuto di pensiero ermetico, era particolarmente interessato all’alchimia che, più dei suoi predecessori, egli sembra considerare non tanto una disciplina empirica quanto piuttosto un sistema simbolico, una metodologia psicospirituale di tipo cabalistico che permetteva di giungere all’esperienza diretta del soprannaturale. Allo stesso tempo Bóhme era un vero mistico e tentò di fonder la “pura” tradizione della contemplazione estatica con alcuni aspetti del pensiero ermetico.

Egli tentò poi di tradurre in pratica i propri principi, ma resta essenzialmente un filosofo, un contemplativo e un visionario. Per quanto profonda e illuminante la sua opera possa essere, Bóhme non era a rigor di termini un mago e per certo non avrebbe accettato tale definizione di sé. Verso la fine del XVII secolo godette di grande favore in alcuni amlenti inglesi, come quelli che facevano capo a Elias Ashole e ai fratelli Vaughan; in seguito avrebbe avuto molta influenza su autori come Goethe a Novalis e sui filosofi Schelling, Hegel e Schopenhauer.

Bòhme morì molto prima della fine della Guerra dei trent’anni; Andreae sopravvisse alla guerra, ma la sua opera maggiore fu scritta prima o al massimo durante il conflitto.

Alla fine del XVII secolo 1’ermetismo in Europa era dunque ormai scomparso dalle correnti principali del pensiero religioso, politico e culturale. Se ne trovano poche tracce nell’opera del filosofo Gottfried Wilhelm Leibniz[75], consigliere dell’elettore di Hannover, furono Giorgio I° d’Inghilterra e tutore della futura regina Carolina, moglie di Giorgio II. Frances Yates cita “voci insienti???” secondo cui Leibniz sarebbe stato membro di una società rosacroce clandestina, probabilmente in origine fondata da Giordano Bruno, e afferma che “un’aura ‘rosarociana’ circonda Leibniz”. Di certo la sua filosofia contiene elementi di ermetismo rosacrociano, ma non è questa la ragione per cui Leibniz era conosciuto ed è ancora considerato una figura eminente della filosofia occidentale, figura sulla quale peraltro non mancano le controversie. A pochi anni dalla morte, la sua opera fu oggetto della satira di Voltaire in Candide, e nel nostro secolo Leibniz è forse più conosciuto grazie a questa descrizione satirica che alla sua opera.

Uno dei compiti che, prima del Rinascimento, la religione aveva tentato di assumersi fu quello del collegare i frammenti della realtà in un’unità onnicomprensiva. Quando il tentativo fallì, perché la religione non rappresentava più un collante efficace, la scelta più idonea per raggiungere l’obiettivo sembrò il ricorso al pensiero ermetico, al principio dell’analogia e della corrispondenza.

Agli inizi del xx secolo, la frammentazione del sapere era giunta a un punto cruciale e l’umanità viveva una crisi profonda che, insieme a ciò che Hermann Broch chiamava “disintegrazione dei valori”, era al centro dell’interesse della cultura del tempo. Ma, a parte Jung e altre figure isolate, solo gli artisti sembravano comprendere fino in fondo l’ampiezza del problema e le sue implicazioni. In conseguenza della frammentazione del sapere e della proliferazione delle specializzazioni, i quattro pilastri centrali su cui poggiava l’edificio del razionalismo avevano cominciato a scricchiolare.

Prima del xx secolo, il razionalismo occidentale e per estensione tutta la civiltà occidentale erano fondati su quattro principi: tempo, spazio, causalità a personalità; ad essi era attribuita una validità “oggettiva” che non poteva essere scalfita da nulla di “soggettivo” e irrazionale.

Da quando l’uomo aveva cominciato a misurarlo, il tempo sembrava per così dire “domato”, reso quantificabile dall’orologio e dal calendario. Anche lo spazio sembrava subordinato alla misurazione, e la relazione, il rapporto più o meno costante, fra spazio a tempo appariva ratificato dalla loro immutabilità. Fin dalla preistoria, infatti, gli spostamenti avevano richiesto all’incirca la stessa quantità di tempo, che fossero effettuati a piedi, a cavallo o su carri trainati da cavalli; lo stesso si può dire dei tragitti via mare, che venissero effettuati su imbarcazioni a remi o a vela, sul Mediterraneo come sull’Atlantico. Nel XIX secolo l’avvento della locomozione a vapore aveva modificato tale rapporto in modo significativo, senza tuttavia sconvolgerlo del tutto

.

Nel xx secolo la nozione di tempo e spazio ha cominciato a essere messa in discussione, dal punto di vista teorico da alcune discipline specializzate, e dal punto di vista pratico dall’evoluzione della tecnologia. La psicologia, per esempio, ha ridimensionato il valore della misurazione del tempo e dello spazio esterni dimostrando l’importanza dello spazio e del tempo interni. Tempo e spazio non sono più determinati solo dagli strumenti di misurazione, ma hanno ciascuno un continuum interno al quale è attribuita una validità analoga a quella di spazio e tempo esterni. Di conseguenza, le misurazioni hanno perso il loro carattere di verità per assumere quello di semplici convenzioni, invenzioni di comodo, ma arbitrarie, dell’intelletto umano. Non solo, scienza a tecnologia hanno messo in discussione perfino l’attendibilità di tali convenzioni. Tempo a spazio sono diventati fluidi, mercuriali, incerti, addirittura relativi e la loro relatività può essere sperimentata nella pratica quotidiana. In auto si possono coprire cento chilometri in un tempo inferiore a quello che impiega un uomo a percorrerne otto a piedi; su un Concorde si coprono cinquemila chilometri in un tempo più breve di quello necessario per percorrerne in auto cinquecento. Anzi, su un Concorde si può partire per il giro del mondo il dodici a arrivare l’undici dello stesso mese. La misurazione ha cessato perciò di essere un “fatto obiettivo”.

Se nel xx secolo i concetti di tempo e spazio sono stati sconvolti, lo stesso è avvenuto al principio di causalità. Fin dai tempi antichi, la cosiddetta “legge” di causa ed effetto è stata sempre considerata assoluta e determinante, ma ora ha cominciato a perdere colpi. La psicologia, per esempio, ha dimostrato l’impossibilità di quantificare o semplificare le motivazioni dell’agire umano, insistendo sull’ambivalenza dei comportamenti, che svuota di significato l’equazione logica di causa ed effetto. Indeterminazione, imprevedibilità, elementi casuali a mutamenti inaspettati hanno fatto la loro comparsa nelle teorie scientifiche. In passato si era sempre sostenuto che la causalità procedeva secondo una progressione lineare, “attraverso” lo spazio e il tempo. Ma se spazio e tempo diventano relativi, le basi temporali e spaziali su cui si fonda il principio di causalità si sbriciolano. Questo convinse Jung a elaborare il concetto del tutto nuovo di “sincronicità” o “principio di collegamento non causale”.

Lo sfaldamento del principio di causalità ha avuto ripercussioni su diverse sfere dell’esistenza. La morale, per esempio, era in larga misura basata sul principio di punizione e ricompensa che, a sua volta, si basava su quello di causa ed effetto. Minate le basi della relazione causa-effetto, i meccanismi che governavano la punizione e la ricompensa sono diventati sempre più flessibili. La punizione non è più conseguenza ineluttabile della trasgressione, come la ricompensa non lo è della virtù; al contrario, si può sfuggire alla punizione meritata e ricevere ricompense immeritate.

Se tempo, spazio e causa erano tre pilastri su cui poggiava il pensiero razionalistico occidentale, il quarto era la personalità. Fin dai tempi di Aristotele, il “carattere” era stato considerato una qualità più o meno fissa e l’individuo un’entità unica. In epoche diverse, si era creduto che il carattere fosse determinato da fattori come l’allineamento dei pianeti al momento della nascita, oppure i quattro elementi (terra, aria, fuoco a acqua), oppure i cosiddetti “umori” presenti nel sangue, oppure ancora i fluidi. A eccezione dei casi di malattia, di squilibrio mentale o di conversione religiosa, il carattere era considerato comunque un elemento stabile. Ora, invece, il carattere individuale o personalità si trova improvvisamente a confrontarsi con la propria instabilità, o addirittura con la propria non esistenza. La sociologia ha affermato che la personalità è poco più che una conoscenza, una stratificazione di riflessi condizionati, governati quasi esclusivamente dall’ambiente a dal patrimonio ereditario. La scienza ha avallato queste teorie ed è andata perfino oltre, riducendo il carattere e la personalità a fatto biologico e chimico, a impulsi neurali e al codice del DNA. La psicologia, affermando l’esistenza dell’inconscio, ha dato il colpo di grazia alla personalità come era stata concepita in passato. I sogni, prima considerati qualcosa di estraneo all’identità personale, se non addirittura il prodotto di forze esterne, sono ormai diventati a pieno titolo espressione del sé tanto quanto la coscienza in stato di veglia. La pazzia non può più essere considerata un fatto casuale a nemmeno una malattia nel senso tradizionale del termine, ma piuttosto un’eventualità latente in ogni essere umano. L’uomo è stato obbligato a riconoscere di essere costituito da molti sé, da molti impulsi, molte dimensioni, a volte contrastanti. Il suo carattere o personalità può essere alterato o trasformato con pericolosa facilità da droghe, traumi, deprivazioni sensoriali, condizionamenti, dall’applicazione di elettrodi o di bisturi da parte di un neurochirurgo. Il carattere individuale si rivela contemporaneamente qualcosa di più e qualcosa di meno di quello che l’uomo credeva. Il risultato dell’ampliarsi delle conoscenze è stato che l’uomo è sempre più un mistero per se stesso e da se stesso sempre più alienato.

Più e meglio di chiunque altro è stato lo scrittore del xx secolo a diagnosticare a affrontare la crisi provocata dalla frammentazione del sapere a dalla relativizzazione di tempo, spazio, causalità e personalità. Il poema di T.S. Eliot, La terra desolata, pubblicato nel 1922, rappresenta una summa delle esperienze del nostro secolo. Con La terra desolata il lettore sprofonda nell’assenza di tempo e spazio, nella negazione della causalità a nella disintegrazione della personalità, resta solo una vocina smarrita che disperatamente riordina “questi frammenti che ho ammassato contro le mie rovine”. Per dare appieno il senso del dramma moderno, Eliot non solo cita direttamente i simbolisti francesi, ma usa anche le tecniche ermetiche da loro apprese. Quando trova una via di uscita personale e professionale dalla terra desolata, Eliot lo fa conformandosi ai principi ermetici. Attratto soprattutto dai suoi aspetti rituali, Eliot si convertì alla Chiesa di Inghilterra, ma le sue opere successive, come Quattro quartetti, difficilmente possono considerarsi “cristiane” in senso tradizionale. Al contrario, contengono molti versi, molti passaggi che potrebbero far parte del corpus ermetico a molte parti in cui Eliot impiega le tecniche del simbolismo francese per esprimere il principio ermetico dell’interelazione tra microcosmo e macrocosmo.

 

 

CAPITOLO 2

 

EPSTEMOLOGIA ED EPISTEMOLOGIA DELL’INFORMATICA

 

 

 

2.1. INTRODUZIONE ALL’ EPISTEMOLOGIA

 

L’obiettivo di questo paragrafo è quello d’indicare sommariamente quelli che oggi si considerano i modelli e i paradigmi che oggi sono maggiormente in uso nell’Epistemologia.

Il termine epistemologia deriva dal greco episteme che significa scienza, conoscenza e logos che significa parola, discorso. Quindi una prima definizione di epistemologia può essere: quella branca della filosofia che si occupa delle condizioni sotto le quali si può avere conoscenza scientifica e dei metodi per raggiungere tale conoscenza.

Può essere data una definizione del termine epistemologia, una volta per tutte, facendolo risalire al termine epistema, (dal greco) che significa discorso sulla scienza. Siamo, quindi, nell’ottica di compiere quella che solitamente si chiama una meta riflessione sui principi costitutivi di una scienza, quale che essa sia e prescindendo dai contenuti di dettaglio

Le origini dell’epistemologia, possono esser fatte risalire fin dai tempi dei filosofi presocratici, in quanto già costoro si ponevamo, anche se in maniera non del tutto chiara, il problema della conoscenza. Di conseguenza questa affermazione può far dedurre che la nascita della vera e propria epistemologia è posteriore alla nascita delle scienze, tanto che tale materia viene spesso inquadrata come una ricostruzione del metodo usato dagli scienziati nelle loro indagini sulla conoscenza.

È importante non confondere l’epistemologia con la gnoseologia (dal greco gnosis che significa conoscenza e logos che significa discorso), infatti mentre quest’ultima è più vicina alla filosofia classica ed esamina i problemi a priori della conoscenza in ambito universale, l’epistemologia si interessa della conoscenza intesa come esperienza scientifica o scienza ed è, di conseguenza, volta a studiare i metodi e le condizioni della conoscenza.

Un errore che spesso viene commesso è quello di utilizzare il termine inglese epistemology come traduzione diretta di epistemologia, in realtà tale termine nei paesi di lingua inglese, assume il significato di gnoseologia.

In altre parole, se si ha una scienza e ne voglio analizzare gli elementi costitutivi, se si ricercano i principi costitutivi e le regole che contribuiscono a movimentare l’intera scienza, così che da essa ne possano discendere o sono discese una certa varietà di campi applicativi, dobbiamo metterci nell’ottica di coloro che della disciplina esaminano le “costituzioni”, divenendo noi quindi i “costituzionalisti” nel campo della riflessione metodologica.

L’Epistemologia, nella concezione attuale, si ritiene che si occupi di tre grandi campi :

 

  1. epistemologia delle scienze formali;
  2. epistemologia delle scienze naturali;
  3. epistemologia delle scienze sociali e umane.

 

Su questi tre campi generali si sono effettuate delle specializzazioni ed infatti nell’ambito della epistemologia delle scienze formali, anche da un punto di vista accademico, vi è chi si occupa di epistemologia della matematica, chi invece si occupa di epistemologia della fisica; ed in particolare è nella crisi dei fondamenti, che si può maggiormente vedere la capacità dell’epistemologo a ritrovare le basi fondamentali del ricostruire. Ad esempio se nel caso dell’epistemologia della matematica, vengono analizzati la crisi dei fondamenti, la geometria non Euclidea e magari altre geometrie note solamente agli addetti al settore. Al contrario, nel caso della epistemologia della logica si studiano le logiche polivalenti e nella epistemologia della fisica viene esaminato il momento di crisi che ha segnato il passaggio dalla meccanicistica alla fisica quantistica.

 

Esiste dunque un’epistemologia delle scienze formali, che noi conosciamo meglio come Logica. In essa sono espletate tutte le attività che si connettono con l’analisi dei fondamenti della matematica, dei principi della logica e della teoria delle dimostrazioni ecc. Il discorso, la metariflessione viene compiuta ritenendo che l’oggetto epistemologico, in tal caso, sia la scienza formale.

Poco diremo , esulando dal nostro corso, della epistemologia delle scienze naturali, che forse oggi dovrebbe fortemente connettersi con l’epistemologia delle scienze sociali per meglio comprendere la rivoluzione in atto in termini dell’osservare, in modo maturo e consapevole, l’ambiente, e il territorio, i vari mutui rapporti per gestire il benessere, e la distribuzione delle risorse accanto allo smaltimento dei rifiuti, e la purificazione dell’ambiente, le modificazioni genetiche, la procreazione assistita, la clonazione, la globalizzazione, problematiche queste che vanno fortemente a connettersi con le argomentazioni di studio sull’etica, che sembra oramai campo da riscoprire e valorizzate per iniziare una lotta futura che ci conduca alla gestione di un mondo migliore.

 

Nel campo della epistemologia delle scienze sociali e umane, il cui centro d’interesse è il trinomio mente, natura e cultura, un momento significativo è stato attraversato quando è avvenuto il grande passaggio dalla cosiddetta età dei positivisti e caratterizzato dallo studio delle leggi di sviluppo a quella visione odierna che viene indicata nella attuale teoria dell’azione sociale. In questo passaggio noi leggiamo chiaramente un passaggio dal macro, se si vuole dalla legge dello sviluppo generale storico, all’azione sociale in un contesto-situazione che si esplica invece a livello micro, livello nel quale appunto osserviamo direttamente l’attore ed il suo contesto, anche se nella logica situazionale vengono implicate variabili sistemiche macro, senza rinviare a validazioni storiche, ma nel rapporto struttura zione.

 

Solo ora possiamo farci alcune domande: qual è l’aiuto della meta-riflessione epistemologica sulla scienza? Com’è avvenuto questo passaggio ? Quali sono i criteri che lo fondano?

E’ innegabile che quando si conoscono maggiormente i criteri su cui si fondano i principi di giustificazione dell’oggetto, si conosce anche qualcosa di più sul come adoperare l’oggetto stesso, sul come correggerlo ed integrarlo, in sostanza si arriva a comprenderne sia i limiti che le possibilità.

Ad esempio Gödel enunciò il teorema dell’incompletezza dei sistemi ipotetico-deduttivi, nel quale teorema si afferma che all’interno di un sistema razionale ci sono delle proposizioni indecidibili. Questo significa che la matematica non si giustifica, cioè non giustifica la sua autocontraddittorietà, la sua completezza, la sua deducibilità per intero, dai suoi assiomi e teoremi, e questo perché con i soli mezzi offerti dal sistema non si può affrontare l’esame delle proposizioni indecidibili. La “prova di Gödel ” potrebbe far pensare ad un fallimento totale delle scienze formali, invece essa ci conduce ad un atteggiamento nuovo, alla consapevolezza del possedere una potenza incredibile, potenza del comprendere i limiti entro i quali pensiamo, comparandoli ai limiti entro i quali non pensiamo. Con un linguaggio figurato, ma notevolmente espressivo, posso dire che in un sistema razionale posso compiere nuove operazioni: intanto posso “vaccinarmi” dalle proposizioni indecidibili, eliminandole dalle mie considerazioni e mettendole come dire in “quarantena” oppure le posso sfruttare ponendomi come un osservatore dall’esterno del sistema.

Tipico è l’esempio della non contraddittorietà della Geometria. Le Geometrie non euclidee si costruiscono con modelli euclidei all’interno della euclidea e la loro non contraddittorietà è stabilita mediante un “vaccino” … le geometrie non euclidee sono non contraddittorie se lo è la geometria euclidea. La geometria euclidea, tramite l’ausilio delle coordinate cartesiane rese molto agibili da Monge che ne ha dato l’attuale sistemazione, giocano anche loro un ruolo di riporto (si riesce a dimostrare la non contraddittorietà della geometria euclidea dimostrandola sui numeri reali, sfruttando quindi le relazioni che i vari matematici sono riusciti ad instaurare tra tale geometria ed i numeri reali): … le geometrie euclidee sono non contraddittorie se lo è la teoria di numeri reali … questi a loro volta si riconducono allo studio della non contraddittorietà rispettiva dei numeri razionali, numeri interi, numeri naturali. Occorre quindi fermarsi con l’assiomatica di Peano? Questa deve essere esaminata? È necessario continuare con la Teoria di Russell, con lo studio della cardinalità ed infine è opportuno ricondurre il tutto alla insidiosa Teoria degli Insiemi “non ingenui”? Questi sono i nostri campi d’indagine, i campi di approfondimento, i limiti della teoria!

L’aspetto pratico: … ma allora la matematica è minata? Non è questo il problema, un atto di fede sulla non contraddittorietà dei numeri naturali, se si vuole un’ipotesi di lavoro, lascia vivere al matematico la sua vita di calcolo, gli lascia intatti i suoi teoremi che può vivere in un imperfetto ma ordinato sistema ipotetico-deduttivo o in un imprecisato momento intuizionista.

L’importante, da un punto di vista epistemologico è la coscienza dei limiti delle sue teorie, del suo agire, del senso dei suoi teoremi, esso deve essere pronto ad accettare la critica e la revisione che da quella via gli possa giungere, pronto a non ricadere in un oscurantista “ipse dixit”!

 

Così quando si è davanti ad un ordinato sistema razionale ai fini della coerenza e per gestire l’incompletezza si fuoriesce dal sistema, essendo questa l’unica alternativa che conosciamo all’emergenza del rimanerci imbrigliato. Compiendo questo salto sono condotto a far nascere una teoria EMERGENTISTA del cosiddetto costruttivismo matematico. Quello che emerge e che ci piace far notare è questo atteggiamento al quale ci leghiamo tutte le volte che andiamo a chiudere un campo in verità, nel chiuderlo noi lasciamo aperta una porta, attraverso la quale passiamo ad un altro campo di verità che si connette ed esalta il precedente, vive di luce propria ed opera profonde sinergie! Del resto questo è l’assetto generale della riflessione meta-filosofica. È stato proprio Kant che ci ha dato i limiti della conoscenza umana, ma in effetti nel dare questi limiti ha indicato esattamente fino a che punto e come la mente funziona, cioè ha assegnato le categorie dello spazio e del tempo. Il vantaggio della meta-riflessione di ciò che si fa in un modo intuitivo, spontaneo e a volte automatico viene in tal modo regolamentato entro ben precisi criteri di validità.

Si parla precisamente di criteri di VALIDAZIONE e di GIUSTIFICAZIONE. Noi non abbiamo una macchina (deduttiva) per fare la ricerca scientifica. Tale macchina teorica fu sognata da Leibnitz e prima di lui da Raimondo Lullo, ma non fu nemmeno costruita da Turing! Così la ricerca scientifica avviene con una certa casualità, ed è giusto che sia così, sposando intuizioni e necessità! La scoperta scientifica avviene così in una maniera da taluni giudicata errabonda e disordinata. Una volta ottenuti i risultati nasce un passo successivo, quello della della necessità di giustificarli ed è in questa fase che emerge anche il concetto di rigore scientifico. È come nel problema del legislatore nel senso che le leggi si fanno quando emerge una necessità, cioè le leggi ben raramente sono frutto di deduzioni. In un secondo momento ci si pone il problema di esaminare se una data legge è costituzionalmente coerente, così come avendo delle ricerche particolari che danno dei risultati su di essi costruiamo un paradigma, relativo a quella scienza, in pratica un criterio generativo.

Se pensiamo all’esperimento di Galileo Galilei, quello famoso delle biglie sul piano inclinato, siamo indotti a notare che Galileo ha dedotto un paradigma meccanicistico ed ha formulato un criterio esportabile in altre discipline, tant’è che perfino in biologia, oggi, andiamo ad affrontare dei problemi come la circolazione del sangue, con un approccio meccanicistico, esportando quel paradigma da un settore ad altro completamente diverso.

Quindi ciò che è espandibile è solo un criterio GENERATIVO di una ricerca particolare, criterio che diventa un paradigma solo quando ne abbiamo dato una piena giustificazione epistemologica. Ciò significa che dal criterio generativo abbiamo enucleato i criteri generali ed i principi fondazionali che lo governano, principi che siamo in grado di trapiantare altrove, sapendone la validità ed i limiti.

Questa è la funzione dell’epistemologia. La meta-riflessione non necessita di indagini condotte in grande profondità perché la meccanicizzazione del processo non si riproduce mai allo stesso modo, mai uguale due volte! Dunque il principio da enucleare deve essere sufficientemente largo (non a caso lo si chiama principio) in modo da contenere potenzialmente tutte le novità, ma senza tanto dettaglio da impedirne l’espansione. E’ il principio del bravo costituzionalista che immette una possibilità generativa nel sistema, la logica è che i legislatori futuri abbiano accesso pieno ai principi che il legislatore ha enunciato oggi, e quando invece questo accesso sia superato, obsoleto, differemente ripresentato, occorre operare un cambio di paradigma: in altre parole si rinnova la Costituzione. Questa operazione viene indicata come il SALTO epistemologico, che i francesi chiamano la COUPE EPISTEMOLOGIQUE, cioè il taglio epistemologico. E di taglio in taglio si costruisce un nuovo ambiente epistemologico nel quale osservare il fenomeno o elaborare la teoria.

Ci piace rimarcare che l’epistemologia non è un’attività che può essere fatta da studiosi che non abbiano ampiamente operato o da ricercatori nei campi ove operano. In altre parole ogni ricercatore, una volta raggiunta la maturità di conoscenza in una determinata ampia ricerca sarebbe bene conducesse da se la sua corretta indagine epistemologica, essendo ampio conoscitore delle metodologia e delle tecniche usate nei dettagli di quel sapere e quindi il candidato più idoneo, avendo anche le ulteriori conoscenze epistemologiche, ad operare una sana e costruttiva meta-riflessione.

Può capitare naturalmente che studiosi che non si siano dedicati a specifici campi di pertinenza siano talmente abili e sensibili da osservare ricerche altrui e darne una correttissima visione e analisi epistemologica. Tuttavia notiamo che molti grandi della storia delle Scienze sono stati epistemologi e scienziati, sono stati innovatori delle teorie scientifiche, proprio perché sono stati ottimi analizzatori dei limiti e degli sviluppi delle loro aree di afferenza.

Da questo punto di vista l’epistemologia ci appare come un momento di bilancio dei risultati ottenuti, nel quale lo scienziato, confrontandosi con l’intero mondo della Scienza, prende reale consapevolezza di quello che fa. Per questa via, dunque, la particolare scoperta scientifica, nella realtà legata a fatti concreti, si inserisce nello scibile umano e ne nasce una corretta interpretazione della scoperta stessa, dei suoi limiti e della sua portata.

 

Riassumendo in modo sintetico quanto detto, può dirsi che l’epistemologia:

 

  • tende ad elaborare ed esportare i metodi di prova;
  • induce a perfezionare e dare rigore ai metodi di giustificazione;
  • acuisce ed affina i metodi di interpretazione.

 

in conclusione tende ad enunciare i criteri generali per la validità ed i limiti del risultato scientifico ottenuto ed inquadrato in un il modello generale che costituisce il paradigma.

 

Nel 1929 si ufficializza la nascita di un importante movimento culturale rinnovatore su alcune correnti di pensiero filosofico che furono dette Neopositivismo o Empirismo Logico. Il movimento nacque ad opera di un gruppo che si chiamò Circolo di Vienn e che elaborò un suo manifesto. Di esso fecero parte il fisico Moritz Schlick, i matematici Hans Hahn e Kurt Reidemeister, Victor Kraft, i logici Rudolph Carnap (1891-1970), l’eminente sociologo Otto Neurath (1882-1945), il fisico viennese Philipp Frank (1884-1966 ), Gustav Bergman (1906- ).

La denominazione “Circolo di Vienna” non è di fatto una denominazione geografica, ma esprime il fatto che proprio in Austria e in quel momento si trovò nel Circolo una concentrazione giusta di personaggi che ebbero un atteggiamento costruttivo e radicalizzato nei confronti dell’empirismo, senza per questo dimenticare che se anche l’empirismo è importante, nel più delle discipline, vi sono campi dove può anche non essere così!.

 

Il Circolo di Vienna fonda il suo sviluppo, la sua epistemologia, su poche idee fondamentali che trovano la loro massima espressione nel cosiddetto “trattato di Wittgenstein”. Tuttavia molti rappresentanti del Circolo, dopo l’occupazione nazista, preferirono riparare negli Stati Uniti, [Bergman, Borris, Carnap, Hempel e Frank nel 1938, ] ove fondarono il Circolo di Chicago.

In questo contesto emerge dunque la figura del filosofo viennese Ludwig Joseph Wittgenstein (1889-1951), che esordì giovanissimo come autore del Tractatus logico-philosophicus, che ebbe una profonda influenza sul positivismo logico e sul Circolo di Vienna. Nel suo primo periodo di pensiero filosofico, Wittgenstein, come emerge dal Tractatus, sviluppa l’esame di un realismo empiristico che ammette l’esistenza di un mondo esterno nel quale si muovono gli eventi sotto rappresentazione logica, mentre enuncia la negazione totale della metafisica e più in generale della filosofia. Successivamente Wittgenstein è affascinato dallo studio di una possibilità di un linguaggio ideale cercando di individuare i problemi filosofici, le difficoltà e principalmente le ambiguità insite nel linguaggio stesso. Tali questioni, ovviamente ben si connettono con lo studio dei linguaggi dell’Informatica con i quali il mondo si è dovuto confrontare e si confronterà sempre più nel futuro. E’ ben noto che ebbe, da questo punto di vista, contatti con il filosofo matematico inglese Sir Bertrand Russell (1872-1970), al tempo che questi aveva già scritto i Principia matematica (1910-13).

 

Quindi a Vienna si consolida il gruppo dei NEOPOSITIVISTI sulla svolta dell’epistemologia convenzionalistica dell’800, determinata dall’avvento delle geometrie non euclidee, con l’introduzione delle quali si era capito che il mondo geometrico non era un mondo reale, ma un mondo fortemente connesso con le convenzioni di partenza.

I neo-positivisti a differenza dei loro diretti ispiratori, presentano un approccio diverso nei confronti della verità di base di una teoria. Per i positivisti come A.Comte (1798-1857), G.Stuart Mills (1806-1873), H.Spencer (1820-1903), E.Mach (1838-1916), si ha un ampio rinnovamento per via dell’inserimento di un nuovo strumento dell’analisi logico-linguistica. Tale strumento non era in uso presso i positivisti dell’ottocento, possedendo costoro solo il culto della riprova empirica. Per tale motivo il neopositivismo è chiamato anche empirismo logico, in quanto mette insieme i fatti e la struttura logico-linguistica per poi passare all’interpretazione. Questa fase del neopositivismo, detta ortodossa, ha una breve vita di circa dieci anni.

Negli anni trenta lo stesso Carnap, unitamente ad Hempel e Popper, critica il periodo precedente conservando però dello stesso l’intera ossatura! Tale fase è spesso ricordata come LA FASE LIBERALIZZATA DEL NEOPOSITIVISMO. Il termine liberalizzata indica che i vincoli, indubbiamente abbastanza rigidi, erano stati ampiamente rivisti.

Da un punto di vista storico, lungo il corso del ‘900, l’epistemologia ha attraversato tre fasi.

Per meglio comprendere gli aspetti fondamentali di queste tre fasi, va rimarcato come ogni fase abbia, ad essa associato, un nome principale – quello dello studioso più rappresentativo della epistemologia del periodo .

 

1° fase – CARNAP, logico eccezionale, ha scritto la sintassi logica del linguaggio, che è, in sostanza, un’opera di logica simbolica al massimo livello .

CARNAP centra la sua riflessione sul fatto che nella struttura epistemologica della scienza vige il principio di riduzione teorico-empirico. Detto in breve, una affermazione della scienza è un enunciato linguistico-teorico a cui corrispondono dei fatti. Ricordando che l’empirismo logico è giustificato con metodi logico-linguistici, vediamo che la riduzione avviene con una specie di principio simile a quello di sostituzione. Ciò significa che nel momento in cui ho una teoria posso ridurla via, via a dei termini primitivi, i quali hanno una corrispondenza fenomenica diretta con quelli osservativi. Dai concetti primitivi per deduzione si costruisce un albero genealogico dei concetti, entro cui dalla combinazione dei primitivi ottengo i termini complessi, che in tal modo possono essere sempre ridotti ai primitivi. Lo stesso Carnap scoprì, aiutato da Brigmal, che non era possibile la riduzione integrale.

Ad esempio il termine TAVOLO sarebbe definito nominalmente come termine grammaticale che indica un certo specifico mobile della casa, ma se noi, per il momento, escludiamo il riferimento empirico e tentiamo di darne una definizione per astrazione dobbiamo in un certo qual senso individuarne una caratteristica generale che ci permetta di dire quando differenti oggetti possano essere la rappresentazione dell’oggetto astratto tavolo.

Per fare questo occorre individuare una relazione di equivalenza che ripartisca l’universo degli oggetti in tavoli e non tavoli, ad esempio potremmo dire che l’oggetto deve avere un piano solido di misure approssimative come larghezza, tot per tot, altezza, da tot a tot etc! Se i limiti sono ben studiati prenderemmo parecchi tavoli ma non quelli a tre piedi ad esempio! In definitiva TAVOLO sarebbe una classe di termini estremamente vasta (da pensarsi come illimitata), certamente aperta, in avanti come potenziale di assunzione di tutte le rappresentazioni empiriche escluse e che vogliamo includere a posteriori (l’esempio di ragionamento fin qui mostrato viene oggi utilizzati dagli ingegneri del software in fase di progettazione di software VEDI APPENDICE DA AGGIUNGERE). Tuttavia appare chiara che l’apertura in avanti rimane, cioè non può essere chiusa, dato che possono aversi contro-esempi immediati. Non così è ad esempio nella definizione di cardinalità data da Russel, come il “quid di astratto” che compete a classi di insiemi tra loro equipotenti!

Una dimostrazione fu proposta da Wittgenstein, che osservò come nelle designazioni nominali della scienza succede qualcosa di analogo a quanto accade nelle illusioni percettive (se si vedono delle brocche a due facce è possibile vedere o solo le due facce o sola la brocca). Così nella scienza se io ho un “bastone” posso chiamarlo “bastone da passeggio” o “arma impropria” per i tafferugli di piazza. Quindi è evidente che non è possibile, per gli oggetti reali, una riduzione degli osservativi a teorici oggetti dell’astrazione! Da ciò segue, come rimarcato anche da Popper, che in ogni osservazione, sia pure di un oggetto, nasce una teoria. Infatti ogni termine singolare che osserviamo in una definizione nominale e grammaticale nasconde in se un intero schema universale, schema peraltro aperto e con potenziale estensione da considerarsi illimitata. Per questa via è possibile riconoscere, come elementi di una classe nota, anche oggetti ignoti a priori. Detto in breve, da un punto di vista astratto non è il concetto di tavolo che si individua ma quello di tavolinità, idea apparsa tra le righe anche in Platone. La “tavolinità” in occasione di incontro con quel tavolo empirico non incluso può riconoscerlo includendolo, operando nella direzione della saturazione delle variabili e non creando una costruzione come quando si opera con astratto su astratto (forma di una figura, direzione di una retta, estensione di una figura, cardinalità di un numero sono ad esempio costruzioni).

Questo illimitatezza delle aperture delle definizioni nominali degli oggetti concreti fu uno dei motivi che giustificò l’innesto della fase liberalizzata, il cui maggior esponente fu proprio Hempel. Questa fase è fortemente caratterizzata dall’uso della cosiddetta rete di Hempel.

 

2° fase – Il concetto che vogliamo ora illustrare è la cosiddetta rete teorica di Hempel che si connette all’idea della falsificazione di Popper, la cui idea si riassume nel motto: la scienza afferma in quanto nega.

Comprendere il motto sopra riportato è semplice. Infatti, quando introduciamo una legge scientifica, noi affermano alcune regolarità ma contestualmente andiamo a negare alcune possibilità!. Ne segue che spesso una comprova empirica viene data da un’inclusione che la conferma, ma parimenti da una falsificazione, con la differenza che la falsificazione è illimitata.

Ad esempio quando diciamo che il topo è un mammifero intendiamo dire che la classe dei topi è inclusa nella classe dei mammiferi; contemporaneamente affermiamo che non tutti gli altri mammiferi sono topo. L’inclusione (dei topi nei mammiferi) è contemporaneamente un’esclusione (della maggior parte dei mammiferi dai topi), ossia la verità della circoscrizione è anche per conferma una falsificazione, che la mente umana fa automaticamente.

Dal punto di vista dell’analisi scientifica per l’esclusione di quello che non è si deve fare una descrizione puntuale così da delimitare l’ambito di non validità. Quindi anziché elencare o caratterizzare tutti i casi che non si verificano, si può dare la linea di demarcazione oltre cui cade tutto quello che non è. Quindi la vera riprova è la falsificazione e non la conferma. Dove si hanno sempre conferme nascono le tautologie, in quanto si ripropone l’affermazione di quello che si è posto. Invece si ha scienza quando è possibile tra riconoscere il vero da quello che è falsificabile, cioè deve essere possibile dire a quali condizioni un certo evento non si verifica.

Deve esserci – dice Hempel – un punto di falsificazione. Hempel conclude dicendo che il rapporto tra teorico ed empirico è fatto nel seguente modo: una grande rete galleggia sull’empirico costituita da nodi e legami fra di essi. I nodi rappresentano i termini tecnici della scienza (massa, tempo, velocità, …), i legami rappresentano le definizioni e le relazioni costanti. Da qualche parte della rete pende un filo che si collega all’empirico. Questo è il principio di connessione indiretta. La riduzione dei neopositivisti che doveva essere diretta invece avviene in modo indiretto. Questo filo non è attaccato né ai nodi né ai legami ma è attaccato a caso! Ora quando un singolo nodo, cioè un termine, viene legato con una relazione ad un altro nodo, cioè si ha una regolarità, in effetti si sta mettendo alla prova la coerenza dell’intera rete con una posizione limitata. Questa si chiama sperimentazione OLISTICA, cioè non si mette alla prova la propria teoria ma bensì l’intero paradigma con tutte le teorie in esso inglobate.

Capito questo meccanismo in cui c’è ambiguità ed ambivalenza, nel quale uno stesso oggetto empirico può fungere, mediante la sua classe di equivalenza, come una molteplicità di oggetti scientifici distinguendo “cosa” (concreta) da “oggetto” (astratto) (objectum = cosa che risponde ad una legge, ad una definizione. Mentre la cosa è indeterminata nella definizione ma è individuata percettivamente come cosa uguale per tutti). È come se avessimo una matrice da cui si ricavi tutto, ancora si può vedere una varietà di cose. Questo lascia trasparire la complessità e la polivalenza e la circostanza di come la scienza, essendo selettiva, ha la capacità di destrutturate e poi ricostruire il reale.

 

3° fase – Negli anni ottanta, esattamente a partire dal 1972, Kuhn con le STRUTTURE DELLE RIVOLUZIONI SCIENTIFICHE, Lakatos, Fayerandon e tanti altri, aprono la via dell’epistemologia storica che esprime la sua piena validità ancora tutt’oggi.

Nasce quindi l’epistemologia storica ed in particolare Kuhn, che ha studiato il passaggio dalla fisica meccanicistica a quella relativistica, e scopre l’incommensurabilità dei paradigmi. Si chiama Epistemologia storica perché bisogna commisurare nella trasformazione storica.

Ci si può chiedere a questo punto se sia possibile che le teorie scientifiche siano incommensurabili. Ebbene si. Ad esempio non è vero che Einstein ha perfezionato ed integrato le teorie di Newton infatti la teoria di Newton è valida in un campo più piccolo di quello di Einstein in quanto non descrive il campo dei corpi con velocità v pari alla velocità della luce e quindi Einstein ha introdotto delle variabili che completano queste lacune Newtoniane. Ebbene no. Newton e Einsteien differiscono notevolmente nelle loro teorie perché il primo indicava la massa m = cost mentre il secondo ha introdotto il concetto di massa variabile e trasformabile in energia. Si è fatto quindi un salto di paradigma incommensurabile. E’ come dire di fare lo psicologo entro l’orbita di Yung oppure entro quella di Freud, in tal caso sono stati indossati due occhiali incommensurabili.

Nella fisica deterministica è inconcepibile il salto d’orbita dell’elettrone. Tutto questo lascia immaginare un mondo costituito a carciofo in cui nei vari strati vigono sistemi di regolarità di linguaggi scientifici incommensurabili e non cumulativi. Questo si chiama CONTINGENZA DELLE LEGGI DELLA NATURA.

Quindi Kuhn nell’ambito della giustificabilità del problema scientifico ha introdotto la cumulatività entro il paradigma e l’incommensurabilità fuori il paradigma sapendo che ogni ricercatore lavora con paradigmi fra loro incommensurabili.

L’incommensurabilità è il disconoscimento di legittimità giustificativa perché ogni giustificazione è interna al paradigma, il che significa che non esiste un unico metodo della scienza ma esistono tanti metodi quanti sono i paradigmi. Avendo quindi individuato la discontinuità teorica, l’unica che può salvare una relativa continuità e coerenza della scienza è la traccia dell’unità storica. Ecco perché occorre un’epistemologia storica in quanto non riuscendoci nell’interno della scienza si deve recuperare nella dinamica storica le diversità delle scienze.

 

Riepilogando quanto, cos’è l’epistemologia? L’espistemologia è la riflessione di grado due sulla produzione scientifica di gradi uno. Cioè facendo una ricerca scientifica sia occasionale, sia meditata o pianificata e ottengo un risultato, per vedere come lo interpreto, lo giustifico, lo registro devo trovare il metodo che deve essere designato in senso lato cioè i principi di giustificazione, i principi di costituzionalità ovvero lo statuto epistemologico. Dato quello, si trova il metodo, i criteri di legittimazione, le possibilità ed i limiti. Conoscendo le possibilità ed i limiti, il vantaggio è la possibilità sapere la valenza entro cui si applica o non riapplica, si interpreta in quel modo o in quell’altro. Quindi, riepilogando:

 

  1. Prima fase: principio di riduzione.
  2. Seconda fase: principio della rete indiretta, cioè l’empirismo allargata.
  3. Terza fase: empirismo incommensurabile e tendenzialmente anarchico.

 

Quindi, alla luce di ciò, ogni ricerca si porta dietro il suo metodo e quindi bisognerebbe analizzare metodi non universali. Ricordiamo ancora che i campi di applicazione dell’epistemologia sono tre: scienze formali, naturali e sociali. Ricordiamo ancora che molti tentativi sono stati fatti per tentare delle vie fusionistiche tra mondo umanistico e mondo scientifico.

Il mondo scientifico sempre relegato a disciplina di servizio subì vari mutamenti proprio nel XX secolo. A quanto detto si può collegare l’idea di Benedetto CROCE (1866-1952) che parte sostanzialmente dall’idealismo di Fichte (1762- 1814) ed Hegel (1779 -1831) e passando attraverso il positivismo conduce a quella corrente che e stata detta del neo- idealismo. II Croce distingue due forme teoriche come presenti nella conoscenza: l’intuizione (che non e esattamente quella che abbiamo chiamato emergenza, ma sta forse per creatività progettuale nel complesso) che da luogo all’arte e i concetti che costituiscono la parte filosofica. Croce riconosce due forme di elaborazione pratica o se vogliamo due metodiche della conoscenza: la formazione di pseudoconcetti empirici e classificatori (concetti, non universali tipici delle Scienze Naturali) e la formazione di pseudoconcetti astratti numerativi e misurativi (universali, non concreti come quelli delle Matematiche. La sintesi della visione razionale della Matematica e della Logica e nella frase provocatrice di Beltrand Russell: “La Matematica e quella disciplina nella quale non si sa di che cosa si parla (astrattezza dei concetti di base) e nella quale non si sa se quello che si dice sia vero o falso (“vero” significa solo, nelle teorie razionali, “deducibile dalle premesse”)”. Ancora secondo Croce i concetti matematici non hanno una realtà concreta. Un pensiero che nulla abbia di reale non sarebbe un concetto, ma una funzione concettuale. Un triangolo non serve alla fantasia e nemmeno al pensiero, ma al misuratore di un campo. Secondo il Croce dunque, la Matematica andrebbe respinta dal mondo dell’arte e della filosofia, per essere relegata nella sfera delle attività pratiche. Tuttavia il Croce finisce per ammettere la Matematica nel pensiero teoretico in quanto presente nella storia dell’uomo, almeno in quanto disciplina dell’utile.

Complesso ed interessante, in ambito filosofico, è il raffronto che può essere fatto tra la scienza filosofica e il sapere umanistico allora che lo si confronti con il rigore matematico. Dice Rota:

 

 “… ipnotizzato dal successo della matematica, il filosofo resta vittima del pregiudizio che sia quello 1’unico rigore possibile, e che la filosofia non possa far altro che imitarlo…”

 

Pericolosa era soprattutto la convinzione che quella fosse anzi la sola filosofia, costruita una volta per tutte, senza riguardo per la storia del pensiero. Questo poteva sembrare una sonante vittoria della matematica sulla filosofia: in effetti, si trattava di una sconfitta di entrambe: per la filosofia, che avrebbe perso la sua libertà, il suo diritto di investigare sul pensiero; ma anche per la matematica, che avrebbe perso un interlocutore stimolante e la fonte di inesauribili motivazioni. Inoltre, era convinzione corrente nell’ambito neopositivista che 1’unica metodologia ammessa in matematica fosse quella assiomatica: i postulati sarebbero arbitrari e quindi la matematica non sarebbe altro che un sistema di tautologie. Queste correnti guadagnarono importanza allorché i loro fondatori, in massima parte austriaci e tedeschi (il “circolo di Vienna”), ripararono, con 1’avvento del nazismo, nei paesi anglosassoni: lì trovarono un’atmosfera culturale particolarmente ricettiva e si svilupparono nuove scuole.

C’erano voci controcorrente: per esempio, quelle di Bachelard (1884-1962) e di Gonseth (1890-1975); ma essi potevano sembrare sostenitori di posizioni ormai superate. Fu invece determinante 1’entrata in scena di Karl Popper (1902-1994). ; in realtà il suo libro fondamentale e del 1934; ma l’edizione inglese è del 1959. Considerato all’inizio vicino al circolo di Vienna, se ne distaccò ben presto. In sintesi, possiamo dire che, a proposito del classico dilemma fra “scienza sicura” e scetticismo, Popper sceglie, come Enriques, Bachelard e Gonseth, la “terza via”: la scienza è un continuo progredire, è una costruzione sempre rinnovata. Una delle sue caratteristiche pia importanti e di aver combattuto il neopositivismo anche con le sue stesse armi; e di essersi battuto contemporaneamente (per esempio) contro Wittgenstein, che negava l’esistenza di problemi filosofici, e contro la filosofia come di solito insegnata nelle nostre università, vale a dire senza collegamenti con problemi reali, soprattutto quelli suggeriti dalla scienza.

Con la sua “filosofia critica”, Popper sostenne l’idea che la scienza è sempre una impresa critica che mette in discussione se stessa; una teoria è scientifica nella misura in cui si espone, progredendo, a ulteriori controlli, che potrebbero portare a una sua falsificazione. T. Kuhn dimostrò nel 1962 che questo e vero solo in certi periodi di “scienza rivoluzionaria”, mentre la maggior parte degli scienziati svolge il proprio lavoro in un contesto di “scienza normale”.

Tuttavia, queste ricerche riguardavano le scienze sperimentali, soprattutto la fisica; si allargava così la forbice tra filosofia delle scienze e filosofia delta matematica. Del resto, anche Bachelard spesso si preoccupava di segnalare un distacco fra di esse, per esempio quando affermava che lo sviluppo della matematica non ha incontrato “ostacoli epistemologici”.

E qui che si inserisce Imre Lakatos (1922-1974). Rifugiatosi dalla nativa Ungheria a Londra, e approdato alla “School of Economics” dove insegnava Popper, si lancia nell’impresa di portare le idee di Popper nella riflessione sulla matematica. In questo si ricollega (quasi sicuramente, senza esserne al corrente) al pensiero di Enriques e di Gonseth: ma questo non incide sull’originalità delle sue idee (Enriques e Gonseth erano interessati soprattutto alla geometria, Lakatos alla logica). L’idea centrale e la fallibilità della matematica: per Lakatos, essa è “quasi empirica” (di qui anche un riavvicinamento tra filosofia delle scienze sperimentali e filosofia della matematica): i potenziali falsificatori di una teoria assiomatizzata sono i “fatti” delle teorie informali dalle quali quella ha preso le mosse (1967). Sia Popper e sia Kuhn avevano valorizzato la storia delle scienze sperimentali, così Lakatos valorizza la storia della matematica: essa fornisce esempi concreti di formazione di concetti e di teorie, e anche l’approccio empirico all’epistemologia.

Questo intervento è un invito a partecipare a un “programma di ricerca” sull’importanza della matematica nella cultura: e questo sia guardando al passato, sia studiando la situazione attuale. rizieremo con alcune considerazioni sul rapporto fra matematica e cultura negli ultimi decenni.

Un libro di Enriques ha fatto il punto su matematica e cultura, nell’immediato anteguerra: Le matematiche nella storia e nella culture (1938). Sono evidenziate interazioni fra la matematica e le scienze, la tecnica, la filosofia e l’arte, mettendone in rilievo anche gli aspetti storici e psicologici: sono pagine ancor oggi di grande interesse.

Tuttavia, si profilava ormai una tendenza ad allentare queste interazioni: soprattutto in Italia, sotto l’influsso del pensiero di Gentile, che non solo poneva una barriera fra “scienze” e “umane lettere”, ma anche sconsigliava agli scienziati di interessarsi di quello che facevano i colleghi. L’intero mondo culturale si muoveva, lavorava e si era organizzato in questo senso, promuovendo l’incomprensione assoluta fra studiosi di ambiti differenti, incomprensione che si esasperava allora che il contatto si stabiliva tra uno studioso dell’ambito umanistico con l’altro del fronte tecnico- scientifico o tecnologico.

La seconda guerra mondiale, creò un periodo in cui si consacrò la tecnologia e con essa il trionfo per la scienza e per la tecnica. I prodotti della scienza: il radar, la propulsione a getto, la fissione degli atomi, gli antibiotici, ecc. e quant’altro ne segnarono la supremazia. Il binomio scienza e tecnica (i cui meriti, da allora sono spesso confusi, ma anche intrecciati tra loro) si prendeva una grossa rivincita sopra la cosiddetta “cultura umanistica”.

Anche nel campo della matematica vi erano grandi novità: i primi calcolatori irrompevano prepotentemente sulla scena, costruendo quel ponte diretto fra matematica e tecnica, che fin ad allora aveva avuto come intermediaria la fisica!

In questo modo, sembrava dopotutto realizzato il principio neoidealista, quasi neo-platonico, contro cui si era aspramente battuto Federico Enriques. Platone collocava la matematica a metà strada tra il mondo sensibile e quello delle idee, il neoidealismo tendeva a collocare la matematica ancora tra questi due mondi della conoscenza e della vita pratica confinandola nel settore dell’utilità (il che evidentemente non si concilia con l’honneur de l’esprit humain).

Parallelamente, all’interno della matematica, si affermava la scuola di Bourbaki. Il movimento che è possibile definire come la prima rivoluzione matematica del XX secolo, iniziatosi negli anni Trenta, con l’obiettivo apparentemente limitato di dare un nuovo taglio ai corsi universitari di analisi, in esso si era andato via, via sviluppando un nuovo modo di concepire e di costruire la matematica: per quanto possa essere interessante, fra i suoi principi fondamentali c’era quello di prendere le distanze da “una lunga tradizione” basata su “idee a priori relative alle relazioni della matematica con il mondo esterno e con il mondo del pensiero”. In altre parole, si trattava di autofondare la matematica: il piano è contenuto nei “libro primo” degli Elements de Mathematique, che si propone di costruire un linguaggio formale nel quale inserire la teoria degli insiemi e l’idea di partire da poche strutture quali quelle algebriche, topologiche e d’ordine per ricostruire assiomaticamente tutto il sapere.

La prova di Gödel doveva riportare questa rivoluzione su nuovi binari, ma forse la seconda rivoluzione matematica del XX secolo, quella informatica, doveva riportare in auge quello sperimentalismo che sta vivendo una nuova ed affascinante avventura nell’ambito dell’informatica che, insinuandosi in ogni ramo del sapere, costituisce il collante ideale per una forma di neo-fusionismo.

 

 

2.2. IL PARADIGMA DELL’ABDUZIONE COME EMERGENZA DI CREAZIONE

 

Il paradigma, nel senso di Kuhn, indica una conquista di tipo scientifico, universalmente accettata nel settore a cui si riferisce, la quale, per un periodo di tempo apprezzabile, fornisce un modello di natura qualsiasi atto ad inquadrare alcuni problemi ottenendo relative soluzioni, accettabili per quelli che si occupano di quel campo di ricerca[76].

La paternità del termine “paradigma indiziario” può essere sicuramente attribuita a Carlo Ginzburg, il quale è sicuramente il primo a teorizzare esplicitamente quel metodo che è stato usato, tra il 1874 il 1876, da Giovanni Morelli sotto lo pseudonimo di Ivan Lermolieff[77] per dare la paternità alle opere d’arte e che gli storici dell’ arte chiamano ancora oggi “metodo morelliamo”.

Morelli, nelle sue opere, inserisce illustrazioni di orecchie e di orecchie, ritenendoli particolari che, in base alle loro peculiarità, possono far risalire ad un determinato artista, così come un criminale, lascia le sue impronte digitali su una scena del delitto. Questo paragone ha permesso a Castelnuovo di accostare il metodo indiziario di Morelli al metodo utilizzato da Arthur Conan Doyle nei suoi gialli, dal personaggio creato da lui, Sherlock Holmes[78], che sulla base di indizi impercettibili ai più, scopre l’autore del delitto, così come Morelli riesce a rintracciare un autore di un quadro, sulla base di particolari minori.

Un altro estimatore del metodo di Morelli è sicuramente Freud, che ne “Il Mosè di Michelangelo” (1914), scrive del modo in cui è venuto a conoscenza di Morelli e del suo metodo, paragonando quest’ultimo alle tecniche della psicoanalisi medica, in quanto anche questa “è avvezza a penetrare cose segrete e nascoste in base a elementi poco apprezzati o inavvertiti, ai detriti o rifiuti della nostra osservazione[79]. Ed è proprio la proposta di un metodo basato sugli scarti e sui dati marginali che possono rivelare la chiave per accedere ai prodotti più elevati dello spirito umano attirano Freud[80]. Il “Mosè di Michelangelo”, apparve dapprima anonimo, l’autore riconobbe la paternità al momento di includerlo nelle sue opere complete. Questo è un altro punto in comune tra i due, che permette di poter affermare che vi fu un notevole influsso intellettuale esercitato da Morelli su Freud in un periodo pre-datato alla scoperta della psicoanalisi[81]. Inoltre Freud manifestò il suo interesse per le avventure di Sherlock Holmes ad un suo paziente e ad un suo collega che accostava i metodi della psicoanalisi a quelli dell’investigatore, parlò delle tecniche attributive di Morelli[82].

Si può affermare, a questo punto, che vi è una certa analogia tra i metodi utilizzati da Morelli, da Freud e da Holmes, in quanto in tutti e tre i casi vi sono delle tracce che consentono di carpire realtà nascoste: sintomi nel caso medico, indizi nel caso investigativo e segni pittorici nel caso artistico. Altro punto in comune tra lo scrittore di gialli, il critico d’arte e lo psicoanalista è il fatto che tutti e tre avevano rapporti con la semiotica medica, in quanto tutti avevano studiato medicina. Erano capaci di diagnosticare malattie i cui sintomi erano superficiali e irrilevanti per coloro che erano al di fuori della conoscenza medica.

Il sapere venatorio può a buon diritto rientrare nel campo in cui opera il paradigma indiziario, in quanto le documentazioni inerenti a questo campo, come pitture rupestri, manufatti e fiabe, rientrano nella tipologia di informazioni incomplete. Una fiaba orientale[83] narra di tre fratelli che incontrano un uomo alla ricerca di un cammello, i fratelli descrivono in modo impeccabile l’animale senza esitazione e vengono accusati del furto. In realtà i tre non hanno visto il cammello, e dimostrano come attraverso indizi minimi, sono riusciti a ricostruire l’aspetto dell’animale. Questi riescono a risalire, da dettagli trascurabili, alla realtà che non è sperimentabile direttamente, grazie ad un sapere di tipo venatorio.

I testi divinatori mesopotamici, redatti dal III millennio a.C. in avanti, cercano nelle interiora di animali, gocce d’olio nell’acqua, astri, movimenti involontari del corpo ed altro, le tracce di eventi che non possono essere notati direttamente da chi osserva. Si trovò una certa somiglianza nel metodo venatorio con il metodo divinatorio, la divergenza principale è che il primo metodo è rivolto al passato mentre il secondo al futuro. L’invenzione della scrittura influenzò la divinazione mesopotamica in quanto alle divinità veniva attribuita la prerogativa di comunicare con i sudditi attraverso messaggi scritti dappertutto e che gli indovini avevano il compito di decifrare. Le caratteristiche della scrittura cuneiforme rafforzavano le tecniche divinatorie, in quanto come esse, designano cose attraverso cose[84]. Si può parlare di paradigma indiziario o divinatorio verso il passato, il presente e il futuro. Troviamo la divinazione quando si rivolge al futuro e la semeiotica medica, nel senso diagnostico e prognostico, quando si rivolge a tutti e tre i tempi.

Passando dalle civiltà mesopotamiche alle civiltà greca, le considerazioni sull’utilizzo di tecniche divinatorie, cambiò notevolmente, grazie alla nascita di nuove discipline e alla conquista di nuove metodologie di ricerca delle vecchie discipline. Il nuovo metodo di indagine escludeva a priori l’intervento divino, metodo di cui siamo eredi. Il paradigma indiziario ha svolto un compito di primo piano in questo cammino, ciò è evidente dal fatto che la medicina ippocratica partiva dai sintomi per definire i propri metodi. Nell’impossibilità di aspirare ad una realtà sperimentale si trovano, secondo i greci, molte categorie che quindi utilizzano il metodo congetturale.

La nascita di un paradigma galileiano, ha portato una grande trasformazione nei metodi di ricerca utilizzando rigore e scienza come presupposto generale. Chiaramente, il gruppo di discipline che abbiamo chiamate indiziaria, non rientra nelle scienze galileiane in quanto: “Si tratta infatti di discipline eminentemente qualitative, che hanno per oggetto casi, situazioni e documenti individuali, in quanto individuali, e proprio per questo raggiungono risultati che hanno un margine ineliminabile di aleatorietà”[85]. La storia sicuramente non è mai stata una scienza galileiana e allo stesso modo può essere definita come una scienza che usa metodi indiziari. Lo storico, può essere paragonato ad un medico che si basa sui sintomi per pronosticare malattie, nel senso che la sua attenzione, rivolta ad una serie di fenomeni, più o meno comparabili tra loro e che hanno un incompleta o incerta documentazione, può portare a delle conclusioni congetturali sulla realtà di un evento in considerazione. In questo senso la storia è indiretta, congetturale, indiziaria.

Un alto personaggio storico che si dedico alla pittura e esercitò la professione di medico fu Giulio Mancini. Costui aveva abilissime capacità diagnostiche che talvolta venivano descritte con termini del lessico divinatorio[86]. Mancini scrisse un’opera che circolò in forma manoscritta chiamata “Alcune considerazioni appartenenti alla pittura come diretto di un gentiluomo nobile e come introduzione a quello si deve dire”.

C’è un presupposto che sembra ovvio ma non lo è, cioè quello che le opere d’arte siano uniche per definizioni, tra l’originale ed una copia vi è una differenza ineliminabile. Questa differenza naturale, diventa di secondo piano nel caso in cui abbiamo a che fare con un’opera letteraria, in quanto, questa, presenta della differenze tra originale e copia, relativamente irrilevanti nel senso che un opera di Leonardo è unica in quanto il suo valore è dato anche dalla sua unicità, mentre un libro può essere copiato in milioni di copie senza far perdere il significato dell’originale .

Secondo Mancini, si poteva elaborare un metodo capace di distinguere gli originali dai falsi, cioè le opere dei maestri dalle copie, cercando nelle pitture quegli elementi inimitabili[87], “…come sono in particolare i capelli, la barba, gl’occhi. Che l’anelare de’ capelli, quando si han da imitare, si fanno con stento…”[88] continua poco dopo “…et queste parti nella pittura come i tratti e gruppi nella scrittura…”[89]. In questo modo l’autore inserisce un nesso tra scrittura e pittura in quanto attribuisce ai tratti dei dipinti, dei termini usati per descrivere i tratti di scrittura. Quindi l’identificazione della mano di un maestro doveva essere ricercata nelle parti che erano condotte più velocemente e quindi sganciate dalla rappresentazione del reale, in modo simile a come si poteva riconoscere, dal tratto di un carattere, la personalità di chi scriveva.

Come si è precedentemente detto, a proposito del metodo galileiano, quanto più i tratti individuali vengono considerati pertinenti, tanto meno viene la possibilità di una conoscenza scientifica. Bisogna dire che la propensione a individuare i tratti individualistici, dipende dall’emotività dell’osservatore, nel senso che se si ha a che fare con due palazzi quasi identici o con inserti simili, dipende dall’analizzatore la ricerca e la capacita di individuare tratti distintivi. Sicuramente un architetto troverà nei palazzi molte differenze e ne noterà di meno tra gli inserti, mentre uno studioso di inserti, compirà lo stesso pensiero al contrario. Un buon esempio di ciò, si può trovare nell’evento della nascita di un vitello bicefalo, nei dintorni di Roma nel 1625. Questo strano evento, fa nascere la domanda se l’animale si possa considerare come singolo o doppio. La risposta dipende a sua volta dal soggetto interrogato, in quanto per i medici l’elemento centrale è il cervello, mentre per i seguaci di Aristotele il cuore[90].

Ci furono dei tentativi di introdurre il metodo matematico nello studio dei fatti umani, come è un esempio quello degli aritmetici politici che si basavano sugli avvenimenti salienti della vita umana come nascita, procreazione e morte. La nascita di questa scienza, la statistica, non si distaccò del tutto dalla sfera delle discipline indiziarie, in quanto il calcolo delle probabilità, cercava di dare fondamento matematico a ciò che prima era reso noto dalla divinazione[91].

Nonostante i progressi compiuti dalla scienza medica, i metodi e i risultati ottenuti, apparivano incerti e dubbi, inducendo Cabernais a riconoscere alla medicina una scientificità sui generis[92]. Ciò dipendeva dal fatto che non era sufficiente catalogare le malattie, in quanto, a seconda dell’individuo, queste assumevano caratteristiche diverse ed in secondo luogo la conoscenza delle malattie era ritenuta indiretta ed indiziaria. Concludendo, la medicina non poteva raggiungere il rigore delle scienze naturali, in quanto era impossibile la quantificazione che dipendeva dalla presenza ineliminabile dell’individuale che a sua volta dipendeva dal fatto che l’occhio umano è abile a cogliere le differenze anche marginali tra gli esseri umani.

Comunque alla medicina veniva dato un posto di rilievo, in quanto essa era considerata come scienza dal punto di vista sociale, privilegio di cui non tutte le conoscenze indiziarie beneficiavano. Come per esempio la capacità di riconoscere il valore di un cavallo dalle orme della cavalcata, oppure l’arrivo di un temporale dal cambiamento del vento, ancora le intenzioni celate nei segni del volto di una persona. Queste forme di conoscenza non riscontravano di certificazioni scritte, bensì venivano tramandate oralmente oppure venivano apprese tramite esperienze dirette, che a volte non potevano essere rappresentate verbalmente. È proprio l’incapacità di servirsi dell’astrazione che rappresenta sia la forza sia il limite di questo tipo di sapere[93]. Comunque di questo tipo di sapere, si era iniziato ad occupare la cultura scritta, come nel caso dei trattati di fisiognomica che cercava di schematizzare i tratti fisici di alcune tipologie di identità. Probabilmente però solo la medicina, mediante la codificazione del sapere indiziario, si era realmente arricchita.

Nel ‘700 la borghesia inizia ad appropriarsi del sapere indiziario degli artigiani e dei contadini modificandolo a gran velocità. Il processo di accumulazione di conoscenze tra il 700 e l’800, la raccolta di questi “piccoli discernimenti”[94], alimentano nuove formazioni di antichi saperi. I libri, permettevano l’accesso a determinate esperienze, ad un numero sempre maggiore di lettori. Il paradigma indiziario fu messo in risalto anche grazie alla letteratura di immaginazione.

A proposito della presunta origine venatoria del paradigma indiziario, si è già menzionata la fiaba dei tre fratelli che tramite indizi riescono a capire l’aspetto dell’animale. Questa novella apparve dapprima in occidente[95], fu presentata come traduzione dal persiano in italiano a Venezia a metà del 500 con il titolo Peregrinaggio di tre giovani figliuoli del re di Serendippo. Il libro fu più volte ristampato e successivamente tradotto nelle principali lingue europee. Ebbe un successo tale che indusse Horace Walpole a coniare il neologismo serendipity, avente il significato di descrivere delle scoperte improvvise realizzate grazie al caso e all’intelligenza. Anche Voltaire rielaborò nel terzo capitolo di Zadig questa novella, come vedremo in seguito.

Su questa base si poté trovare l’embrione del romanzo poliziesco che si basa sulla conoscenza di un metodo indiziario che ha radici antiche e riscontri moderni. Il metodo di Zadig fu citato da T. Huxley nelle conferenze atte a diffondere le scoperte di Darwin[96], definendolo come processo accomunante storia, geologia, astronomia fisica e paleontologia. Aveva la capacità di fare profezie retrospettive. Si basava sul presupposto che se non sono riproducibili le cause si può solo inferire degli effetti[97].

Morelli, con il suo metodo, propone di rintracciare all’interno di un sistema di segni come quello pittorico, dei sintomi che hanno la caratteristica dell’involontarietà. In questi indizi involontari, paragonabili alle parole e alle frasi usate dagli uomini che le inseriscono nei discorsi senza rendersene conto, Morelli rintraccia ciò che caratterizza l’artista. Facendo così mette in pratica il metodo formulato precedentemente da Giulio Mancini. Il fatto che questi metodi vengono esaltati da Morelli è dato dalla tendenza ad un controllo qualitativo e capillare sulla società da parte del potere statale, basata sui tratti minimi e involontari dell’individuo, che emergeva in quel periodo[98].

Per far fronte all’esigenza di distinguere i propri componenti che ha ogni società, si sono trovati molti metodi, che si distinguevano a seconda dei tempi e dei luoghi[99] in cui venivano usati. Il primo metodo è sicuramente quello della distinzione per nome, ma quanto più una società risulta ampia, tanto più il nome non è sufficiente a garantire l’identità. Nell’Egitto greco-romano, il notaio, registrava il nome con accanto una sommaria descrizione dei caratteri fisici di coloro che dinanzi a lui si impegnavano a sposare una donna, oppure compievano una transazione commerciale[100]. La firma, usata nei contratti, presentava molti vantaggi, alcuni sostenevano che l’inimitabilità della scrittura personale era stata voluta dalla natura per sicurezza della società civile[101]. Certamente le firme avevano degli inconvenienti in quanto potevo essere falsificate ed escludono dal controllo gli analfabeti.

Soltanto alla fine dell’800 iniziarono a venire proposti nuovi metodi di identificazione. Con l’emergere dei rapporti di produzione capitalistica, che aveva trasformato il concetto di proprietà e di legislazione, aumentando il numero di reati punibili e l’entità delle pene, fu costruito un sistema carcerario fondato su una lunga detenzione[102]. Bisognava risolvere il problema dell’identificazione dei recidivi, per riconoscerli bisognava provare prima di tutto che un individuo era già stato condannato e in secondo luogo che l’individuo in questione era lo stesso che già aveva subito condanne[103]. Il primo fu risolto dall’introduzione dei registri di polizia, il secondo poneva difficoltà più gravi.

Un impiegato della prefettura di Parigi, chiamato Alphonse Bertillon, nelle 1879 elaborò un metodo antropometrico, basato su delle misurazioni corporee che venivano riportate su una scheda personale. Il difetto principale di questo metodo si trovava nella sua negatività in quanto permetteva di scartare due individui diversi ma non permetteva di affermare che due serie identiche appartenessero allo stesso individuo. Per ovviare a questo inconveniente, Bertillon propose di integrare il metodo con il cosiddetto “ritratto parlato”, cioè con una descrizione verbale delle parti del viso come naso, orecchie, occhi che unite alle altre informazioni avrebbero restituito l’immagine del singolo. Ma i problemi che bisognava risolvere, in questo modo non furono affatto risolti.

Un metodo di identificazione molto più semplice per quanto riguarda la raccolta dati e la catalogazione fu proposto da Galton nel 1888, questo si basava sulle impronte digitali[104]. L’autore stesso però riconosceva di essere stato preceduto da altri. L’analisi scientifica delle impronte digitali fu iniziata da Purkynĕ[105], che descrisse nove tipi diversi e di fondamentali linee papillari, affermando che non esistono due individui con impronte digitali identiche.

Anche gli indovini cinesi e giapponesi, si interessarono alle forme poco visibili delle linee che solcano la pelle della mano. In Bengala, ma anche in Cina, si usava imprimere il polpastrello sporco di pece o di inchiostro sulle lettere e sui documenti[106], si riteneva che ciò era dovuto ad una serie di riflessioni di carattere divinatorio[107], in quanto chi era abituato a riconoscere segni nelle tracce lasciate dagli uccelli o nelle trame disegnate sulle corazzate tartarughe, era anche propenso a leggere i segni celati tra le linee dei polpastrelli. Sir William Herschel, amministratore capo del distretto di Hooghly in Bengala, nelle 1860, si accorse di quest’usanza e penso bene di servirsene per il miglior funzionamento della amministrazione britannica. Venti anni dopo, Herschel, annuncio su Nature che dopo 17 anni di prove, le impronte erano stati introdotte ufficialmente nel distretto di Hooghly dove venivano usate da tre anni con ottimi risultati[108]. In questo, modo i funzionari inglesi, si appropriarono del sapere indiziario dei Bengalesi, ritorcendolo contro di loro[109].

Galton, traendo spunto dall’articolo di Herschel, approfondita la questione, riflettendo sull’unione di tre elementi quali

 

  • la scoperta di Purkynĕ, ritenuto uno scienziato puro;
  • la concretezza del sapere delle popolazioni Bengalesi;
  • la furbizia amministrativa e politica di Herschel;

 

cercò, senza successo, di distinguere delle peculiarità razziali a cui poter risalire dalle impronte digitali. Si promise di continuare queste ricerche su alcune tribù indiane, nella speranza di trovare nei polpastrelli delle popolazioni autoctone caratteristiche “più vicine a quelle delle scimmie”[110].

Questo metodo, si diffuse quasi subito in tutto il mondo, in tal modo accade che ogni essere umano, acquisisce un identità ed una individualità in cui ci si può passare in maniera certa e duratura[111].

Da Galileo in poi, le scienze della natura sono state poste dinanzi ad un dilemma: o assumere uno statuto scientifico debole per arrivare a risultati rilevanti oppure assumere uno statuto scientifico forte per arrivare a risultati di scarso rilievo[112]. Vi è un dubbio, cioè a che questo tipo di rigore sia inutile per quelle forme di sapere che si basano sull’esperienza quotidiana. Si è affermato che l’innamoramento è la sopravvalutazione delle differenze marginali che esistono tra una donna e un’altra, ciò può essere applicato anche a delle opere d’arte o ai cavalli[113].

Queste situazioni necessitano della messa in pratica del paradigma indiziario, dell’utilizzo di quelle forme di sapere che sono per natura mute, cioè di quelle conoscenze che non possono essere spiegate verbalmente e non possono essere formalizzate. È proprio in questo tipo di conoscenze che entrano in gioco elementi imponderabile come fiuto, colpo d’occhio, intuizione[114].

L’idea che quando la realtà è opaca, vi siano delle spie o degli indizi, costituisce il nucleo del paradigma indiziario, che di fatto instrada tra le varie materie della conoscenza.

I1 sogno di Leibniz di trovare gli elementi semplici della conoscenza furono riprese dal Lambert. L’idea di sostituire il linguaggio ordinario con un più perfetto linguaggio formale è presente in logici matematici inglesi del secolo XIX quali A. De Morgan (1806-1876), G. Boole (1815-1864), C.S. Peirce (1839- 1914).

Taluni autori, tra i quali Eco e Gisburg, ad esempio, hanno evidenziato una connessione tra Peirce, figura mitica, reale e di misteriosa grandezza con l’indecifrabile essere virtuale che risponde al nome[115] di Sherlock Holmes, creazione letteraria di Sir Artur Conan Doyle, ma che ha assunto un ruolo di personaggio virtuale reale. Conan Doyle nel 1888 creò il suo personaggio Sherlock Holmes e gli diede forte caratteristiche abduttive. Schiacciato dal suo personaggio fu costretto a “farlo morire” nel 1891 e poi a risuscitarlo nel 1894 a furor di popolo. Oggi non sono pochi i Club Sherlock Holmes che negano una reale esistenza di Doyle, giocano a credere che Holmes sia stato un reale personaggio. E così un personaggio dotato di “forte emergenza” addirittura uccide sia pure virtualmente il suo creatore, sia pure emergente ma in dose minore. La “esperable uberty” (o auspicabile valore di produzione) di peirciana memoria deriva dai tre tipi canonici di ragionamento, per la precisione: deduzione, induzione e abduzione. È 1’uberta, cioè la produttività, di quest’ultimo tipo di ragionamento che, afferma Peirce, si accresce. La deduzione, secondo Peirce, dipende dalla fiducia che abbiamo nella nostra abilità di analisi del significato dei segni. L’induzione, invece, dipende dalla fiducia che l’esperienza non verrà mutata. L’abduzione, ancora, dipende dalla nostra speranza di indovinare, ovvero di raccogliere adeguate informazioni che lo permettono.

In occasione del centenario di Edgard Allan Poe (1809-1849), nel 1911, Sir Arthur Conan Doyle presiedette una cena commemorativa a Londra. Fu lui che trasmise a Sherlock Holmes, fra gli altri aspetti caratteristici del Dupin, l’investigatore di Poe, quella astuta abilità, quell’affascinante illusione semiotica di decodificare e scoprire i più nascosti pensieri degli altri, interpretando i loro muti dialoghi interiori, i movimenti della faccia e degli occhi, i vari segni verbali, quanto si leggeva da ogni particolare visibile ed intuibile. Nel 1908 Peirce, riferendosi a un’osservazione di Poe in “Il delitto della Rue Morgue” (“Mi sembra che questo mistero sia considerato insolubile per la stessa ragione che invece dovrebbe farlo considerare di facile soluzione …”) disse che “quei problemi che a prima vista sembrano del tutto insolubili ricevono proprio in quella circostanza le chiavi che più dolcemente vi si adattano”.

I diversi elementi di un’ipotesi sono nella nostra mente ancor prima che noi stessi ne diventiamo cascienti. L’idea di mettere insieme quello che prima non avremmo mai sognato di mettere insieme è la luce che fa da faro alla nuova suggestione.

Peirce descrive la formazione di un’ipotesi come “un atto di insight”, di interiorizzazione per indicare quella “suggestione abduttiva” che viene a noi “come un lampo di luce”. La sola differenza tra un giudizio percettivo e un’inferenza abduttiva è che il primo, a differenza della seconda, non è soggetto a un’analisi logica.

Immaginate due matematici al lavoro, stanno lavorando su una nuova idea. Cosa fanno? In primo luogo costruiscono esempi — devono farsi una idea di ciò che succede — raccolgono indizi. Poi il processo abduttivo prende corpo, si fa una ipotesi, si tenta una dimostrazione, la prova riesce: il gioco è fatto. La prova non riesce, si trova un contro esempio, nuove informazioni si ottengono su ciò che non è. Come afferma anche Pierce, nel metodo scientifico l’abduzione e propedeutica sia all’induzione, intesa come prova sperimentale della ipotesi, che alla deduzione. L’ abduzione si presenta come un istinto che utilizza percezioni inconsce e connessioni tra aspetti diversi delle informazioni possedute: sembra essere l’unico tipo di argomento che generi nuove idee. II giudizio percettivo sarebbe invece un caso limite di abduzione con “poche informazioni”. Non è certo che Pierce abbia personalmente conosciuto Sir Arthur Conan Doyle e né che abbia letto qualche racconto di Sherlock Holmes. È abbastanza verosimile che Pierce, in qualche modo ha sentito parlare delle prime storie di Sherlock Holmes; il primo racconto (A Study in Scarlet) fu pubblicato negli Stati Uniti nel 1888; e nel 1890 The Sign of Four fu pubblicato su Lippincott’s Magazine. Va solo osservato che Doyle nel 1894, quando Pierce trascorse circa due mesi con i suoi colleghi americani, era ben noto in tutti gli Stati Uniti.

Riguardo il paradigma indiziario è parere di molti che una sua origine e rintracciabile nelle pieghe delle fiabe e precisamente nella novella orientale dei tre fratelli di cui prima si è discusso. , che apparve forse per la prima volta, in Occidente, in una raccolta di Sercambi, in cui si parla di tre fratelli che interpretando/comprendendo una vasta serie di indizi riescono a fornire una descrizione di un animale che essi non hanno visto. Successivamente, sulla metà del Cinquecento, riapparve a Venezia in una raccolta di novelle, piuttosto ampia, con it titolo Peregrinaggio. L’opera era presentata come una traduzione dal persiano, traduzione curata da tale Cristoforo Armeno. Si narra dei tre giovani figliuoli del re Serendippo. It libro ebbe molte ristampe e venne tradotto non solo in tedesco ma anche nelle principali lingue europee. Il successo anche popolare della storia dei tre fratelli/figli di Seredippo fu tanto e tale che venne coniato it neologismo “serendipity” ad indicare it paradigma delle “scoperte impreviste, fatte grazie al caso e alla intelligenza” – cioe di fatto le emergenze.” (Horace Walpole -1754).

Anche Voltaire, pochi anni prima, nel terzo capitolo di Zadig, aveva scritto una ripresentazione della novella del Peregrinaggio, Nella riscrittura di Voltaire il cammello originale si era sdoppiato e in divenuto si era trasformato in una cagna e un cavallo. II saggio Zadig, “specialista in abduzioni ante litteram” descriveva minutamente gli animali decifrandone le tracce sul terreno. Venne condotto dinanzi ai giudici e accusato. Si discolpò raccontando ad alta voce il processo mentale che lo aveva portato ad “abdurre” il ritratto degli animali che mai aveva visto:

“All’epoca di Re Moabdar c’era in Babilonia un giovane di nome Zadig, di buona indole nativa rafforzata dall’educazione”. Non stiamo ad entrare nei dettagli del suo carattere generoso “…quando mangi da mangiare ai cani, anche se dovessero morderti…” non parleremo delle sue ricchezze, della sua scienza, del suo amore per Semira, delle sue nozze con la leggera Azora, ripudiata dopo un mese, ma dell’episodio del cane e del cavallo.

 

“… un giorno passeggiando vide corrergli incontro l’eunuco della Regina che con vari ufficiali cercavano il cane della Regina e il Cavallo del Re.

“Giovanotto, non avete visto il cane della Regine – chiese l’eunuco – è una cagna, non un cane.

È una cagnetta spagnola minuscola che ha fatto da poco i cuccioli, zoppica dal piede anteriore sinistro e ha le orecchie assai lunghe – rispose Zadig

L’avete allora vista? – disse l’eunuco

No – rispose Zadig – non ho mai saputo che la Regina avesse un cane”.

Anche il capocaccia gli chiese se avesse visto il cavallo, “È il cavallo che galoppa meglio, è alto cinque piedi, ha zoccoli piccolissimi, ha la coda lunga tre metri e mezzo, le borchie del morso sono d’oro a 23 carati, i ferri sono d’argento di undici denari – disse Zadig

Quale strada ha preso – chiese il capocaccia

Non l’ho visto – rispose ancora Zadig. …”

 

Finì davanti al grande desterham (Giudice-tesoriere) che lo condanno allo knut fslral’n,I ;.d;,4uLPsor uinte ffnetallo) e alla deoortazione in Siberia. Ma il cavallo e la cagna furono ritrovati e gli fecero pagare quattrocento once di ammenda per aver detto di non aver visto ciò che aveva, secondo i giudici visto, allora Zadig diede le sue spiegazioni.

 

“… Vidi sulla sabbia le impronte di un animale e capii facilmente che erano le orme di un piccolo cane. Dai solchi lunghi e leggieri rimasti impressi sui minimi rilievi della sabbia proprio tra le tracce lasciate dalle zampe compresi che si trattava d’una cagna con le mammelle penzoloni per aver essa figliato da pochi giorni. Altri segni tracciati in senso diverso ma anche sulla superficie sabbiosa, lateralmente alle orme delle zampe anteriori, mi dimostrarono che la cagna aveva molto lunghe le orecchie, e poiché osservai che una delle orme delle zampe sulla sabbia risultava più lieve delle altre, capii che la cagna della nostra augusta regina zoppicava un poco, se ciò mi è permesso dire. Per quanto riguarda il cavallo del re dei re, sappiate che nella mia passeggiata nei cammini del bosco m’accorsi delle impronte dei ferri d’un cavallo: erano tutte equidistanti. “Ecco” mi dissi “un cavallo dal galoppo perfetto”. Il polline caduto dagli alberi, in una viottola larga soltanto sette piedi, a sinistra e a destra, a tre piedi e mezzo dal centro, era un pochetto sollevato. “Questo cavallo” mi dissi “ha una coda lunga tre piedi e mezzo, che nella sua altalena ora a destra ora a sinistra scopò il polline”. Vidi pure, sotto gli alberi che con i loro rami formavano una galleria alta cinque piedi, delle foglie cadute da poco, e capii che il cavallo aveva sfiorato quelle alte fronde, avendo appunto una statura di cinque piedi. E perché il morso dev’essere d’oro a ventitre carati? Perché con le borchie del morso rasentò una pietra di paragone e io potei farne il saggio. Dalle tracce, poi, che i ferri del cavallo lasciarono su sassi di altra specie mi risultò che i ferri stessi erano d’argento di duecentosessantaquattro grani…”

 

I giudici ammirarono la profondità del discernimento, tutti parlarono bene di Zadig, anche il Re, ma i giudici trattennero trecentonovantotto once per le spese e gli uscieri chiesero la mancia

 

Ecco in queste storie, in queste favole l’origine dell’abduzione e dell’emergenza, l’embrione del serendipity. Nella serendipity e anche nell’embrione della patologia chirurgica e non solo chirurgica, i metodi di riconoscimento di opere d’arte alla Morelli, i paradigmi indiziari per le ricostruzioni storiche alla Ginsburg ovvero le brillanti indicazioni che da Peirce a Umberto Eco, ci lasciano pensare per indovinare – diranno subito i miei piccoli lettori… … assolutamente no, ci lasciano pensare per abdurre alla Conan Doyle, alla Sherlock Holmes secondo metodi e modi che al di la della apparente futilità, ci spiegano i motivi, apparentemente inconsci, della straordinaria fortuna del romanzo poliziesco. Su questo filone s’impernia un modello conoscitivo che è nello stesso tempo antichissimo e moderno. Dalla sua essere antico, quasi senza memoria si è detto tanto, mentre per la sua modernità, citeremo quanto segue:

 

Oggi basta vedere l’impronta di un piede forcuto per concludere che 1’animale che ha lasciato impronta era un ruminante, e questa conclusione è altrettanto certa di qualunque conclusione della fisica o della morale. Basta quest’ orma per dare all’osservatore la forma dei denti, la forma delle mascelle, la forma delle vertebre, la forma di tutte le ossa delle gambe, delle cosce, delle spalle e del bacino dell’animale che è appena passato: si tratta di un segno più sicuro di tutti quelli di Zadig (Elogio di Cuvier della Scienza Paleontologica).

 

Fin dalla fine dell’Ottocento si ebbe conoscenza di questi processi. Si pensi che perfino il grande T. Huxley in un famoso ciclo di Conferenze inneggianti alla dottrina Darwiniana ebbe a parlare del cosiddetto “metodo di Zadig” per indicare il processo indiziario quale metodo di indagine comune a vari campi quali l’archeologia, l’arte, l’astronomia, la criminologia, la fisica, la geologia, la matematica, la medicina, la paleontologia, la patologia, la storia ecc..

 

 

2.3. IL PARADIGMA COOPERATIVO

 

In J. Verne, Paris au XX siecle (1863) troviamo delle incredibili anticipazioni del mondo moderno, fissato nel romanzo come 1961, quali ad esempio quelle relative ad un computer, ad una specie di posta elettronica e fax telegrafica ed una società fondata sulla comunicazione:

 

“… Michel si voltò e vide la macchina n°4. Era una macchina calcolatrice. Ormai era lontano il tempo in cui Pascal costruiva quegli strumenti arcaici la cui concezione allora parve tanto mirabile. Da quell’epoca l’architetto Perrault, il conte di Stanhope, T. de Colmar, Mauerl e Javet apportarono felici innovazioni a questo genere di apparecchio.

La Banca Casmodage possedeva autentici capolavori; effettivamente i suoi strumenti assomigliavano a vasti pianoforti; premendo i tasti di una tastiera, si ottenevano istantaneamente totali, resti, prodotti, quozienti, regole di proporzione, calcoli di ammortamento e di interessi composti per periodi infiniti a tutti i tassi possibili. C’erano certe note acute che restituivano fino al centocinquanta per cento! Niente di più strabiliante di quelle macchine che avrebbero battuto senza fatica i vari Mondeux. (Henry M., personaggio noto per le sue prodigiose capacità di calcolo).

Bisognava tuttavia saperle suonare, sicché Michel dovette prendere lezioni di ditteggiatura.

Risulta evidente che Michel aveva preso servizio in una banca che chiamava in aiuto e adottava tutte le risorse della meccanica. D’altronde, all’epoca, l’abbondanza degli affari e la molteplicità degli scambi comunicativi conferirono alle semplici forniture da ufficio un’importanza straordinaria. E così, il fattorino della Casmodage&Co. non maneggiava meno di tremila lettere al giorno, smistate in tutti gli angoli del vecchio e del nuovo mondo. Una macchina Lenoir della potenza di quindici cavalli non cessava di copiare quelle lettre , che cinquecento impiegati le inviavano senza requie.

Eppure la telegrafia elettrica avrebbe dovuto abbattere significativamente il numero di lettere, visto che recenti perfezionamenti permettevano allora al mittente di corrispondere direttamente con il destinatario; il segreto della corrispondenza restava così salvaguardato, e gli affari più considerevoli potevano essere trattati a distanza. Ogni casa aveva i suoi fili privati, secondo il sistema Wheastone, da tempo in uso in Inghilterra. Gli andamenti degli innumerevoli titoli quotati sul libero mercato si scrivevano da sé su quadranti posti al centro delle borse di Parigi, di Lontra, di Francoforte, di Amsterdam, di Torino, di Berlino, di Vienna, di San Pietroburgo, di Costantinopoli, di New York, di Valparaiso, di Calcutta, di Sidney, di Pechino, di Nouka-hiva.

 Inoltre la telegrafia fotografica inventata nel secolo precedente dal professor Giovanni Caselli (1815-1891, inventore del telegrafo scrivente nel 1859) di Firenze permetteva di inviare a distanza il facsimile di qualunque scrittura, autografo o disegno che fosse, e di firmare lettere di cambio o contratti a cinquemila leghe di distanza.

La rete telegrafica copriva allora la superficie intera dei continenti e il fondo dei mari; l’America era meno a meno di un secondo dall’Europa e, in un solenne esperimento effettuato a Londra nel 1903, due collaudatori corrisposero tra loro dopo aver fatto compiere al loro messaggio il giro della terra. …”

 

Incredibile il breve testo riportato da Verne nella traduzione di M. Grasso. In Verne si trovano ancora molti messaggi del futuribile quali il viaggio al centro della terra del 1864, Ventimila leghe sotto i mari del 1869 con l’anticipazione del sottomarino atomico Nautilus, capace d’andare sotto i ghiacci del polo, e ancora villaggi galleggianti, case meccanizzate a vapore, l’idea del Robot, raggi della morte, villaggi aerei, isole mobili! Dopo di lui appaiono vari messaggi del futuribile, esprimenti gli umani desideri e gli umani incubi: messaggi di Wells (uomo invisibile e macchina del tempo), Orwell (gli incubi di una società sotto un controllo telematico di 1984), Metropolis (la buona Maria e la cattiva controimmagine robotizzata), 2001 (il computer HAL ribelle all’uomo), Asimov (il robot perfetto e le tre leggi della robotica).

Tuttavia quanto Verne preannunciava per il 1960 tutto ciò si è verificato, con forse 25-30 anni di ritardo ma si è verificato!

 

2.4. I PRODROMI DELLA PERSUASIONE OCCULTA

È nota la vicenda dell’attore regista americano O. Welles (1915-1985) che dopo aver mostrato il suo enorme talento di attore e regista sulle scenen si volse al cinema e alla Radio, i grandi mass media di allora.

Nel 1938 si occupò di una importante trasposizione radiofonica. Adattò per la Radio La guerra dei mondi, l’opera del sociologo inglese Herbert George Wells (1866-1946), che fu un antesignano autore di fantascienza, con le opere di anticipazione: La macchina del tempo (1895), L’uomo invisibile (1897), La guerra dei mondi (1898). La trasmissione di O. Welles, perfetta per tecnica e per talento, tocco talmente il realismo che gli ignari spettatori statunitensi credettero veramente che sulla Terra, anzi sugli Stati Uniti, fossero realmente atterrati i Marziani del romanzo di H.G. Wells.

La magia contenuta nell’arte del regista-presentatore O. Welles e l’uso attento di un potente mezzo di comunicazione di massa, come la radio, avevano rivelato un nuovo campo del sapere: la manipolazione delle masse! E’ del 1941 il film Quarto Potere (Citizien Kane) di O. Welles, che dirige se stesso nella parte di Kane .

 

Citizien Kane è considerato da molti critici uno delle miglior pellicole prodotte nella storia del cinema. In un crescendo Welles, star del teatro e della radio, ora regista/protagonista, non perse l’occasione di realizzare interamente questo suo film e ci presenta una grande affresco della condizione umana, con le sue esaltazioni, le depressioni, tutte le miserie e le contraddizioni. Il film, simbolico nelle immagini, circolare negli eventi, appare come un critica profonda e feroce della società del tempo, ma anche dell’attuale, in altre parole una critica a quella società che si incentra nella cultura del danaro e del potere dei media.

La pellicola, terza prova del venticinquenne O. Welles, da regista, dietro la macchina da presa, si ispira chiaramente alla vita di William Randolph Hearst. La struttura innovativa in tutto l’impianto filmografico, dalla struttura narrativa scanzione degli eventi. Il suo personaggio, Charles Foster Kane, da lui mirabilmente interpretato, è un magnate dell’industria e della stampa. Kane muore nell’isolamento della sua immensa tenuta, Xanadu, pronunciando sul letto di morte una misteriosa parola: Rosebud – bocciolo di rosa.

Il giornalista Jerry Thompson, incaricato di una indagine sul magnate, ricerca informazioni dalle fonti più disparate, incontra il maggiordomo e i dipendenti di Kane, molti dei suoi vecchi amici, perfino la sua ex moglie oramai alcolizzata. – il suo ultimo maggiordomo, i suoi dipendenti. Ricostruisce un puzzle di un uomo potentissimo, ma oppresso da una solitudine infinita. Dall’infanzia povera, alla presa di potere nel mondo della finanza, al potere immenso e incontrastato nell’editoria. Ma nel momento della morte il ricordo vago di una vecchia sfera di cristallo con la neve che cade: Rosebud! In questa parola è racchiuso il segreto di questa amara visione di una vita in solitudine.

 

Questo film precede di pochi anni il romanzo di George Orwell (pseudonimo di Eric Blair, 1903-1950), dal titolo 1984 (scritto nel 1948), nel quale ancora si lavora su questa idea, portandola a parossismi inusitati. Il controllo che esercita quel misterioso individuo che risponde al nome di Grande Fratello implica l’esistenza di una struttura piramidale, al vertice della quale vi è un dittatore, sotto forma di Network televisivo, incitante all’odio! Il grande fratello si rivelerà alla fine una figura virtuale, una manipolazione di personaggi attenti e incogniti, che sono i veri manipolatori ma a loro volta schiavi del prodotto da loro stessi costruito!

Questa idea verrà ripresa da un altro grande regista Sidney Lumet (1924- vivo) che in Quinto potere (Network) del 1976, riprende la tematica in un seguito ideale, denunciando ulteriori aspetti del parossismo oramai raggiunto nei network. Così se reale protagonista del film è l’indice di gradimento, o meglio d’ascolto, la cosiddetta audience, accanto a questa virtuale virago si snodano un commentatore di attualità (Peter Finch) la cui audience si è notevolmente abbassata e che minaccia un suicidio in rete, con una donna in carriera (Faye Dunaway) che ne comprende le potenzialità di sfruttamento. Emergerà una sorta di profeta dell’etere manipolato e manipolatore che, tra periodi di grossa audience e ritorni al colare a picco, ci presenterà una serie di colpi di scena rilegati all’ambiguo, paradossale, cinico, barbaro, professionale altare dell’audience.

Sidney Lumet, ricordiamo, non nuovo alle denuncie sociali, portò sulla scena anche La parola ai giurati (1957), Uno sguardo dal ponte (1960), La collina del disonore (1965), Serpico (1973) e Quel pomeriggio di un giorno da cani (1975), ciascuno dei quali denuncia di qualche grande evento della nostra società.

Queste problematiche saranno riprese nell’appendice 1 del capitolo II.

 

 

APPENDICE 1: Piccola digressione storica strumenti divulgativi

(del Prof. Franco Eugeni)

 

Una digressione sulla mia esperienza personale!

Nel Giugno 1963 la mia tesi di laurea, che mi necessitava in 10 copie, venne scritta due volte, utilizzando della carta carbone ed una nuova efficiente macchina elettrica.

Ho tenuto la mia prima lezione universitaria all’Università di Modena il 16 Dicembre 1963 al posto del professore di cui ero allora assistente. La gerarchia allora era di Professori, assistenti ordinari e assistenti volontari. Gli assistenti ordinari erano in carica 10 anni e se non conseguivano la Libera Docenza terminava il loro rapporto con l’Università. Lo strumento comunicativo che avevamo allora, in quella sede, era una enorme, bella lavagna di 12 metri e l’indicazione che le lettere dovevano essere poco più piccole della mia faccia, il segno del gesso doveva essere calcato il più possibile e la voce doveva arrivare alla fine dell’aula che ospitava circa 150 studenti!

Non esistevano ovviamente computer, nemmeno fotocopiatrici moderne, si usavano dei ciclostile. A Modena avevamo una piccola macchina antidiluviana a carta chimica con la quale, ricordo, un ottimo bidello tutto fare, impiegò quasi un pomeriggio per riprodurre un fascicolo di 45 pagine, che aveva con se un visiting, e che ci interessava avere in copia. Nel 1965 uscirono delle macchine da scrivere con caratteri intercambiabili, che ci aiutarono abbastanza. Per proiettare immagini alcuni Istituti disponevano di epicoscopi. Non era il nostro caso!

Nei primi anni 70 si cominciarono a diffondere le prime rapide fotocopiatrici della Rank Xeroxs. Sulla fine degli anni ’70 / primi anni ’80 ricordo che, in periodi di alta produzione, avevo fino a quattro negozi di copisteria, dove andavo regolarmente a riprendere i fogli dattiloscritti, quasi sempre senza simboli matematici, per fare le correzioni del caso e aggiungere a penna o con delle formine di plastica, tipo normografi, che ci eravamo costruiti (antenati dei trasferibili) i simboli matematici. Era ovvio che il tutto doveva essere preceduto da un manoscritto eseguito con scrittura molto chiara, molto ordinato, comprensibile alle dattilografe e con un minimo di linguaggio indicativo per il corsivo o altro!

Alla metà degli anni ’80 con la diffusione dei primi IBM-compatibili 286 e il programma di scrittura wordstar questo mondo svanì nello spazio di meno di un anno. I “famosi collage” con forbici e nastro invisibile, per riciclare vecchie conferenze o per inserire parte di propri articoli in dattiloscritti di libri, divenne operazione interna, pulita, da archivio!

Per le immagini i problemi furono complessi. Le fotocopie di allora erano di qualità veramente scadenti! Nel 1977 nell’occasione di un volumetto su Flash Gordon, testi/fumetti/cinema, realizzato da me con Marco Chiavarelli e Francesco Coniglio, occorse che alcuni colleghi collezionisti americani, ci spedissero delle foto di immagini che volevamo riprodurre! Nelle aule si era diffuso l’uso di diapositive prima e delle più economiche lavagne luminose poi! Un archivio di diapositive di uno dei colleghi di una Facoltà di Architettura era un piccolo patrimonio culturale ma anche economico! Cominciammo a fotocopiare in bianco e nero su slide “resistenti al calore”.

Nel 1986 presso l’IRSAE Abruzzo, in occasione dell’entrata in vigore dei nuovi programmi per la Scuola Elementare, fui incaricato di organizzare il primo corso per formatori. Erano colleghi della scuola secondaria, che in massima parte erano stati miei allievi all’Università, quindi avevo nei loro confronti una estrema credibilità e tentai fin da allora la via delle immagini. Così utilizzando lavagna luminosa e diapositive mi riuscì abbastanza bene fare proposte multi culturali e che gettassero ponti tra matematica ed altre discipline, che rendessero questa disciplina più visibile, se si vuole più simpatica!

Nell’Inferno di Topolino, magnifico fumetto, anni ’50, di produzione italiana, appare una immagine di una prof.ssa di matematica/strega e della sua pena, i ragazzi le chiudono la bocca con un lucchetto e tentano di darle colpi di martello sulla testa e sempre tutto si ripete! Su queste due vignette, sintesi della difficoltà comunicativa della disciplina, costruimmo un dibattito di un pomeriggio!

Oggi i miei interessi sono spostati sull’Informatica e l’Editoria Multimediale. Nei miei corsi di matematica di un tempo, riuscivo e tenere gli allievi per due ore, attenti alle lavagne piene di formule cercando di far parlare quelle formule! Oggi questa attenzione non riesco più a ritrovarla, certamente è cambiata la mia età, anche se non è cambiato il mio contagioso entusiasmo!

Il mio insegnamento lo trovo più utile altrove, così mi sono dedicato ad un corso di storia e critica dell’Informatica, da Ingegneria sono passato a Scienze Politiche prima e a Scienze della Comunicazione poi, ho messo in piedi un laboratorio di Editoria Multimediale per la Laurea specialistica e sto cercando con un vasto gruppo di collaboratori di produrre nuove strade per comunicare la matematica: il sito Scienze, Matematica e Società.

 

CAPITOLO 3

 

STORIA DEGLI STRUMENTI DI CALCOLO DALL’ANTICHITÁ AL PENSIERO CONTEMPORANEO

 

 

 

3.1 GLI STRUMENTI DI CALCOLO NELL’ANTICHITA’ E LE IDEE SOGGIACENTI AL CALCOLO

L’utilizzazione di strumenti di calcolo è, di fatto, nata con l’uomo, forse non tanto con l’uomo cacciatore o agricoltore ma certamente con l’avvento delle prime forme di organizzazione sociale. La storia delle macchine da calcolo è complessa tanto quanto la storia delle macchine in genere.

Le varie conquiste e le varie tappe sono a volte dovute a piccole idee, ad intelligenti varianti ovvero a visioni di macchine del tutto differenti e pensate ciascuna con un fine differente.

I primi ausili per calcolare sono state le dita alle quali poco alla volta si aggiunsero alcuni strumenti. I bastoncini facilitavano l’addizione e la sottrazione di numeri maggiori di 10. I più antichi simboli di calcolo cinesi derivano in modo evidente da questo sistema.

Il primo strumento di calcolo che la storia possa ricordare è l’abbaco (o anche abaco), che si fa risalire alla Cina del IX Secolo a.C., ma le cui tracce sono state ritrovate in numerosi luoghi europei, specialmente dell’Età romana. Non vi è dubbio che le culture antiche più evolute conoscevano già l’abaco. In Asia il soroban è stato utilizzato fino agli inizi del XX secolo. Il ritrovamento di abachi e pallottolieri lasciano intuire che è probabile che essi siano stati inventati, magari con minime varianti, in Occidente prima che in Cina, ma non si conoscono tempi e luoghi. La parola “abaco” deriva da un termine semitico abq (polvere) a memoria delle tavole ricoperte da sabbia fine, sulla quale si scriveva con un radius e ove gli errori si cancellavano con le dita.

L’abaco non è una vera e propria macchina non avendo ingranaggi. L’oggetto “abaco” fin dagli inizi è costituito da una superficie piana di legno o di marmo suddivisa in righe orizzontali e fessure verticali su cui il venditore rendeva chiaro il conto al cliente. Ogni riga corrispondeva al valore posizionale della cifra, individuato a un piccolo oggetto. Allo stesso scopo il commerciante portava sempre con se, durante i viaggi, un telo per i calcoli. Successivamente troviamo lastre di metallo o di marmo o di una tavoletta che con l’uso di righe per scrivere, scanalature su cui poggiare pietroline o sferette, in altre parole con bastoncini o fili metallici sui quali infilare sferette bucate, permettevano, secondo certe regole, di poter contarte. Ogni serie di sferette o pietrucce rappresentavano unità contabili differenti. La posizione delle pietrucce a sinistra o a destra stabiliva la cifra; ogni fessura definiva il peso della cifra. Nell’abaco, come nei pallottolieri, era possibile “materializzare i calcoli” mediante lo scorrimento delle sferette o simili (sommare e sottrarre sull’abaco è semplice e rapido, moltiplicare e dividere richiede invece esercizio e tempo). Da notare che nel caso più semplice, ogni riga dell’abaco contiene 10 pietrucce, se sono tutte dalla parte destra, la distribuzione rappresenta la prima cifra di un numero. postando n pietrucce verso il limite sinistro, la distribuzione arriva alla n-esima cifra. Un abaco a sei righe può quindi rappresentare al massimo il numero a sei cifre 999999, il più grande possibile a sei cifre, nella numerazione decimale. (Si noti che il numero più grande esprimibile con sei cifre è invece 9 elevato a 9, elevato a 9, …, elevato a 9!).

Il più antico riferimento cinese si trova in un libro scritto durante la Dinastia Harn del 190 d.C. il cui titolo si traduce in: Spiegazoni di alcune operazioni matematiche in uso comune.

 

Unica voce contro questo dominio assoluto è legata ad un ritrovamento di una sconcertante cassetta di bronzo. L’apparecchio, era una strana macchina di calcolo, che venne chiamata planetario di Andikithira, ripescata durante la Pasqua del 1900, dal tuffatore Elias Stadiatis. Il tuffatore era agli ordini del Capitano Demetrios Condos, e stavano lavorando per il recupero degli oggetto di una vecchia nave, affondata all’incirca nell’80 a.C., appunto al largo dell’isola greca di Andikithira. La nave aveva un carico di statue raffiguranti donne e cavalli e se ne decise il recupero, sotto l’egida del Museo archeologico di Atene. Nove mesi dopo, nell’Ottobre del 1900, era tutto recuperato e sistemato. In un insieme di oggetti non catalogati, l’Archeologo Valerios Stais trovò un reperto di bronzo, che si rivelò di notevole importanza. Nel 1902 l’archeologo Stais diede l’annuncio: si trattava di un oggetto unico nel suo genere, un meccanismo prodotto nella Grecia antica. Seguirono anni di polemiche, si giudicava che i greci, nella loro cultura, non avessero manifestato mai alcun interesse alla produzione di simili oggetti, che quindi destava perplessità e sospetti. Nel 1975 il prof. Derek de Dolla Price, dell’Università di Yale, annunciò la conclusione degli studi effettuati sul “meccanismo greco”. Era un meccanismo contenuto in una scatola di bronzo di dimensioni in cm. di 30x15x5, realizzato attorno all’87 a.C., come risultava dalle prove al carbonio. L’oggetto permetteva di calcolare la posizione dei sette pianeti conosciuti all’epoca; si trattava quindi di un sorprendente precursore sia delle macchine da calcolo sia degli orologi astronomici. La macchina, a funzionamento manuale, presentava tre quadranti, ognuno dei quali dotato di una lancetta, come oggi negli orologi, e vari anelli calibrati mobili. Sull’involucro esterno appaiono istruzioni non più leggibili e nel complesso, le capacità di calcolo della macchina, non sono certo elevate rispetto agli standard di oggi, ma elevatissime per quelle di allora. La tecnologia non era banale, perché tutto il meccanismo appare complesso e progettato con estrema precisione. Nell’interno troviamo una lastra girevole, azionata da un ingranaggio differenziale, di sicuro il più antico conosciuto, ancora troviamo circa trenta diverse ruote dentate e ingranate di dimensioni diverse e montate su assi rotelle dentate e un albero di trasmissioni del movimento.

 

Il planetario di Andikithira, così è la più antica calcolatrice meccanica conosciuta. Si è, come già detto, ipotizzato che essa possa essere stata costruita nell’87 a.C., quasi sicuramente nell’isola di Rodi. L’ipotesi è avvalorata, per ragioni abduttive, dal fatto che a Rodi nel 100 a.C. era in funzione la Scuola di Posidonio il Siriano (135 a.C.-51 a.C.), uno dei principali rappresentanti della Media Stoà, il sistema di trasmissione della cultura attraverso incontri e passeggiate sotto i porticati (stoà). La scuola di Posidonio era un centro di studi astronomici e probabilmente la macchina di Rodi fu inventata all’interno di questa scuola, anche perché non vi erano altri luoghi a distanza ragionevole ove potessero esserci competenze ed interesse. Inoltre presso Posidonio operava il filosofo Geminio, che avrebbe avute tutte le competenze per inventare e costruire la macchina. I danni che la macchina di Rodi aveva subito non hanno permesso una ricostruzione della macchina originale. E’ stato costruito un modello della macchina del tutto funzionante, nella quale alcuni dettagli sono stati oggetto di interpretazione.

 

A differenza del planetario di Andikithira, il quale non ebbe nell’antichità una grande diffusione, l’abaco, al contrario, divenne uno strumento molto utilizzato per i calcoli tant’è che ebbe, nelle varie civiltà antiche, alcune varianti per lo più di carattere geografico:

 

  • l’abaco greco, i cui dettagli operativi sono stati dimenticati;
  • l’abaco romano a scanalature (citati da Lucillo, Orazio, Cicerone…);
  • l’abaco cinese o suan-pan le cui prime descrizioni risalgono al XII secolo e la cui diffusione in Asia si deve di sicuro ai Tartari, che ne avevano avuto conoscenza mediante i contatti con gli Arabi e i Persiani;
  • l’abaco giapponese o soroban, é una diretta evoluzione del suan pan;
  • L’abaco russo o anche s’choty o le varianti dello choreb armeno o del coulba turco che hanno anche loro provenienza asiatica.

 

 

 

 

In Europa l’abaco fu oggetto ben conosciuto nel Medioevo e l’oggetto assunse nomi diversi. I cultori di questo oggetto furono detti gli abacisti.

Quando l’Impero Romano si stava lentamente sfaldando emerge nel buio scientifico del tempo la figura di Anicio Severino Boezio (470-524), patrizio romano, ultimo grande filosofo, che ci lascia per la Matematica quattro compendi di opere classiche precedenti, anche se piuttosto semplificati. Contemporaneo di Boezio fu Cassiodoro (480-575), che dopo essere stato abile statista sotto Teodorico, fondò un Convento, i cui monaci precursori dei Benedettini, si dedicarono alla raccolta di libri antichi e alla copiatura amanuense. Ancora Dopo di loro troviamo il Vescovo Isidoro di Siviglia (570-636) e Gerberto d’Aurillac (940-1003). Gerberto divenne Papa con il nome di Silvestro II nel 999, e pertanto fu il Papa dell’Anno Mille. È ricordato in odore di zolfo poiché passò alla storia come grande Mago ed Astronomo.

Probabilmente era solo un dotto, infatti egli fu il primo che dalla Spagna diffuse le cifre arabe in Europa, ma è anche noto che fu un grande abacista! Da quanto emerge dalle loro opere i nomi dei loro abbaci furono abbastanza esoterici. Così l’abaco fu chiamato Mensa geometricalis, oppure mensa pytagorica (nome prescelto dai seguaci di Boezio), o anche tavola d’Abaco o Abaco a righe, ed infine l’arcus Pytagoreus di Papa Gerberto!

Nel 1202 Leonardo Pisano pubblica il suo Liber Abaci sul quale per oltre tre secoli si formeranno i matematici e i gli esperti di calcolo.

 

Seguiremo il principio di non approfondire l’uso di questi strumenti di calcolo particolari, ma solo di raccontare la storia della loro evoluzione e approfondire il pensiero che a loro si connette.

Va rivelato che essi erano molto più potenti di quanto non possa supporre chi con loro non ha mai operato.

A riguardo, operando un immaginario salto in avanti nel tempo, spostiamoci al 12 Novembre 1945, presso il teatro Ernie Pile di Tokyo, dove ebbe luogo un famoso incontro/scontro di calcolo meccanico tra un certo Kyoshi Matsuzaki, campione giapponese di soroban ed un soldato statunitense di stanza in Giappone di nome T. Nathan Woods, considerato il massimo esperto di utilizzo di calcolatrici elettriche dell’Esercito USA. In questa occasione il vecchio abaco ebbe la meglio sulla modernissima macchina consacrando il soroban come il più veloce strumento di calcolo prima delle calcolatrici elettroniche.

 

3.2. DAI BASTONCINI DI NEPERO ALLE CALCOLATRICI MECCANICHE

 

Fino al 1500 è innegabile come l’Abaco non abbia avuto rivali, lo strumento ha dominato le regole del Calcolo per dieci secoli e più. La moltiplicazione e la divisione con l’abaco sono notevolmente più complicate da eseguire dell’addizione e della sottrazione. Soprattutto con il riporto si possono commettere facilmente errori. In tal caso sono particolarmente utili alcuni metodi di calcolo. Il metodo «gelosia» era già molto diffuso nel primo medioevo; se ne trovano tracce in India, Persia, Cina e nel mondo arabo. In Europa appare all’inizio del XIV secolo. Il nome «gelosia» richiama gli antichi telai italiani per le finestre, con struttura a pioli.

 

Segni orizzontali e verticali formano una matrice. Le diagonali suddividono i campi. Per moltiplicare, il moltiplicando va inserito colonna per colonna, nella riga superiore; il moltiplicatore, cifra sotto cifra, nella colonna più esterna a destra. Si riporta nella matrice, nel punto d’incontro delle rispettive colonne e righe, il prodotto delle due cifre, scrivendo le unità nel triangolo inferiore e le decine in quello superiore. Il risultato finale viene composto partendo dal basso a destra, sommando le cifre di ciascuna diagonale. Un eventuale riporto viene sommato alla diagonale più vicina, a sinistra. In questo modo si ottiene il risultato, cifra per cifra, da destra a sinistra. Un metodo simile è utilizzato anche per la divisione.

 

Riprendendo lo studio degli strumenti di calcolo del passato un insieme di oggetto che hanno segnato profondamente la storia delle apparecchiature di calcolo sono i cosiddetti bastoncini di Nepero (o rabdos) o anche ossa di Nepero. (Il nome ossa di Nepero proviene dal materiale spesso usato per i modelli più resistenti). Questi oggetti, databili 1617, furono ideati dal matematico scozzese J. Napier (1550-1617), italianizzato in Nepero, protagonista con altri di una magnifica impresa.

Alla fine del 1500, il Rinascimento (XV-XVI) oramai al suo concludersi faceva spirare aria nuova ovunque. Le opere del genio Leonardo da Vinci (1452-1519), che operò nel pieno Rinascimento, spaziando tra arte, letteratura, medicina e scienza, erano stimolo e faro per tutti gli scienziati. Erano emergenti intanto Galileo Galilei (1564-1642) a Pisa e Ticho Brahe (1546-1601) nell’osservatorio danese di Uranienbourg dove aveva fondato un antesignano istituto di ricerca: negli osservatori astronomici si respirava un’aria decisamente nuova, tra vecchie teorie e nuove idee, tra attività di grandi artigiani e intuizioni di valenti pensatori. Erano tempi nei quali l’interesse per il calcolo aveva ripreso vigore, nel 1509 Ludolf Van Coolen aveva trovato le prime 35 cifre decimali di pigreco e le tabelle dei seni e dei coseni erano calcolate a mano con grande dispendio di energie, erano nate le tavole trigonometrico-astronomiche di G.J. Rhrticus completate nel 1596 da Valentin Otho. Lo stesso Michael Stiefel (1485-1567), nel suo Aritmetica integra del 1544, aveva affrontato seri problemi di calcolo introducendo le serie geometriche.

Gli scienziati conservatori continuavano a vituperare l’arte di costruire meccanismi atti a facilitare i calcoli, come nella Grecia antica, ma, di fatto, avevano sempre meno credito grazie principalmente all’Astronomia, che usava strumenti sempre più sofisticati. In questo contesto culturale nasce l’avventura di tre giovani e precisamente il citato countryman scozzese J. NAPIER, l’orologiaio svizzero JOST BURGI (1552- 1632) operante a Praga e considerato il più importante costruttore di congegni meccanici del tempo ed HENRY BRIGGS (1561-1639), professore di Matematica al Gresham College di Londra e lettore di Geometria ad Oxford.

 

Furono costoro che di fatto, indipendentemente l’uno dall’altro, che nel 1588 e nel 1594 inventarono i logaritmi e costruirono le prime tavole logaritmiche; per il tempo fu una di quelle grandi idee che condussero i matematici molto avanti in relazione al progresso nel calcolare. Probabilmente l’idea dei logaritmi era tra le righe del lavoro di Stiefel, ma il merito fu attribuito essenzialmente a Napier, il meccanico Burgi passo in secondo piano e solo Briggs ebbe la sua fetta di gloria poiché introdusse, nel 1615, i logaritmi in base 10 e si occupò della compilazione delle tavole.

 

Napier nel suo primo libro sui logaritmi: Mirific ilogarithmorum canonis descriptio (circa 1914) presenta lo strumento di calcolo mentre nel suo libro Rabdologie pubblicato ad Edimburgo nel 1617, lo stesso anno della sua morte, ideò basandosi proprio sui logaritmi, i suoi famosi bastoncini con i quali si potevano eseguire molto rapidamente operazioni matematiche davvero complesse. Lo strumento, formato da un’intera cassetta dei bastoncini, era di fatto un moltiplicatore, che permetteva di risparmiare molte ore di calcolo. I nuovi oggetti, i bastoncini e gli oggetti matematici soggiacenti ebbero in poco tempo un successo strepitoso tra matematici ed astronomi. Un secondo libro di Napier: Mirificilogarithmorum canonis constructio, nel quale vi era spiegato l’uso dettagliato dei logaritmi, apparve postumo nel 1619. Fu invece compito assunto da Briggs, come detto, quello di compilare il primo volume di tavole di logaritmi, cosa che avvenne nel 1617, con l’opera Logarithmorum chilas prima .

Raramente è avvenuto, nella storia del Calcolo, che una nuova scoperta incontrasse una fortuna così rapida come appunto la scoperta dei logaritmi. Alla scoperta fece seguito la pronta comparsa di tavole sempre più dettagliate e pienamente rispondenti alle esigenze del tempo.

Naturalmente non mancarono, negli anni a seguire, intere sequele di imitatori e perfezionatori.

Tra costoro emerse l’astronomo inglese Edmund Gunter (1581-1626) che nel 1620 ebbe l’idea di bloccare i bastoncini su una superficie, realizzando, in tal modo, il primo regolo calcolatore. La sua opera De Sectore & Ratio è del 1623 e il suo regolo è perfezionato successivamente dall’altro inglese Henry Leadbetter.

In realtà nel secolo X, in Cina , durante la dinastia Sung si narra che un certo Ma Huai avesse creato un gruppo di righelli di ebano con uno d’avorio, i quali messi in posizioni opportune rendevano molto rapidi alcuni calcoli. Non si sa molto di più per cui l’oggetto è entrato nella leggenda.

I primi regoli calcolatori efficienti, sia rettilinei che circolari, come quello di Richard Delamain,  furono costruiti dall’inglese WILLIAM OUGHTRED (1574-1660). Nel 1622 Oughtred (1574-1660) suddivise per la prima volta alcuni regoli in modo logaritmico e fece scorrere una contro l’altra due scale di questo tipo: l’addizione di due lunghezze corrispondeva ora alla moltiplicazione dei numeri e erano rappresentati sulle tarature; anche la divisione era relativamente semplice. Dal 1650 il regolo ebbe la sua forma attuale: un corpo su cui si trovano delle scale fisse; un asta scorrevole con varie scale mobili, alcune rappresentate davanti ed altre dietro; un cursore con una o più linee di riferimento. Oughtred nel 1652 pubblica il volume Clavis mathematicae denvo limata, una sintesi della sua opera. È del 1652 il volume di Oughtred dal titolo: Clavis Mathemaicae denvo limata, (xoniana, 1652).

Nel 1654 il regolo di Oughtred venne successivamente perfezionato da Robert Bissaker.  

 

Apparvero quindi, dopo l’idea di Oughtred , scale graduate in vari modi, ad esempio per elevare a potenza o per calcolare la radice, per leggere funzioni goniometriche e valori reciproci. Il «cursore» scorrevole sopra il «corpo», introdotto nel 1845, permise di prendere in considerazione contemporaneamente più scale. Il regolo, che è il primo calcolatore analogico moderno, presenta due svantaggi rispetto al calcolo con i numeri.

La lunghezza dei righelli limita la precisione delle relative scale. Con le barrette normali, lunghe 25 cm, si ottiene nei casi migliori, una precisione dello 0,1%. Cilindri calcolatori con scale e lingue elicoidali, raggiungono lunghezze effettive fino a 12 m e aumentano così precisione, anche di due ordini di grandezza. Una precisione maggiore non è ottenibile.

La posizione della virgola decimale nel risultato deve essere trovata con calcoli mentali.

La capacità operativa dei regoli venne talmente valorizzata che sull’idea delle scale differenziate furono costruiti numerosi regoli, per impieghi ed attività speciali come quello del 1677 che Henry Coggshall progettò per l’industria e l’altro del 1683, progettato da T. Everard per il calcolo delle imposte. Nascono regoli per varie attività come carpentiere, esattore, chimico, e militari. Nelson è certo usasse un regolo per i suoi piani di attacco.

Solo nel 1850 con il regolo di AMEBEE MANNHEIM (1831-1906), geniale colonnello d’artiglieria, si raggiunge la forma definitiva dei regoli a noi conosciuti.

Con il 1870 l’industria prussiana soppianta in produttività quella anglo-francese con le ditte Faber Castell, Netler ed altre. I regoli tedeschi raggiungono l’apice con il regolo progettato nel 1902 dall’ingegnere tedesco Max Rietz (1872-1956).

I regoli, prodotti in più di 250 diversi modelli, consentirono, acquisita che fosse una certa manualità e possedendo buona vista, di eseguire diversi calcoli approssimati specie per le quattro operazioni fondamentali, potenze, radici e logaritmi.

I regoli vennero completamente soppiantati dai calcolatori elettronici tascabili di ben altra portata.

 

3.3. UN EXCURSUS ATTORNO AI … BASTONCINI DI NEPERO.

Nel sistema degli ossi di Nepero, ogni bastoncino rappresenta una delle possibili colonne di una matrice «gelosia», in altre parole i multipli interi di una cifra. Per esempio, se si vuole moltiplicare 987 per 123, si appoggiano, uno vicino all’altro, tre bastoncini con 9, 8 e 7 nella riga superiore e si applica il metodo «gelosia». II missionari portarono i suoi bastoncini fino in Cina., quando Nepero era ancora in vita.

Nacquero anche delle varianti. Un gesuita della stessa epoca, Gaspard Schott, tornì dei bastoncini cilindrici sulla cui superficie erano state incise, colonna per colonna, le cifre dei bastoncini di Nepero. Ne fissò alcuni in una cornice, uno vicino all’altro e in modo che potessero ruotare; sopra appoggiò un coperchio con fessure, in modo da poter osservare le singole posizioni dei bastoncini. Questo sistema semplice non fu però mai introdotto nella pratica.

Nel 1885 Henry Genaille risolse il problema del riporto con una forma e un posizionamento particolare dei bastoncini di Nepero. Arrivò però troppo tardi per un’ampia diffusione del metodo, oramai vicino ad essere sorpassato.

 

La prima vera calcolatrice fu creata da un geniale professore di Tubingen, WILHELM SCHICKARD (1592-1635), matematico, astronomo, meccanico, pittore, calcografo, orientalista e prete. Costui costruì nel 1623 una calcolatrice, capace di eseguire le quattro operazioni, basata sui bastoncini di Nepero. Conteneva un meccanismo per memorizzare e sommare successivamente i valori intermedi che si ottenevano sia nella moltiplicazione sia nella divisione. È parere di molti che lo avessero spinto all’invenzione alcune conversazioni con l’astronomo Giovanni Keplero. A quest’ultimo Schickard aveva inviato una descrizione precisa della macchina, ma l’esemplare che gli aveva promesso bruciò in laboratorio. Il progetto originale andò perduto nel caos della guerra dei trent’anni, ma se ne trovò uno schizzo nelle carte di Keplero. Una ricostruzione funzionante venne fatta nel 1960.

La parte superiore della macchina calcolatrice contiene bastoncini di Nepero cilindrici posti orizzontalmente. Alcune manopole permettono la regolazione di numeri fino a sei cifre. Inserito tra queste manopole appariva un accumulatore composto da ruote dentate. Un utente trasferisce manualmente sull’accumulatore i valori intermedi posti sui bastoncini di Nepero e il risultato appare direttamente sotto, in piccole fessure. Dischi numerati, posti alla base della macchina, permettono di memorizzare un numero a sei cifre e ne risparmiano la trascrizione all’utente.

Un’ulteriore ruota dentata, posta fra due ruote numerate adiacenti nella parte dell’accumulatore, trasferisce il riporto nella posizione successiva. Dopo ogni giro completo di una ruota numerata, un singolo dente, montato separatamente, si inserisce nella parte intermedia corrispondente e produce una rotazione di 36 gradi. La ruota numerata, più vicina e con valore maggiore, si fa ruotare di una posizione.

Schickard limitò saggiamente la sua macchina a 6 cifre. In casi estremi, ad esempio sommando 999999 + 1, un dente singolo, accoppiato al disco delle unità, deve far ruotare meccanicamente l’intera addizionatrice. Schickard arrivò ai limiti della meccanica della sua epoca. I calcoli di Keplero richiedevano però numeri con più di sei cifre. Schickard preparò allora degli anelli per le dita, che l’astronomo doveva infilarsi ogni volta che suonava il campanello, che indicava che la macchina tentava un riporto in settima posizione.

 

3.4.  OSSERVAZIONI RELATIVE AI LOGARITMI.

Va aggiunto, a proposito dei bastoncini di Napier, che costui verso la fine del XVI secolo fece una delle scoperte più significative del tempo: la scoperta dei logaritmi. Indipendentemente da Napier i logaritmi furono scoperti, forse perché i tempi erano maturi, anche da parte di Jost Burgi. Tra il 1588 e il 1594, essi costruirono le prime tavole logaritmiche. Un grosso impulso alla teoria, come accennato sopra, è dovuto a Henry Briggs che introdusse, nel 1615, i logaritmi in base 10. Si accorse inoltre che tramite i logaritmi era possibile ricondurre le operazioni di moltiplicazione e divisione, che erano molto faticose usando gli ossi, alla addizione e sottrazione, invece piuttosto facili; questo per via delle proprietà dei logaritmi[116] che vogliamo richiamare, utilizzando naturalmente l’attuale simbolismo.

Il passaggio da un logaritmo al numero che lo produceva e viceversa era facile per via delle tavole ed il gioco era fatto. Inoltre le tavole che si producevano erano sempre più precise. Il calcolo con il regolo che via via stava soppiantando quello degli ossi di Napier, cominciava sempre più ad evidenziare i suoi vantaggi.

L’addizione di due lunghezze corrispondeva ora esattamente alla moltiplicazione dei numeri che erano rappresentati sulle tarature; anche la divisione era relativamente semplice.

Apparvero poi scale graduate in altri modi, ad esempio per elevare a potenza o per calcolare la radice, per leggere funzioni goniometriche e valori reciproci. Il «cursore» scorrevole sopra il «corpo», introdotto n 1845, permise di prendere in considerazione contemporaneamente più scale. Furono costruiti numerosi regoli per impieghi speciali. L’unico problema che rimaneva era la posizione della virgola decimale che nel risultato doveva essere trovata con calcoli mentali. Bisognava attendere almeno gli anni ‘70 (XX secolo) perché il regolo venisse del tutto sostituito dalla calcolatrice tascabile elettronica, più veloce, precisa e pratica.

Nel 1642, all’età di soli 19 anni, Blaise Pascal (1623-1662) inventò la sua Macchina aritmetica o Pascalina: una macchina con un complesso sistema di ingranaggi che consentiva di eseguire addizioni e sottrazioni mediante una semplice manipolazione di sei ruote poste sul coperchio di un’elegante scatola oblunga ma di piccole dimensioni. Le somme, ad esempio, apparivano in alcune fessure vicine alle ruote. Probabilmente Pascal adattò meccanismi ad orologeria con l’obiettivo di perfezionare la calcolatrice di Schickard, meno elaborata, ma anche meno fortunata.

La pascalina fu la prima macchina di una vasta generazione di strumenti meccanici di calcolo che furono prodotti in varianti di vario tipo fino a tutto il 1800. Nell’evoluzione di queste addizionatori troviamo pure una macchina prodotta nel 1675 dal filosofo e matematico tedesco Gottfried Wilheim Leibnitz (1646-1717), che perfezionò la pascalina con modifiche che permettevano di fare moltiplicazioni, divisioni ed anche radici quadrate. La macchina di Leibnitz, detta anche calcolatrice a livelli, fu presentata nel 1694 alla Royal Society di Londra, e queste macchine dominarono la scena fino a tutto il primo ventennio dell’ottocento. Leibnitz, l’uomo che fu uno dei grandi fautori del rinnovamento culturale della sua era, diede molto nel campo che stiamo trattando perché oltre al calcolo infinitesimale di cui fu uno dei fondatori, fu anche, come vedremo, l’inventore dell’aritmetica binaria.

Dopo molti tentativi frustrati solo nel 1820 troviamo qualche piccola novità come l’aritmometro di Xavier T., che ebbe un grande uso in Commercio e le versioni di circa cinquanta anni dopo di F.T. Baldwin e W.T. Odhner. Ma doveva essere l’avvento del lavoro pionieristico di Babbage a segnare un cambio di epoca.

 

3.5. LE CALCOLATRICI MECCANICHE CHE EMULAVANO LA PASCALINA.

Blaise Pascal (1623-1662) iniziava a costruire dal 1641, indipendentemente da quella del 1623 di Schickard, un’addizionatrice meccanica di legno, con la quale si potevano sommare numeri a sei cifre (egli si annoiava a calcolare e a sommare le esazioni delle imposte di suo padre). Questa macchina è conservata ancora oggi.

Si tratta di una calcolatrice numerica; alle cifre da 0 a 9 sono assegnate posizioni su ruote dentate (inventori più recenti hanno utilizzato anche aste dentate, ruote a pioli, rulli dentati, ecc.)

Per la rappresentazione di un numero sono necessarie tante ruote dentate su un asse unico, quante sono le cifre. La rotazione di un dente corrisponde ad aggiungere o a togliere uno, a seconda del verso della rotazione. Nel passaggio dal 9 allo 0 seguente, automaticamente, la posizione decimale più vicina veniva aumentata di uno. Questo procedimento si chiama riporto decimale.

Solo così avviene effettivamente un’addizione, per esempio dalle due cifre 19 il riporto fa passare alle due cifre 20. Se ci sono più 9 allo stesso momento, devono avvenire contemporaneamente più riporti decimali.

PASCAL ricondusse quindi le operazioni di calcolo alla rotazione di parti meccaniche che interagiscono.

La moltiplicazione avveniva tramite ripetute addizioni, la divisione con ripetute sottrazioni.

Gottfried Wilhelm Leibniz migliorò, dopo il 1670, la macchina di PASCAL utilizzando rulli dentati invece di ruote dentate. Con questi, per la prima volta, riuscirono la moltiplicazione e la divisione diretta di numeri a due cifre. Questa macchina era stata preparata per numeri a otto cifre, ma ai tempi di LEIBNIZ non aveva mai funzionato in modo soddisfacente, a causa di problemi meccanici nel riporto. La macchina originale fu dimenticata per due secoli, fu ritrovata, casualmente, in un solaio a Gottinga nel 1879. Il rullo dentato fu l’unica soluzione praticata per la moltiplicazione meccanica fino alla fine del XIX secolo. Fino alla metà del nostro secolo è rimasto parte integrante del calcolatore meccanico da tavolo.

Philipp Mattháus Hahn (1739-1790), un prete di Kornwestheim, nel 1770 posizionò in cerchio intorno a un asse centrale, alcuni rulli dentati. Questo mulino girevole funzionava in modo affidabile e si diffuse rapidamente. Le macchine per le quattro operazioni fondamentali vennero progressivamente perfezionate. Dopo un po’ di tempo furono costruite con un solo rullo dentato; seguirono poi tasti numerati e a movimento elettrico. Nel 1905 fu costruita la prima calcolatrice elettrica, nella quale era sufficiente premere dei tasti.

Giova però prima parlare di alcuni mutamenti del sociale che ebbero la loro influenza su tutto il movimento culturale globale dell’intero XVII secolo, cioè l’avvento dell’Illuminismo. Precisiamo che non è l’Illuminismo, nel suo complesso, che vogliamo esaminare, non sarebbe questo il luogo. Noi vogliamo esaminare la semplice apertura mentale, in relazione alla costruzione delle macchine di calcolo, che si generò dal fenomeno illuminista. Questa rivoluzione di idee aveva tra i sui obiettivi quello di lottare contro un oscurantismo che impediva di considerare, come arte e cultura, tutto ciò che si rilegava al pratico ed alla manualità. Di questa filosofia della rottura di dualismo tra Arti Liberali ed Arte Meccanica nascente e quindi di interazione uomo-macchina, mente-corpo, teoria-pratica si ha una prima avvisaglia nella famosa opera dell’anatomo-patologo, ante litteram, il belga André Vésale, nome italianizzato in Andrea Vesalio (1514-1564). Nella sua opera De corporis Humani fabbrica, pubblicata a Basilea nel 1543, possiamo leggere:

 

“… il professore siede su un alto scanno “come una cornacchia”, e spiega quel che fa il sezionatore; ma il professore non sa sezionare, né il sezionatore sa spiegare, e così “si insegna confusamente agli allievi meno di quanto un macellaio, dal suo bancone, potrebbe insegnare al dottore …

 

Dal XVII al XVIII secolo fiorirono molte Enciclopedie intese come sapere del mondo delle discipline. Le due in assoluto più famose e più simili alle attuali furono l’inglese Cyclopaedia or An Universal Dictionary of Arts and Sciences, pubblicata nel 1728 da Ephraim Chamber e la francese Encyclopédie di Diderot e D’Alambert. Entrambe si basavano sulla classificazione delle Arti e delle Scienze di Francis Bacon (1561-1626), il fondatore del metodo induttivo sperimentale e innovatore rispetto al metodo deduttivo di Aristotile.

La più celebrata, quella che segna il culmine del lavoro magistrale degli Enciclopedisti è l’Encyclopédie di Denis Diderot (1713-1784) e Jean D’Alambert (1717-1783).

Nella sua prima versione (1743) questa enciclopedia era una mera traduzione della Cyclopedia di Chamber, ma successivamente divenne opera più ampia ed articolata, il cui primo volume apparve nel 1751.

Molto contrastata dalla Chiesa e colpita da un bando di Luigi XV fece la sua fortuna per il forte legame del pensiero illuminista, di cui divenne simbolo. Il suo atteggiamento era adogmatico, progressista, tollerante, liberale e razionalista.

A partire dalla classificazione di Bacon in 47 arti e scienze, vi erano ad esempio inserite le scienze e le arti applicate, contro ogni precedente tendenza di escludere soggetti utilitaristici. Si 12 ponevano così nel sapere e come oggetti d’arte, tutto ciò che veniva utilizzato dalla mano dell’uomo. Inoltre, e questo fu altro motivo dell’enorme successo, gli articoli dell’Encyclopédie non erano scritti da sconosciuti, ma da autori del calibro di Rosseau, Turgot, Montesquieu e Voltaire!

 

3.6. L’AVVENTO DI BABBAGE

A conclusione di questa prima parte pionieristica occorre indicare l’insieme degli input e delle problematiche che si presentavano agli Scienziati del XIX Secolo.

Costoro, in particolare i Matematici e Fisici che operarono in tutto il XIX secolo, dopo la nascita del Calcolo Infitesimale (Newton e Leibnitz) e della Geometria Analitica (Cartesio e Monge), misero a punto diverse interessanti teorie anche nella direzione della Fisica. Le verifiche delle loro brillanti ipotesi era altamente frenata dall’enorme quantitativo di calcoli numerici che dovevano essere fatti. Parimenti venivano forti pressioni specie dopo la fine della guerra nella direzione delle ricerche di tipo militare, non ultima la stessa bomba atomica. Due fatti nuovi dovevano intervenire nel mondo della progettazione: la scoperta delle schede perforate (software) e le ricerche di Boole sulla formalizzazione delle funzioni logiche.

 

Il cosiddetto “software” ha origini precedenti a quelle che ne costituiscono l’uso attuale, precisamente il software era usato nell’industria per programmare i macchinari industriali in modo automatico. Nella Cina settentrionale del III secolo a.C., durante la dinastia Harn (206 a.C.- 9 d.C.), ma forse anche prima di allora, in relazione alle problematiche di tessitura, fu ideata una macchina a telai e un ingegnoso sistema di programmazione costruendo delle configurazioni con un elevato numero di fili di seta di differenti lunghezze. Senza entrare in dettagli, diciamo che cambiando la configurazione di base cambiava il disegno delle stoffe. Questi metodi furono ripresi e perfezionati nel telaio Jacquard mediante schede perforate, come vedremo tra breve. Nel 1725 il francese Basile Bouchon introdusse il primo sistema di fogli perforati capaci di controllare e programmare il meccanismo della macchina tessile. Si creava dunque un rotolo di carta perforata secondo il disegno da eseguire, il rotolo era avvolto su un apposito cilindro, tenuto a contatto con degli aghi, che comandavano i martelletti della tessitura. Se l’ago incontrava un foro aperto il martelletto non agiva, altrimenti agiva. Nel 1728 il sistema Bouchon fu perfezionato da Jacques de Vaucasson che utilizzava una sequenza di schede perforate al posto del rotolo di Bouchon e successivamente nel 1733 da J. Kay, e molte imperfezioni furono eliminate. All’esposizione universale di Parigi del 1801 fu presentato il telaio costruito da Joseph-Marie Jacquard (1752-1834), a schede perforate, che presentava un tale stato di perfezionamento che un solo operaio era in grado di produrre fino a 50 metri di tessuto al giorno. Nel 1813 il brevetto dello scozzese William Horrocks segnò un ulteriore notevole miglioramento sia della qualità sia dei tempi.

 

Le macchine che segnarono  un passo nuovo rispetto alla vecchia pascalina e derivati, furono le due macchine ideate dall’inglese Charles Babbage (1792-1871), che potevano fare della primordiale programmazione grazie all’uso di schede perforate, prese a prestito dall’industria tessile, e che facevano uso di funzioni logiche.

 

L’idea di quell’uomo geniale, che fu Babbage, lo portò a combinare l’uso delle funzioni aritmetiche, come quelle presenti nelle macchine di Pascal e Leibnitz, con le funzioni logiche; in altre parole la macchina doveva essere in grado di prendere delle decisioni in funzione dei risultati ed anche altre caratteristiche.

I tempi erano abbastanza maturi per poter ragionare in termini di funzioni logiche in quanto Babbage si era potuto ampiamente documentare dai lavori del suo compatriota George Boole (1815-1864), inventore di un’algebra della logica simbolica (oggi detta Algebra di Boole) che divenne fondamento del calcolo elettronico e della possibilità di esprimere tutte le funzioni matematiche, e non solo i numeri, in base binaria

Da ricordare che George Boole fu un autodidatta che divenne Maestro Elementare ed insegnante. Divenne amico di De Morgan e si inserì nel dibattito degli studi di Logica e nel 1874 pubblicò The Mathematical Analysis of Logic, che fu riconosciuta come opera di importanza capitale nello sviluppo del pensiero logico in quanto provava come la Logica andasse ricollegata più alla Matematica, che non alla Metafisica, costruendo, per questo, un calcolo simbolico della Logica.

Riassumendo le macchine di Babbage dovevano essere in grado di:

 

  • combinare l’uso delle funzioni aritmetiche con le funzioni logiche;
  • combinare l’aspetto analitico – tipo pascalina – con l’aspetto digitale – tipo la macchina di Leibnitz;
  • prendere delle decisioni in funzione dei risultati;
  • confrontare delle quantità;
  • eseguire istruzioni prestabilite;
  • trasferire i risultati ottenuti per controllare una nuova serie di operazioni;

 

Per combinare questi usi molteplici Babbage utilizzo la tecnica delle schede perforate di Bouchon e Jacquard.

Esattamente Babbage tentò di conciliare l’automatizzazione che era nota nel campo dell’industria tessile con il calcolo meccanico derivante dalle macchine di calcolo, rilegandole con l’uso delle funzioni logiche, in un geniale lavoro di sintesi. Babbage non arrivò al termine delle sue ricerche per vari motivi:intanto era persona di carattere irascibile e questo faceva si che non si procurasse amici e principalmente sostenitori che mettessero a sua disposizione dei capitali, mancanza di tecnologie adeguate, necessità di una grande equipe di personale istruito allo scopo. Riuscì solo a presentare un prototipo rudimentale della sua prima macchina, che aveva chiamato “macchina differenziale” nel 1822. Questa macchina, che eseguiva le quattro operazioni elementari, riusciva a calcolare e stampare tavole di funzioni con l’aiuto di tecniche prestabilite (diremmo oggi che eseguiva un programma fisso).

Babbage non vide mai funzionare le sue macchine, che furono realizzate completamente solo dopo la sua morte. La seconda, la “macchina analitica” era sostanzialmente un calcolatore digitale ed analitico universale, serviva a trovare il valore di una qualsiasi espressione di cui si conoscesse la sequenza delle operazioni (cioè l’algoritmo); in altre parole la macchina analitica calcolava i valori delle funzioni e poteva modificare la sequenza delle operazioni, cioè poteva cambiare programma. Ricorderemo con Babbage la sua compagna Agusta Ada Byron, contessa di Lovelace (1815-1852), figlia di Lord Byron, che nel 1835 (era appena ventenne) preparò il primo sottoprogramma per la macchina aritmetica di Babbage. Il programma fu realizzato su schede perforate che comandavano gli automatismi della macchina, sollevando l’operatore dall’introdurre ogni volta le istruzioni nella macchina. Ada Byron si pose anche il problema della programmazione completa e della redazione, sempre con utilizzo di schede perforate, della macchina analitica di Babbage. Fu dunque la prima programmatrice della Storia, anche se l’invenzione di Babbage restò allo stato embrionale fino al 1860.

Scisse Ada Byron nel 1873

 

“ … la macchina analitica non è capace di fare alcunché ma riesce a fare qualsiasi cosa noi si sia in grado di ordinare, tuttavia non sarà mai capace di scoprire nuovi meccanismi o nuove regole di calcolo (teoremi) …”.

 

Ada Byron morì precocemente di cancro a 37 anni.

 

Riassumendo, la macchina analitica doveva essere in grado di:

 

  1. trovare il valore di una qualsiasi espressione di cui fosse nota la sequenza delle operazioni (algoritmo);
  2. modificare la sequenza delle operazioni (cambiare programma).

 

Nel 1860, in Svezia, la “Società Scheutz” realizzò un modello adattato della macchina analitica di Babbage mentre solo nel 1970 la macchina analitica di Babbage venne completamente realizzata dall’IBM.

 

Va anche ricordato che in questo periodo nasce e si perfeziona anche la macchina da scrivere. A parte vecchi e mitici prototipi che si fanno risalire ai primi decenni del 1700, ricordiamo un non meglio identificato Hermant (1710), i precursori von Krause (1760), Bramah (1780), Turri (1808) ed infine colui che si considera l’inventore della macchina e cioè Xavier Progin ed il suo Kryptografo del 1833 (apparecchio a martelli indipendenti). Vi furono più di cinquanta altri inventori, ma la commercializzazione della macchina avvenne con il modello di Latham Sholtes del 1867, messo in commercio dalla Remington con il nome di Remington modello I.

 

3.7. DAGLI SCHEUTZ A ZUSE: IL PRIMO COMPUTER ELETTROMECCANICO

Lo svedese G. Scheutz[117], tranquillo, modesto ma estremamente tenace era ben diverso da Babbage, il quale risultava a molti litigioso e fin troppo consapevole della sua bravura. Scheutz, capacissimo ad ispirare fiducia e a procurarsi sovvenzioni, senza lasciarsi toccare dall’incomprensione e dai riconoscimenti, realizzò un prototipo semplificato della macchina “macchina delle differenze” di Babbage, ottenendo così il successo non avuto dall’altro. Costruì un primo modellino e nell’operazione coinvolse anche il figlio sedicenne Edvard. Nel 1853, anno in cui Edvard raggiunse la maggiore età, la macchina fu completata e rese il nome di “Macchina tabulatrice”, questa venne esposta a Londra e nel 1854 riuscì perfino a venderla agli Stati Uniti e più precisamente all’Osservatorio astronomico di Albany (New York) che, a partire dal 1858, la utilizzò per il calcolo delle effemeridi di Marte.

Nel 1880 H. Hollerith per la prima volta dei valori numerici su schede perforate standardizzate: alcuni contatti elettrici leggevano la presenza dei fori e un’addizionatrice svolgeva l’elaborazione successiva.

  1. Zuse[118], ingegnere aeronautico berlinese, nel 1938 ideò ed in seguito realizzò il primo computer elettromeccanico moderno unendo tre elementi ritenuti fondamentali nell’informatica del tempo: l’algebra booleana, la tecnologia delle schede perforate di Hollerith ed i relé, già in uso nei calcolatori meccanografici. In questo modo, Zuse costruì lo Z1, ed in seguito lo Z2 (perfezionamento del prototipo Z1). L’intuizione che permise di costruire tale macchine fu fatta anche da Shannon nella sua tesi del MIT e si basava sul fatto che i relé possono assumere due stati fisici (in presenza o in assenza di corrente). Zuse, quindi, non fece altro che adattare l’aritmetica booleana (binaria) ai relé considerando il fatto che al passaggio della corrente era possibile misurare uno stato zero oppure uno. Questa tecnica permise quindi di poter rappresentare i numeri all’interno del calcolatore. Inoltre all’interno dello Z1 venne fatta netta distinzione tra quella che era la memoria del sistema ed il processore. Zuse progettò una vera e propria generazione di Zx, infatti dallo Z1 si giunse allo Z4, che utilizzava esattamente 2200 relé e pesava 2 tonnellate e mezzo, occupando una superficie pari a 20 mq.

 

3.8. USCENDO DALLA PREISTORIA DELL’INFORMATICA

E’ consuetudine far iniziare la storia vera e propria dell’informatica con l’avvento del suo strumento principale, il calcolatore, che, nella forma datagli da Von Neumann (che vedremo in seguito) e altri pionieri suoi contemporanei, fu realizzato alla fine della Seconda Guerra Mondiale. E tuttavia ovvio, come abbiamo accennato in precedenza, che la disciplina “informatica” affonda le sue radici nella storia del pensiero umano, con particolare riguardo ai progressi teorici di duecento anni almeno di storia precedente. Prodromi ed elementi di informatica li abbiamo indicati nella matematica (in particolare, in aritmetica), precisamente a riguardo del calcolo meccanico, nella logica e nella retorica (specialmente con riguardo a Leibnitz e all’arte della memoria) e nella crittografia, disciplina dalla quale provengono molte problematiche concrete, la cui risoluzione ha indicato nuove vie per l’informatica.

A riguardo giova osservare subito che la Crittografia, antica come la matematica, e sua parente stretta, è la prima disciplina che si occupata di gestire informazioni, elaborarle, comunicarle e proteggerle da occhi e orecchi non autorizzati (protezione dell’informazione) dando luogo allo scambio di messaggi in cifre, alla conseguente nascita del fenomeno dello spionaggio e del controspionaggio. 

Scopo primario dell’informatica è rappresentare l’informazione in modo numerico e fornire metodi per la sua elaborazione. Da questo punto di vista, è molto interessante confrontare i vari sistemi di numerazione da quelli romano e greco fino a tutto il sistema arabico, che è poi quello che usiamo oggi.

La logica matematica e la teoria computazionale, strettamente correlata alla prima, ricevettero un impulso considerevole nei primi anni del ventesimo secolo (in particolare negli anni Trenta). È sorprendente come, quasi in contemporanea, pionieri come Alonzo Church, Alan Turing, Kurt Godel, Andrei Andreevich Markov e Stephen Cole Kleen, ben prima che il calcolo automatico divenisse realtà, ne fornirono una caratterizzazione estremamente precisa, identificandone anche i limiti.

Ognuno di questi scienziati arrivò in maniera autonoma e originale a una formulazione astratta e precisa del concetto di algoritmo, usando una notazione matematica speciale o un modello astratto di calcolatore.

Lo studio dei successivi periodi della storia dell’Informatica è bene riguardarli ponendo l’attenzione su tre punti di vista relativa a certi momenti evolutivi di interesse notevole:

 

  1. I passi seguiti per condurla alla sua definizione nella forma attuale, asserente che l’informatica la disciplina che si occupa della conservazione, dell’elaborazione e della gestione rigorosa dell’informazione oltre alla sua trasmissione mediante calcolatore elettronico.
  2. L’evoluzione dei concetti, dei metodi e dei modelli teorici alla base della disciplina; l’evoluzione degli strumenti, intendendo non solo l’hardware (calcolatori, reti di comunicazione, dispositivi di ingresso/uscita ecc.), ma anche il software (linguaggi di programmazione, compilatori, editor, debugger, strumenti di sviluppo per l’analisi, la specifica e il progetto).
  3. L’evoluzione delle applicazioni dell’informatica di ogni tipo.

 

3.9. LA MACCHINA ENIGMA, I COLOSSI E L’ENIAC

Durante la seconda Guerra Mondiale i Tedeschi disponevano di una macchina cifrante a rotori detta ENIGMA che resisteva a tutti gli sforzi dei Crittoanalisti, in quanto per la prima volta nessuno riusciva a decrittare con carta e penna le informazioni protette dall’ENIGMA. Furono gli Inglesi che operarono la decrittazione della macchina ENIGMA. La decrittazione avvenne utilizzando degli enormi calcolatori che si chiamavano Colossi, grandi macchine con valvole, transistor e circuiti integrati. Le operazioni che furono allora compiute ancor oggi non sono del tutto chiare, forse perché ebbero anche l’aiuto di componenti esterne come quelle provenienti dal settore dello spionaggio. Così molti autori indicherebbero come il 1943, anno di nascita dei Colossi, si possa ritenere il vero anno di nascita dell’Informatica. Il gruppo del controspionaggio inglese che aveva la sua sede nel Buckingamshire aveva tra i suoi componenti anche A. Turing allora poco più che trentenne e già famoso per le sue ricerche in logica e nell’Informatica teorica e per la macchina ideale o se preferite astratta che porta il suo nome.

 

Nei primi anni del ventesimo secolo furono sviluppati i primi calcolatori elettromeccanici, impiegando la tecnologia elettronica basata su valvole termoioniche. Infine, nel 1946, guidato dalle richieste militari dettate dalla Seconda Guerra Mondiale (e precisamente, dalla necessità di eseguire calcoli balistici in tempo reale), J. Von Neumann, americano di origine ungherese (che allo scoppio della seconda guerra mondiale fu inserito in quasi tutti i progetti militari americani), nel 1943 assieme a Robert Oppenheimer mise a punto l’EDVAC (Electronic Discrete Variable Automatic Computer) una macchina funzionante grazie ad un programma preregistrato. A quel progetto parteciparono J. Maucheley e J. Eckart, che nel 1945 costruirono l’ENIAC (Electronic Numerical Integrator and Computer), alla cui costruzione collaborò anche Herman H. Golenstein. ENIAC è considerato il primo calcolatore moderno e perciò delimita il confine tra preistoria e storia dell’informatica.

 

3.10. GLI ANNI CINQUANTA

Nel 1950 una piccola società di Filadelfia, fondata dagli inventori dell’ENIAC, J. Presper Eckert e J. Mauchly, era sulla buona strada verso il completamento di un nuovo computer, più veloce e più potente, l’UNIVAC (Universal Automatic Computer). La maggiore innovazione hardware della nuova macchina era costituita dall’utilizzo del nastro magnetico per l’input/output dei dati, e di una stampante per visualizzarne il contenuto, il tutto in sostituzione delle schede perforate, mentre dal punto di vista architetturale l’UNIVAC a differenza dell’ENIAC, poteva essere programmato per svolgere qualsiasi compito. Con la nascita dell’UNIVAC, quindi, viene alla luce il concetto di macchina general purpose, cioè di un computer che non siano dedicato ad un solo possibile utilizzo, ma che può essere programmato per fare qualsiasi attività; oggi un esempio eclatante di computer general purpose è il Personal Computer di casa. La nuova azienda, EMCC (Eckert-Mauchly Computer Corporation), dovette purtroppo affrontare grosse difficoltà, sicuramente i suoi fondatori non erano degli uomini d’affari: Eckert era la mente tecnologica e Mauchly risultava essere lo scienziato. In particolar modo, il compito di quest’ultimo era di ricercare mezzi più veloci per il calcolo matematico, e a forza di muoversi verso tale direzione, lui stesso iniziò a concepire il computer, non come una potente calcolatrice, ma come una macchina in grado di risolvere una varietà di problemi diversi tra e loro, anche legati al business. L’incalzare però delle difficoltà economiche, costrinse i due scienziati a vendere l’EMCC a Remington Rand, azienda produttrice di macchine tabulatrici e macchine da scrivere. L’UNIVAC venne utilizzato, inizialmente,  dall’Ufficio del Censimento degli Stati Uniti, dall’Esercito che lo impiegò per calcoli balistici ed in seguito dall’Aeronautica militare, che lo utilizzo per l’amministrazione dei suoi magazzini. Ben presto ebbe impiego anche in campo aziendale, soprattutto per la gestione delle paghe e in campo assicurativo-finanziario (la prima azienda ad utilizzarlo fu la General Electric nel 1953). Si vendettero 46 macchine, al prezzo di circa un milione di dollari, fino al 1957, anno in cui l’UNIVAC I venne tolto dalla produzione, (il reddito medio annuo di un cittadino degli Stati Uniti era di poco più 3700 dollari!).

Parallelamente, presso i laboratori del MIT, si stava sviluppando un nuovo computer, il Whirlwind, che portò ad innovazioni tecnologiche fondamentali, quali la RAM (memoria ad accesso casuale), utilizzando la tecnologia dei nuclei magnetici, nuclei di ferrite inseriti in un reticolo di fili di rame ognuno dei quali conservava un bit ed accessibili in qualsiasi ordine. Oltre a queste innovazioni tecnologiche, il Whirlwind fu anche il primo computer che reagiva in tempo reale alle azioni di un utente, invece di attendere l’input e dare risposte. Questo comportamente venne così configurato perché il principale utilizzo della macchina era a fini prettamente militare, e più precisamente aeronautici, infatti il Whirlwind può essere considerato a tutti gli effetti il primo simulatore di volo militare.

Negli stessi anni anche l’IBM (International Business Machines conosciuta anche come Big Blue), già nota nel campo delle macchine tabulatrici, prese piede nel nuovo settore dei computer. In verità tale conversione si deve al figlio del fondatore e presidente Watson, T. Jiunior, che, durante la seconda Guerra Mondiale aveva lavorato in un laboratorio delle forze armate americane, dove aveva potuto sperimentare le potenzialità delle applicazioni dell’elettronica. I successi della EMCC e lo scoppio della guerra di Corea contribuirono ad un mutamento del core business della IBM, avvicinandola sempre di più verso le nuove tecnologie. Nacque così una nuova macchina come Defense Calculator (calcolatore per la difesa), allo scopo di contribuire allo sforzo bellico, commercialmente noto come Modello 701. Per effettuare lo sviluppo di tale macchina, IBM mise in piedi una nuova struttura nota come Applied Science, che, non appena presentato il primo modello, si mise al lavoro su quello successivo. Venne, inoltre realizzato lo speedcoding, una specie di emulatore che permetteva di programmare il 701 (che era una macchina a virgola fissa, con indirizzamento singolo e senza registri a indice), come se fosse una macchina a virgola mobile, a indirizzamento libero con registri a indice. Lo speedcoding permetteva di scrivere codice senza dover sottostare all’architettura fisica della macchina. Tale emulatore risulta tutt’oggi molto importante, perché costituiva una delle prime applicazioni che si basava sulle teorie fondamentali dell’informatica definite da Alan Turing, secondo cui ogni macchina può emulare il funzionamento di qualsiasi altra macchina. Uno dei motivi per cui l’informatica del tempo era relegata solamente nei laboratori di ricerca, era dovuto al fatto che lavorare con un computer era un compito assai lungo e noioso: infatti, il problema principale non era tanto la realizzazione fisica della macchina, ma piuttosto la programmazione. Essa avveniva nel linguaggio della macchina: comandi a livello bassissimo che agivano direttamente sull’hardware del sistema e difficili da ricordare. Inoltre, aggravava la situazione, il fatto che ogni computer aveva il suo linguaggio di programmazione proprietario e diverso da quello di tutti gli altri. Di fatto, già decine di anni prima, Turing nella formalizzazione della sua macchina definì alcune regole per cui occorreva realizzare un programma che si occupasse della traduzione di comandi e istruzioni ad alto livello, e quindi di più semplice utilizzo, nello specifico linguaggio della macchina da programmare. Questa soluzione, che oggi è gia presente nel mercato (basti pensare a linguaggi di programmazione come Visual basic o C++), al tempo risultava al quanto ostica. Il primo programma di questo tipo fu il compilatore A-O, realizzato da Grace Hopper. Esso era molto lento e difficile da usare e copriva tutti gli utilizzi.

Anche IBM, resasi conto di tale necessità, sviluppò un programma mirato al mondo tecnico-scientifico, in grado di automatizzare e semplificare la scrittura di codice. Il programma doveva essere un traduttore di formule matematiche, un “FORmulas TRANslator”, anche noto ali giorni nostri come il  linguaggio FORTRAN ancora utilizzato in molte applicazioni militari e scientifiche.

 

3.11. VERSO L’INNOVAZIONE TECNOLOGICA

I Lincoln Laboratories del MIT produssero nel 1956 un computer oggi praticamente dimenticato, ma che avrebbe avuto un influsso decisivo sullo sviluppo dell’informatica: il TX-0 (Transistorized Experimental computer zero spesso chiamato tixo). Questo fu il primo computer programmabile di uso generale realizzato completamente con tecnologia allo stato solido, ossia con transistor, e che faceva uso di memoria a nuclei magnetici di grandi dimensioni (similmente al Whirlwind,); fu inoltre, il primo computer pienamente interattivo messo a disposizione di un gran numero di utilizzatori. Alcune delle principali innovazioni tecnologiche attualmente presenti, come ad esempio la computer grafica, la programmazione simbolica, il riconoscimento vocale, l’editing e la registrazione digitale, si devono a ricercatori che lavorarono sul TX-0. Un’intera generazione di studenti interessata all’informatica e alle sue applicazioni vi compì il proprio addestramento. L’architetto di sistema Wes Clark, inventò proprio per il TX-0 la penna ottica per disegnare direttamente sullo schermo. Pur essendo molto elementare da un punto di vista tecnico, la macchina era sofisticata per le capacità d’interazione: disponeva della penna ottica e di un monitor, che consentivano l’inserimento dei dati in tempo reale e la visualizzazione immediata dei risultati. Una delle prime dimostrazioni delle capacità interattive fu un programma, Mouse Maze, che mostrava, in un labirinto, un topo, che ogni volta che prendeva la direzione giusta beveva un Martini, diventando sempre più ubriaco. La vera esplosione di creatività si ebbe nel 1958, con l’installazione del TX-0 al Research Laboratory of Electronics presso il MIT e con il conseguente uso da parte degli studenti. Fu proprio in quello stesso anno che un gruppo di otto ingegneri fondò la Fairchild Semiconductors. Gli “Otto”, soprannome attribuito a questo gruppo di giovani ingegneri, diedero un notevole apporto all’informatica: la produzione di circuiti integrati di silicio. Erano già stati realizzati i primi transistor e Hoerni stava mettendo a punto il processo di fabbricazione planare, che alla fine consentì la produzione dei circuiti integrati. Alla Texas Instruments, Jack Kilby, produsse il primo circuito integrato usando, però, germanio, più costoso e delicato. Gli “Otto” furono incoraggiati a realizzare circuiti monolitici migliori di quelli della Texas, fino alla costruzione del primo circuito basato sul silicio; tale lavoro li colloca tra le personalità più importanti della storia della tecnologia.

 

3.12. GLI ANNI SESSANTA

All’inizio degli Anni Sessanta i computer non erano più fantascienza, essendo oramai installati in qualche migliaio di esemplari in tutto il mondo. Il modo di funzionare risultava molto diverso da quello che oggi reputiamo normale. Una volta lanciato un programma su un computer, la macchina non poteva far altro che portarlo a conclusione e non si poteva effettuare nell’altro fino alla terminazione del programma stesso.

Nel frattempo sorgeva sempre di più l’esigenza che un computer potesse eseguire, nello stesso tempo, più programmi. Si assistette, dunque ad una vera e propria rivoluzione che modificò radicalmente l’approccio all’informatica. L’idea partì dal Professor J. McCarthy, docente del MIT, ma venne in seguito sviluppata dal Professor Fernando Corbato; si trattava di un nuovo concetto descritto come timesharing, letteralmente “condivisione di tempo”. Funzionando in timesharing un computer è in grado di eseguire diversi programmi assegnando a ciascuno di essi una porzione di tempo di elaborazione. Nell’unità di tempo la macchina esegue sempre un programma alla volta, ma il passaggio da un programma all’altro è fatto in modo tale da dare l’impressione che l’esecuzione sia contemporanea, inoltre, tale funzionamento aumenta l’interattività tra macchina e utilizzatore, che può, per esempio, creare del codice su una tastiera, mandarlo in esecuzione e vederne i risultati nell’immediato, anche se la macchina sta eseguendo altri programmi. Nel 1961, il Professor Corbato con il suo gruppo di assistenti, produsse il Compatible TimeSharing System (CTSS), il primo sistema funzionante che adottava i nuovi criteri. L’impresa non fu per nulla semplice, considerando che non esisteva l’hardware adatto per mettere in pratica il timesharing; si ovviò, comunque al problema utilizzando un computer a transistor della IBM e i meccanismi della macchina da scrivere elettrica Selectric della IBM. La prima dimostrazione del CTSS era incompleta, ma fu presto migliorata tanto che la versione definitiva del sistema venne messa in produzione per fornire servizi di timesharing al MIT, a diversi College del New England e all’Istituto Oceanografico di Wood Hole. L’eredità più importante del CTSS e del timesharing consiste nell’aver fatto entrare il “fattore utente finale” nell’universo della progettazione degli elaboratori e del software commerciali.

Sempre intorno agli anni sessanta, si affrontò anche un nuovo ed importantissimo problema che ha segnato l’intera informatica. Tutto nacque dall’esigenza di cercare un modo per far dialogare i calcolatori tra di loro: nacque quindi la necessità di una specie di standardizzazione del codice per la rappresentazione dei caratteri. A quei tempi si contavano nell’informatica 60 modi diversi di rappresentare i caratteri; la sola IBM ne aveva in uso 9. Robert Bemer propose nel 1961 uno standard, che fu più volte rivisto dai rappresentanti dei produttori di computer allora in attività, in quanto ciascun produttore cercava di inserire i caratteri di controllo utilizzati nelle proprie macchine. Nel 1963, si giunse comunque ad un compromesso quasi del tutto formale e così venne alla luce uno degli standard più utilizzati oggi nello scambio di informazioni tra computer, parliamo infatti della codifica ASCII (American Standard Code for Information Interchange) per i caratteri. Prima che tale standard prendesse piede, passarono comunque diversi anni.

 

3.13. L’AVVENTO DEI COMPATIBILI

Nel 1964 T. Watson Junior, presidente di IBM annunciò la linea S/360, la prima famiglia di computer compatibili tra di loro. Oltre a consentire prestazioni di tutto rispetto, fu la prima linea di computer a far proprio il concetto di compatibilità, una vittoria strategica per gli utilizzatori di computer, e segnò il debutto commerciale di due innovazioni epocali: il sistema operativo e la multiprogrammazione. L’S/360 utilizzava una numerazione in base 16, la cosiddetta numerazione esadecimale, che risultava molto più complessa rispetto alle precedenti macchine che lavoravano in base 10. Il nuovo sistema di numerazione impose, in fase di progettazione dell’S/360, l’intervento da parte di molti matematici che fossero maggiormente abituati a pensare e risolvere problemi in termini più astratti. Anche la scelta di IBM a favore della multiprogrammazione rispetto al timesharing cambiò la natura del lavoro di realizzazione del software: infatti ora i programmatori potevano sfruttare l’esecuzione di più processi su un singolo sistema contemporaneamente. non stavano più alla console a scrivere codice in diretta interazione con l’hardware, ma dovevano consegnare le proprie schede perforate a un operatore e ritirare più tardi i risultati. Se questi ultimi non erano positivi al primo tentativo, occorreva rimettere in coda il proprio programma, aspettare di nuovo. Iniziò cosi la separazione netta tra utente del computer e custodi dello stesso. Il fatto di non riscrivere tutti i programmi a ogni cambio di macchina significava un enorme risparmio in termini di tempo e denaro. Nello stesso periodo in Inghilterra, Donald Davies sovrintendente della divisione informatica del National Physics Laboratory, si rese conto dell’inadeguatezza della tecnologia di trasmissione dati dell’epoca. Già qualche anno prima, l’ARPA, l’agenzia di ricerca avanzata del Pentagono stava cercando di sviluppare una rete di comunicazione in grado di sopravvivere ad un attacco nucleare. Erano gli anni della Guerra Fredda ed un attacco sovietico, avrebbe paralizzato l’intera rete telefonica degli USA e le comunicazioni militari. Considerando inoltre la vastità del territorio statunitense, una delle preoccupazione maggiori del governo era quello di non sapere in tempo reale se un qualsiasi punto strategico della loro stato venisse attaccato e distrutto. Occorreva quindi un sistema che ino ngi momento desse un segnale sull’attività di tali punti strategici. Si trovò il modo di rendere più resistente la rete con il concetto di packet switching. Il concetto di base prevede che il flusso dei dati venga suddiviso in piccole unità, dette pacchetti, trasmesse individualmente utilizzando il percorso più rapido sulla rete. Ogni pacchetto contiene informazioni sulla propria origine e destinazione, oltre che quelle relative alla propria posizione all’interno del flusso dei dati. Una volta arrivati a destinazione, i pacchetti vengono composti per ricostruire il messaggio originale. Di conseguenza il flusso dei dati, transitando tra i vari nodi presenti nel territorio americano, poteva essere ricostruito solamente se tutti i pacchetti arrivavano a destinazione. Quindi, la mancata ricostruzione del flusso imponeva il mancato recapito di almeno un  pacchetto, e di conseguenza il verificarsi di una situazione anomala in qualche punto della rete.

Il maggiore risultato fu quello di realizzare una rete digitale che collegava le università e i centri di ricerca affiliati dell’ARPA: la cosiddetta ARPAnet, l’antenata dell’attuale Internet. ARPAnet, società specializzata in tecnologie e applicazioni molto innovative, tradizionalmente fornitrice del Pentagono, entrò in attività nel 1969 grazie a Bolt, Beranek e Newman, e a una schiera di programmatori e studenti universitari. Inizialmente la rete aveva solo quattro nodi, tutti nell’ovest degli Stati Uniti: la University of California a Los Angeles (UCLA), la University of California a Santa Barbara, la University of Utah a Salt Lake City e lo Stanford Research Institute a Stanford nella futura Silicon Valley. Uno dei primi problemi che ARPAnet dovette affrontare fu quello di trovare un alto livello di omogeneità tra tutti i comandi informatici presenti presso le singole università. Questa operazione fu possibile grazie a Unix, un sistema operativo timesharing che aveva da poco preso piede.

 

3.14. GLI ANNI SETTANTA

L’avventura del personal computer come lo conosciamo oggi, ebbe inizio con la concentrazione in un ambiente stimolante di persone di varia estrazione. La Xerox, a quel tempo una delle più grandi aziende fornitrici di stampanti e fotocopiatrici, aveva deciso nel 1970 di creare a Palo Alto un centro di ricerca noto come PARC (Palo Alto Research Center), guidato da Bob Taylor, che aveva idee molto avanzate riguardo ai computer. Egli li vedeva infatti come strumenti di comunicazione tra le persone e non come strumenti di calcolo, per questo tutti, secondo il suo pensiero, avrebbero dovuto possederne uno. Il suo team di sviluppo iniziò cosi a progettare un computer (antenato del PC) interattivo dotato di un grande display, di un’ interfaccia utente grafica, di un mouse, di un disco locale e di una tastiera. Il risultato fu l’Alto, una macchina dotata di 128 KB di memoria, con un costo di 4000 dollari. Era una quantità di memoria  enorme per il tempo, soprattutto per una macchina di quelle dimensioni e molti vedevano la cosa come uno spreco anche perché sarebbe stato antieconomico produrla in serie. In realtà, disponendo di una memoria molto grande i creatori di Alto riuscirono a risolvere molti problemi semplicemente consumando RAM. Essi volevano dimostrare cosa sarebbe stato possibile realizzare,  una volta che i prezzi fossero scesi a livelli abbordabili. Il progetto andò avanti e produsse Ethernet I ricercatori che stavano sviluppando Alto avevano creato anche una stampante laser da una pagina al minuto.

L’idea era che tutti i dipendenti del PARC disponessero di un computer, e che questi potessero colloquiare tra di loro in qualche maniera; per fare ciò era tuttavia necessaria una nuova rete, che fosse molto veloce e in grado di collegare centinaia di computer. Il compito fu affidato a Bob Metcalfe, che nel 1972 completò un prototipo di rete a 3Mbit al secondo su cavo coassiale. Metcalfe utilizzò un metodo che consentiva ai computer di operare senza sapere cosa stessero facendo gli altri. Le macchine trasmettevano solo quando trovavano il canale dati libero; se per caso due computer trasmettevano contemporaneamente e si registrava una collisione, le due macchine ritrasmettevano ciascuna dopo un intervallo casuale. Il metodo venne chiamato CSMA/CD, Carrier Sense Multiple Access/Collision Detection. Nel 1973 il PARC definì il protocollo più utilizzato oggi per creare reti locali di computer: l’Ethernet, e nello stesso tempo produsse anche la prima scheda Ethernet che venne costruita in centinaia di esemplari, ma solo per uso interno. Bisognerà aspettare ancora un po’ per vedere realizzato il primo PC prodotto in serie. Nel 1974 in una città del sud-ovest degli Stati Uniti, una piccolissima società elettronica MITS, guidata da Ed Roberts, un ex-ufficiale dell’Aeronautica Militare americana, si imbarcò nella realizzazione di un piccolo computer destinato all’utilizzo individuale. Lavorando con due ingegneri Bill Yates e Jim Bybee, Roberts realizzò il prototipo del suo computer, chiamato Altair. La macchina era costruita attorno a un bus, progettato e realizzato artigianalmente, in cui era inserita una scheda madre con un nuovissimo microprocessore Intel 8080 e una scheda di memoria da 256 byte. Unica unità di I/O era un pannello frontale pieno di interruttori e lucette lampeggianti. La cosa più sconvolgente era il prezzo: 397 dollari per la scatola di montaggio e le istruzioni con cui assemblare il tutto. Altair ebbe notevole successo e giunsero tanti di quegli ordini che la società non riuscì a soddisfare. In verità, le scatole di montaggio che avevano affollato il mercato lasciarono rapidamente spazio a dei pc, già assemblati e quindi immediatamente utilizzabili.

Un altro importante computer che vide luce intorno ala metà degli anni ’70 è stato il VAX (Virtual Address eXtension), il primo superminicomputer a 32 bit, sviluppato dalla DEC (Digital Equipment Corporation). Si trattava di un sistema con grandi capacità d’indirizzamento della memoria, veloce quanto la maggior parte dei mainframe ma di utilizzo molto più semplice e di costo molto più basso. I dipartimenti delle grandi università acquistarono direttamente i VAX, creandosi dei propri centri di calcolo e rendendosi autonomi da quelli centrali e dai loro mainframe; le piccole università poterono dotarsi di proprie capacità elaborative, sganciandovi dai centri servizi di timesharing. Buona parte di questo successo fu dovuto a ciò che Digital costruì attorno al VAX: compatibilità a livello di eseguibili dalla macchina più piccola a quella più potente, unico sistema operativo, connessione di rete integrata tramite Ethernet e i protocolli DECnet. Una curiosità che pochi sanno riguarda il marchio VAX, infatti questo era anche il marchio di un aspirapolvere. A quel punto la DEC e la VAX Corporation (società proprietaria dell’aspirapolvere) dovettero fare un accordo per quanto riguardava l’uso del marchio. I termini di tale accordo riguardavano un contratto di non competizione tra le due aziende, in pratica la  VAX corporation non avrebbe intrapreso alcun business in attività informatiche, mentre la DEC si impegnava a non progettare o costruire in futuro elettrodomestici.

Il 1976 fu una data storica molto importante per l’informatica, infatti in quell’anno due amici, l’eccentrico Steve Jobs e l’hacker Steve Wozniak, costruirono insieme il famoso Apple I, una delle pietre miliari dell’home computing. Il computer disponeva di un connettore che gli permetteva di essere connesso direttamene alla televisione, unico difetto era la velocità di aggiornamento, detto refresh, del della televisione, infatti questa si aggirava intorno ai 60 caratteri al secondo. Appena accesa, la macchina caricava attraverso la sua ROM già del codice preconfigurato che permetteva di renderla molto semplice sia nell’accensione che nell’utilizzo. Venne inoltre progettato e realizzato anche un lettore a cassette al fine di caricare e salvare programmi realizzati per l’Apple I. Altro pregio era anche il costo, infatti la macchina risultava davvero economica e quindi venne acquistata da un altissimo numero di utenti. Tale fu il successo di questo home computer che l’anno dopo ancora lo stesso Wozniak poté progettare e costruire immediatamente il successo: Apple II. Sempre nel 1977 vi fu anche un’altra società che sviluppo un computer destinato a fare storia, stiamo parlando della Commodore e del suo PET (Personal Electronic Transactor) che aveva la caratteristica di avere integrato in una unica unità tastiera, schermo e memoria di massa a nastro magnetico.

Oramai, anche se la sigla Personal Computer ancora non era utilizzata, già all’orizzonte si intravedevano i primi PC, che in pochi anni avrebbero totalmente conquistato il mercato.

Contestualmente alla nascita di queste nuove macchine più user-friendly, cominciarono a sorgere anche nuove tipologie di software più adatte all’utilizzo quotidiano e soprattutto da parte di utenti non tecnici.

Apparvero così i primi pacchetti software commerciali che avevano un’utilità reale e soprattutto che consentivano di fare cose altrimenti impossibili. Fecero i primi passi VisiCalc, il primo spreadsheet (foglio elettronico) della VisiCorp, e due programmi di elaborazione testi, Wordstar della MicroPro International e WorkdPerfect. La caratteristica più importante di VisiCalc era nell’effettuare automaticamente il ricalcolo quando si cambiava il valore di una cella. Il software costava solo 100 dollari ed era uno strumento di simulazione numerica applicabile a qualunque settore, motivo per cui ebbe notevole successo sia in campo finanziario che in campo gestionale. Negli stessi anni, ebbe fortuna la Texas Instruments con la realizzazione di Speak and Spell, un giocattolo educativo che aveva la caratteristica di parlare con una voce umana. Il sistema era estremamente semplice: una volta acceso, una voce sintetizzata chiedeva di digitare su una piccola tastiera alfabetica le lettere che componevano una delle 200 parole memorizzate e che la macchina pronunciava, in base a quanto inserito, il giocattolo rispondeva “Esatto” oppure “Prova ancora”. Il segreto stava in un chip, un DSP (Digital Signal Processor), specializzato nell’eseguire algoritmi matematici in tempo reale. I DSP erano stati inventati per elaborare in tempo reale segnali provenienti da apparecchiature di uso militare, come i radar e i sonar. Dopo quel primo esempio i DSP entrarono in una miriade di altre applicazioni di massa e oggi sono il chip logico più diffuso.

 

3.15. GLI ANNI OTTANTA

Il progresso delle tecniche di fabbricazione dei componenti elettronici aveva consentito di aumentare la complessità delle unità centrali dei computer, integrando a livello circuitale un sempre maggior numero di funzioni. In particolare si andava via via allargando il numero di istruzioni base dei linguaggi macchina, il VAX, per esempio aveva più di 400 istruzioni, di lunghezza in bit molto diversa, alcune delle quali così complesse da richiedere dieci cicli base per essere eseguite. D’altra parte la ricerca nel campo dei computer per utilizzi scientifici aveva sviluppato strutture hardware in grado di sfruttare particolari architetture delle unità di esecuzione per operare a velocità superiori a quelle consentite da un hardware.

Affinché queste strutture hardware potessero funzionare a pieno regime, però, il codice doveva essere ordinato per poter essere eseguito nella maniera più lineare possibile. Nel 1980 l’IBM avviò un progetto di esplorazione tecnologica che portò alla realizzazione di un chipset per minicomputer. Il risultato ottenuto grazie a tali ricerche venne realizzato nel 1981, e precisamente il 12 agosto quando venne immesso sul mercato il primo personal computer: l’IBM 5150, meglio conosciuto come PC IBM.

 

Nella sua prima versione (la quale aveva un costo pari a 3.000 dollari) il PC IBM era dotato di un microprocessore Intel 8088 a 4,7 MHz, 16 KByte di RAM, mancava di disco rigido e disponeva massimo di due drive per floppy disk da 5.25″ a 160Kb, un monitor a fosfori verdi e sistema operativo PC-DOS 1.0, sviluppato dalla Microsoft e ceduto in licenza all’IBM.

Da qui, iniziò non solo l’invasione del mercato da parte dei PC della IBM, ma contestualmente cominciarono davvero ad essere realizzati nuove tipologie di software applicativo.

Questa nuova fase software può essere fatta partire con l’introduzione di 1-2-3 di Lotus, che risultava molto più semplice e più ricco di funzionalità dei sui predecessori, disponeva, ad esempio, della possibilità di creare grafici e di gestire database. Mentre Lotus stava diventando regina del software per i PC, Microsoft nel frattempo era impegnato nello sviluppo  di uno spreadsheet, Multiplan, senza alcun successo. Solo nel 1983 la Microsoft riuscì a presentare il word processor che poi è diventato uno standard de facto del mercato: il Word, che segnò una rivoluzione nel modo di promuovere il software. Due anni più tardi Bearne Stroustrup concepì e realizzò uno dei più diffusi strumenti di programmazione object- oriented il C++. Sin dall’inizio Stroustrup aveva l’intenzione di dare alla sua creatura la maggior diffusione possibile, per questo fece in modo che il compilatore del suo linguaggio non creasse codice macchina, ma codice C standard. Chiunque aveva un compilatore C poteva usare il nuovo linguaggio; alla fine degli anni 80 gli utilizzatori erano intorno al mezzo milione e tuttora è lo strumento di programmazione object- oriented dominante per tutti i tipi di applicazioni.

É interessante notare come in un tale contesto, di piena vitalità del mercato dei software, cominciò a prendere piede una delle aziende più importanti non solo nella storia dell’informatica, ma anche nella storia del mercato: la Microsoft. Questa venne fondata nel 1975 da Paul Allen e Bill Gates[119]. Già dal nome MICRO SOFTware, l’intenzione dell’azienda era ben chiara, cioè sviluppare software per computer casalinghi, individuali o personal. I primi tre passi di Microsoft furono lo sviluppo di qBasic, interprete del linguaggio Basic, del sistemo operativo a shell MS-DOS, progettato sulla base di QDOS, ed  evolutosi in seguito in Windows. Oggi la Microsoft è la più grande e potente azienda software presente sul mercato e le sue soluzioni spaziano non solo a 360 gradi nel software ma anche nell’hardware, basti pensare a strumenti quali i mouse o la consolle Xbox.

 

3.16. VERSO IL SUCCESSO DEI PORTATILI

Già nel 1981 Osborne aveva realizzato il primo trasportabile, ma l’arrivo del PC IBM segnò la sua fine. Successivamente tre manager di Texas Instruments decisero di costruire un trasportabile che fosse compatibile con il PC IBM. Nacque così l’azienda Compaq (da COMPAtibilità e Quality), che solo nel 1983 riuscì a vendere oltre 53.000 esemplari di trasportabili, nonostante l’elevato costo (3000 dollari) e il notevole peso (15 Kg). Con il passare del tempo l’evoluzione tecnologica consentì una proliferazione di nuovi modelli dal peso sempre più contenuto; nonostante ciò i primi portatili del 1989 dovettero accettare moltissimi compromessi dal punto di vista tecnico; erano dotati di 1 MB di RAM, la presenza di un disco rigido comportava un notevole aumento di peso (e comunque non si andava oltre i 40 MB); ma il vero tallone d’Achille era rappresentato dai monitor: i modelli più leggeri avevano schermi LCD in standard CGA (320 x 200 pixel), mentre la fascia alta arrivava a VGA, il tutto rigorosamente in bianco e nero.

Pur con queste limitazioni la domanda non mancava. Contando tutti i tipi di macchine portatili, il mercato di questo segmento cresceva già allora con un ritmo da tre a quattro volte superiore a quello dei desktop. Gli utilizzatori tipici erano all’inizio privati e liberi professionisti, dopo pochi mesi anche le aziende iniziarono a comprare portatili per i loro lavoratori mobili.

Anche qui è interessante notare come vi fu un’evoluzione della stessa terminologia che identificava questi nuovi computer, infatti inizialmente il termini per chiamare queste macchine era “trasportabili”, infatti più che portatili, erano dei veri e propri computer ingombranti e pesanti che venivano trasportati da un luogo ad un altro. La terminologia di portatili subentrerà solamente in seguito, quando tali computer divengono realmente più piccoli e pratici da portare.

 

3.17. GLI ANNI NOVANTA

Quest’ultimo decennio ha visto la realizzazione di un’invenzione il World Wide Web, che è stata la fusione di idee già esistenti da tempo. Fu proprio un fisico ricercatore del CERN di Ginevra, Tim Berners Lee, che usando una stazione di lavoro, sviluppò il linguaggio HTML, il protocollo HTTP, il relativo software ed infine un browser. Egli non si era affatto preoccupato di capire quale sarebbe stata la risposta del mercato, ma voleva semplicemente creare uno strumento in grado di favorire la comunicazione attraverso la condivisione di conoscenze e la collaborazione tra persone. Occorre infatti considerare che queste due esigenze trovarono libero sfogo nel progetto WWW, ma d’altro canto era nate molti decenni prima, e più precisamente, intorno agli anni ‘30, quando lo scienziato Vannevar Bush ideliazzò un calcolatore analogico dotato di un sistema di archiviazione, considerato a tutti gli effetti precursore di Internet e degli ipertesti. Tale macchine prese il nome di Memex.

Nel 1991 il CERN costituì il primo server World Wide Web, su cui il traffico cominciò subito a crescere ad un tasso annuo del 1000 per cento! A metà del 1992 i server Web erano circa un milione, destinati ad aumentare esponenzialmente in breve tempo.

Si iniziò a pensare di poter utilizzare l’infrastruttura Internet per diffondere anche audio e video, ma notevoli erano, e sono ancora,  le difficoltà nel trasmettere tali informazioni[120] .

Nel 1994 il World Wide Web generò quasi contemporaneamente le quattro aziende che hanno definito l’evoluzione per tutto il decennio: Amazon.com, Progressive Networks, Yahoo e Netscape Communications. Il concepire, dunque, una libreria on line, un negozio virtuale, un database di siti ed un software per navigare nel web, ha portato il web da una rete per accademici alle prime pagine dei giornali. Anche se molte altre aziende si sono affacciate sulla scena in seguito e in alcuni settori hanno superato i pionieri, alle quattro aziende creatrici va riconosciuto il merito di aver segnato l’esplosione di Internet.

 

 

 

APPENDICE 1: Fatti e misfatti della Società contemporanea

(del Prof. Franco Eugeni)

 

Dal dott. Faust ai maghi occulti dell’era moderna

Assumiamo la figura di Johannes Faust, il leggendario mago e taumaturgo della fine XV secolo, personaggio che ebbe a vendere la sua anima al diavolo in cambio di poteri ultraterreni, come rappresentativo dell’uomo antico e di quello attuale nella sua profonda avidità al sapere umano. La condizione faustiana ispirò opere liriche e letterarie per secoli. Non vi è dubbio che il Faust rappresenta l’archetipo dell’uomo occidentale, archetipo differenziatosi e specializzatosi nel tempo. Infatti il primo Faust, quello del XVI secolo, aspirava alla conoscenza oltre i confini imposti dalla morale cristiana allora imperante. Così, le forze liberate dal Faust del XVI secolo, lo avrebbero, secondo i principi cristiani, portato tra i dannati, lo avrebbero condotto nel “tranquillo e rassicurante inferno” della dannazione dei cristiani.

Il secondo Faust, quello del XX secolo, aspira ancora alla conoscenza, ma anche al potere che si può ottenere andando oltre i confini di qualsiasi morale e cancellando ogni possibile gerarchia di valori. Le forze liberate da questo moderno Faust, allora, minacciano forme di “dannazione” ben più terrificanti e appena tangibili.

Il mago del passato disegnava, metaforicamente e talvolta materialmente, un cerchio magico dall’interno del quale presumeva di controllare le forze divine o infernali, considerate potenzialmente pericolose. Si è sempre narrato di maghi arroganti ed ambiziosi che evocarono poteri che non furono in grado di dominare, poteri che, a volte li distrussero. Ma anche le volte che il mago riusciva a dominare le forze evocate, il cerchio che lo proteggeva era anche pur sempre quello che lo imprigionava.

Questa metafora fornisce una bella chiave di lettura del nostro mondo. La tecnologia è l’analogo di quel cerchio magico che costituiva la nostra protezione. Dall’interno di questa noi invochiamo forze, a volte del tutto sconosciute e potenzialmente distruttive e ci arroghiamo il diritto e il potere di fare esperimenti vari, come quelli dell’ingegneria nucleare, modifichiamo la genetica produciamo armi chimiche e operiamo manipolazioni fisiche e mentali sul nostro prossimo. Dove è il confine del progresso e dove la tecnologia conduca al progresso o al degrado non ci è noto. Il cerchio magico della tecnologia ci protegge un pò ma non ci istruisce, talvolta perdiamo il controllo di quelle forze che abbiamo evocato, come nel caso di Chernobyl o del sospetto (di essere un’arma chimica sfuggita al controllo) fenomeno dell’AIDS.

Molte delle leggende degli uomini prendono corpo, così come il dott. Frankenstein, creiamo dei mostri che non sappiamo più controllare, spingiamo la nostra psiche in cammini troppo pesanti ed emuli del dott. Jeckyll a volte liberiamo quel mr. Hide che è in noi, ovvero novelli Dorian Gray costruiamo una immagine di noi che non è lo specchio di quella realtà, che confiniamo in una nostra immagine nascosta!

Frankstein (o il Prometeo moderno) è il protagonista dell’omonimo romanzo nero (1918) di Mary Wollstonecraft Shelley (1797-1851), la seconda moglie del poeta inglese Percy Bysshe Shelley (1792-1822). Nel romanzo il medico dott. Frankstein riesce a costruire un corpo funzionante assemblando pezzi di cadavere.

Il mito di Prometeo è quello del Titano che restituì all’uomo il fuoco tolto da Zeus. Fu condannato ad essere incatenato ad un masso dove un’aquila gli divorava il fegato che in perpetuo si riformava.

Lo strano caso del dott. Jeckyll e Mr. Hide (1866) è un romanzo di Robert Louis Stevenson (1850-1894), famoso romanziere inglese.

Il ritratto di Dorian Gray (1891) è una delle opere Oscar Wilde (1854-1900), geniale esponente dell’estetismo decadente, accusato di immoralità nel 1895 ed imprigionato per due anni.

La tecnologia è infatti come una gigantesca protesi che migliora le funzioni delle nostre braccia, modifica il nostro corpo e il nostro volto, noi ricostruiamo il naso, ci stiriamo la pelle, ci ripuliamo le arterie, sconfiggiamo la vecchiaia, lottiamo contro il cancro, controlliamo le malattie e la psiche, mai la vita media dell’uomo è stata così mediamente alta come negli ultimi vent’anni.. La nostra tecnologia permette tutto questo ma non fornisce alcuna saggezza per capire il mondo in cui viviamo.

Alcuni anni fa circolava una interessante osservazione sul terzo mondo e sui suoi abitanti che

 

“ … vivono in un  mondo non inquinato dalla plastica e dalle radiazioni, nel quale non esistono rifiuti chimici e scarichi industriali e non sussiste la necessità commerciale ed economica di inquinare sottilmente le loro menti …” e continuando il simpatico commentatore aggiungeva “ … sembra essere un mondo meraviglioso, privo di tecnologia nessuno è alla mercé di sistemi meccanizzati, dell’aria condizionata delle reti computerizzate mondiali … tutto questo manca, in compenso le persone vivono al più quarant’anni …”

Noi viviamo molto di più, ma la dipendenza dalla tecnologia ci rende sempre più inermi e privi di responsabilità. Paradossalmente, una città moderna è meno attrezzata per affrontare una nevicata di eccezionali proporzioni di quanto non lo fossero una Pietroburgo o una Berlino del II secolo. Un guasto o un virus in un computer può sconvolgere la vita di una persona, far tremare banche e società multinazionali, o addirittura rischiare di far scoppiare un conflitto nucleare. Ci sono già state avvisaglie di terrorismo informatico, una squadra addestrata di hackers potrebbe portare al collasso un intero paese.

Ci stiamo sempre più isolando dalla realtà che ci circonda. Siamo iperprotetti dalla tecnologia e siamo stati abituati a delegare anche la responsabilità della nostra vita. Non siamo in grado di reagire quando i casi della vita portano scompiglio nelle nostre tranquille esistenze. Ci adombriamo al minimo dissidio e cerchiamo di smussare gli spigoli dell’interazione sociale dando sempre maggiore fiducia ai “tecnologi” in abito scuro, che ci ronzano intorno, se qualcosa ci va male essi ci risolvono i problemi traendo vantaggio dalle nostre disgrazie.

Sono finiti i tempi della lotta per avere la bomba all’idrogeno, oggi la vera lotta, la guerra silenziosa, è quella per il possesso della mente dell’uomo, stiamo insomma diventando sempre più pronti e disponibili ad essere manipolati.

 

La manipolazione delle menti

Durante gli anni cinquanta l’opinione pubblica occidentale, ignorando gli esperimenti clandestini della CIA sul controllo della mente, considerava il lavaggio del cervello, un fenomeno associato esclusivamente ai regimi dittatoriali e totalitari. Anzi spesso si parlava degli esperimenti avvenuti nei campi di concentramento sugli Ebrei. Solo gradualmente si è arrivati a comprendere che le tecniche di lavaggio del cervello e di sterminio non erano affatto nuove a che in passato erano state tipiche delle religioni, in particolare dei fanatismi religiosi: in primo luogo la caccia alle streghe ed agli Eretici, la cosidetta “Santa Inquisizione” e lo sterminio dei Catari e dei Templari, gli “assassini” o “hashishim” durante le crociate, i thugs in India, i mitici “zombie” e “gongori” dell’Africa, la Rivoluzione Francese, gli adepti del Mahdi nel Sudan alla fine del XIX secolo e successivamente divenne anche patrimonio di vari gestori di sette misticheggianti e delle rispettive organizzazioni. Basti pensare a figure come Charles Manson, il reverendo Jim Jones o David Koresh, ovvero ad organizzazioni come Process, la setta Aum Shinti in Giappone, o ancora , l’Ordine del Tempio Solare svizzero canadese.

In Occidente si tende generalmente a condannare sia le sette sia il fondamentalismo. È anche bene ricordare che quasi tutte le più importanti religioni, in particolare quelle monoteistiche, hanno avuto e possono ancora avere delle fasi di esaltazione fondamentalista, di intolleranza e di fanatismo. Ciascuna di esse, inoltre ha avuto inizio come setta e, all’epoca della loro nascita, è stata considerata un pericolo.

Le sette a orientamento fondamentalista, guidate da sedicenti saggi o messia, non attraggono esclusivamente persone sole, emarginate, disadattate, oppure individui con carenza di autostima ma anche persone del tutto “sane”. Le sette sembrano offrire una parvenza di senso e di scopo che molte persone sono incapaci a crearsi da sole. Nasce un’illusione di appartenenza ed adesione ad una causa, con la convinzione di entrare a far parte di qualcosa di segreto e quindi di essere un eletto, che coltiva un senso di superiorità che può diventare inebriante. Il senso dell’individuo e cancellato e sostituito dall’identificazione con il gruppo. I potenziali ribelli sono addomesticati con metodi intimidatori espliciti o impliciti quali il timore di essere banditi dalla comunità, secondo la definizione originaria di “scomunica” che può comportare un senso di solitudine a di abbandono di proporzioni terrificanti in chi possiede un senso debole di autostima.

A chi ci chiedesse la reale differenza tra una religione ed una setta si dovrebbe rispondere

 

… nessuna, … è solo una questione di numero di adepti …”.

 

La questione ci porterebbe lontano se andassimo ad esaminare anche i gruppi dei cosidetti “ … liberi pensatori …” che al contrario dei settari non accettano verità rivelate ma, ciascuno degli adepti, almeno in situazioni ideali, centralizza la sua idea individuale.

Ciò non accade nemmeno presso le religioni organizzate attualmente più tolleranti e indulgenti, che nella loro ampiezza mantengono tracce della propria origine settaria. Le confessioni cristiane come la Chiesa d’Inghilterra o la Chiesa Cattolica sono giudicate modelli di moderazione, moralità e conservatrici dei “valori tradizionali”. Per questo viene loro riconosciuta una grande autorità morale, ma anche nel loro ambito si sono attuate, e si continuano ad attuare, molte forme di manipolazione psicologica, attraverso il meccanismo del peccato a della colpa, attraverso ricatti emotivi e con il meccanismo della pena e del premio.

Naturalmente la Chiesa cattolica non predica più lo sterminio, come fece nel XIII secolo, al tempo della crociata contro l’eresia catara degli albigesi. Gli inquisitori non possono imperversare a loro piacimento, esercitando poteri paragonabili a quelli che, nel nostro secolo, hanno usato la Gestapo, il KGB e gli altri servizi segreti. Ancora non possono ripetere errori come la condanna a Giordano Bruno, devono essere più attenti a costruire ai condannati passati da malfattori come nel caso Balsamo/Cagliostro. Ma l’intransigenza può essere più sottile nei confronti dei diritti delle donne, del divorzio, del controllo delle nascite e dell’aborto. Sono questi motivi seri di sofferenza psicologica per milioni di persone e nel confronto creano enormi difficoltà alle Nazioni Unite.

Circa l’abuso della mente è stato coniato un termine, che se anche volgare risulta fortemente espressivo. Il termine mind fucking, è un’oscenità costituente una valida metafora per indicare questa vera e propria forma di violenza che si esercita sopra una persona all’atto di “possederne la mente”.

Il rumeno, naturalizzato francese, Eugene Ionesco (1912- ), nel suo teatro dell’assurdo e del paradossale ha svelato quanto si nasconda dietro ai luoghi comuni di pensiero, parola, azioni e intenzioni. Nelle sue varie opere teatrali tutto questo appare e per il nostro tema va ricordata in particolare La lezione (1951), rappresentata ininterrottamente a Parigi tutte le sere degli ultimi 48 anni presso, nella quale il Professore, violenta mentalmente la sua allieva in un atteggiamento subdolo ed ambiguo e la possiede al punto tale da ucciderla per tumularne il corpo in una bara accanto alle sue molteplici allieve, ed è ancora a inchiodare la bara quando la nuova allieva è già arrivata, pronta per il suo funebre mind fucking.

Per quando riguarda la religione protestante, non v’è dubbio che sono solo un lontano ricordo sia la figura dell’Inquisitore preposto alla caccia delle streghe ai tempi di Cromwell sia pure i processi di Salem nel Massachusetts del XVII secolo. Tuttavia, non più tardi del 1995 l’arcivescovo di Canterbury, parlando a nome della Chiesa d’Inghilterra, anacronisticamente dichiarava che una coppia che coabiti senza essere sposata, deve sopportare il peso psicologico di “vivere nel peccato” – ci si chiede il “peccato di che” .

 

Durante la Prima guerra mondiale la propaganda politica era ancora maldestra a spesso perfino controproducente, ma nel 1930 era ormai un mezzo di manipolazione e controllo tanto potente che il Terzo Reich istituì un ministero apposito, il cui titolare Joseph Goebbels era uno dei funzionari più alti in grado nella gerarchia del Partito nazionalsocialista.

La propaganda nazista spaziava da metodi francamente ridicoli e grossolani a metodi davvero sublimi nella loro perversione, caratteristiche che a volte potevano anche coincidere. Si pensi alle trasmissioni radiofoniche con la voce di Hitler che abbaiava di continuo dagli altoparlanti posti a ogni angolo di strada: come è stato osservato. In questo modo il Fuhrer acquistava una caratteristica divina, diventando se non onniscente, almeno onnipresente. Un altro mezzo molto utilizzato dalla propaganda nazista era il cinema. Un famoso film propagandistico, Suss l’ebreo, accostava in modo orribilmente astuto gli ebrei a insetti nocivi o bestie ripugnanti, e suscitava il disgusto nel pubblico mostrando scene in cui si vedevano, per esempio, frotte di topi attraversare lo schermo, seguite immediatamente da scene in cui appariva una folla di ebrei nelle strade di un ghetto. Ancora più sconvolgente fu il film di Leni Riefenstahl, Trionfo della volontà, che univa una straordinaria tecnica cinematografica a un contenuto pernicioso, a che ancora oggi scatena furiosi dibattiti. La sequenza iniziale, che mostra l’arrivo di Hitler in aereo in occasione di un raduno a Norimberga, è stata studiata e analizzata come un capolavoro di arte manipolatoria. Oltre sessant’anni dopo, questa sequenza continua a esercitare un potere ipnotico e sinistro che negli anni trenta doveva avere un impatto ancora maggiore. In quegli anni gli aerei erano pressoché una novità a poche erano le persone ad aver volato, come pochi erano i capi di stato che usavano quel mezzo nei loro viaggi. Per il pubblico di allora, il panorama aereo di Norimberga visto con gli occhi di Hitler, doveva essere emozionante quanto guardare il  mondo dalla prospettiva di una divinità. La discesa del Fuhrer dalle nuvole assumeva il carattere grandioso di un’opera wagneriana. Tutti ignoravano, ovviamente, che Hitler aveva terrore di volare.

Ma la propaganda non è l’unica forma di manipolazione; esistono altri metodi da tempo sperimentati, come gli “agenti provocatori” a quello che oggi viene chiamato “dirty trick” [gioco sporco]. Al pari della propaganda, tali metodi risalgono alla notte dei tempi, ma hanno raggiunto una nuova dimensione nell’Europa del XIX secolo, al tempo di Metternich, negli anni successivi al congresso di Vienna del 1815. In Russia, per esempio, durante i settantacinque anni precedenti la rivoluzione del 1917, l’agente provocatore era una figura familiare, tanto che divenne un personaggio quasi farsesco. Si trattava di una pratica usata dalla Okrana, la polizia segreta zarista, a dalle organizzazioni sovversive, rivoluzionarie o terroristiche, per infiltrarsi a vicenda a commettere atrocità e atti di sabotaggio. Gli agenti della polizia organizzavano attentati per screditare le forze rivoluzionarie: aggressioni a funzionari di grado inferiore, bombe in luoghi pubblici, uccisione di passanti innocenti. Le stesse cose facevano i terroristi, disposti anche a sacrificare membri della propria organizzazione per far apparire la Okrana più brutale di quanto già non fosse. C’era anche chi che faceva il doppio o triplo gioco per la polizia a per un’ organizzazione rivoluzionaria, di solito a danno di entrambe le parti.

Forse l’esempio macroscopico del dirty trick politico durante l’epoca zarista, è quella infame a oscena pubblicazione dal titolo: I protocolli dei savi anziani di Sion.

Questo documento, che dava a intendere di essere un piano segreto per il dominio del mondo da parte di una “cospirazione ebraica internazionale”, fu pubblicato per la prima volta nel 1903 ed ebbe immediatamente larga diffusione, allo scopo di rafforzare e diffondere i sentimenti antisemiti.

Da tempo è stato riconosciuto che il documento era un falso, sembra anzi che il fatto fosse noto praticamente fin dal momento della sua prima pubblicazione e l’autore, un individuo che lavorava per la Okrana, aveva attinto il materiale da fonti precedenti, decisamente più innocue e non ebraiche: un trattato satirico francese della metà del XIX secolo, scritti massonici contraffatti e forse documenti di una vera società segreta, certamente però non ebraica. Venticinque anni dopo I protocolli furono entusiasticamente adottati dai nazisti a da numerose organizzazioni di estrema destra in ogni parte del mondo, alcune delle quali in Gran Bretagna e negli Stati Uniti. Ancora oggi gruppi fondamentalisti di destra e antisemiti pubblicano a diffondono I protocolli come testimonianza autentica di una “cospirazione ebraica internazionale”.

I nazisti ereditarono dai russi anche altre tecniche propagandistiche, non solo dal regime zarista ma anche da quello bolscevico. Grazie a Lenin e a Stalin appresero l’importanza di presentarsi come partito dei “lavoratori socialisti”; impararono a manipolare le masse e a diffondere la pratica della delazione, generando così un’atmosfera di generale paranoia, sfiducia a timore; capirono come convogliare su di sé la fiducia prima riposta in altre istituzioni. Furono i nazisti a perpetrare il più eclatante “dirty trick” nella storia del xx secolo quando, il 27 febbraio 1933, il Reichstag tedesco bruciò “misteriosamente”. È ora universalmente riconosciuto che l’incendio fu appiccato da agenti provocatori nazisti a attribuito ad agitatori comunisti, giustificando così l’aggressione di Hitler contro di loro. Il mattino seguente oltre quattromila comunisti furono arrestati, insieme a numerosi intellettuali e professionisti ostili al regime. Lincendio del Reichstag aveva d’un colpo spianato la strada all’ascesa al potere di Hitler.

 

  1. Kennedy a Richard Nixon: una vittoria dell’immagine

Se fra le due guerre i progressi dei mezzi di comunicazione, ne, come la radio a il cinema, aprirono nuove strade manipolazione politica, dopo la Seconda guerra mondiale le possibilità si moltiplicarono. La televisione si rivet bito come il mezzo più potente a influente nella sto  l’umanità, più ancora della stampa, a le sue potenzialità di manipolazione politica furono ben presto sfruttate in grande scala.

Stranamente tali potenzialità non furono subito riconosciute, a ci vollero circa quindici anni perché scattasse la molla. Uoccasione si verificò negli Stati Uniti durante la campagna presidenziale del 1960, quando i due candidati Richard Nixon a J. F. Kennedy parteciparono al primo dibattito mai ripreso dalla televisione. All’epoca Nixon era già un personaggio molto conosciuto; era stato vicepresidente con Eisenhower a prima ancora, durante il periodo McCarthy, aveva presentato le sue credenziali come fanatico anticomunista, l’equivalente del cacciatore di streghe di Cromwell. Kennedy, allora senatore del Massachusetts, era meno noto, ma poteva avvalersi della grande influenza a delle enormi risorse finanziarie della sua famiglia, nonché del suo passato da eroe di guerra.

L’impatto del dibattito televisivo fra Nixon a Kennedy è ben noto, ed è passato alla storia come uno spartiacque nell’evoluzione della politica occidentale a del ruolo dei media. Subito dopo la trasmissione, i commentatori osservarono che gli argomenti trattati a le posizioni dei candidati avevano avuto un’importanza secondaria. A contare veramente era stata quella che da allora si sarebbe chiamata “immagine”. In una certa misura Kenreedy a il suo staff ne erano già consapevoli, a avevano curato molto questo aspetto. Il senatore fu scrupolosamente truccato, a le luci regolate in modo da presentarlo nel modo più favorevole. Kennedy fu accolto come l’incaenazione di ciò che l’America voleva essere, di ciò che a come guida: gioventù, slancio, affabilità, dinamismo, bell’aspetto, insomma il ragazzo della porta accanto con i capelli spettinati, un sorriso accattivante a un pibile passato di combattente.

 

Nixon, che non aveva badato troppo al problema di m, “immagine”, era l’antitesi di tutto questo: sfuggente, ambiguo, circospetto, con un’ombra di barba sulle guance gli dava un aspetto decisamente poco “americano”.

Mentre Kennedy si esprimeva chiaramente con il suo caratteristico accento, Nixon bofonchiava. Kennedy, dimostrando grande capacità istrionica, parlava direttamente alla telecamera; Nixon, probabilmente intimidito, la sfuggiva, a questo atteggiamento dette al pubblico I’impressione di avere di fronte qualcuno che evitava di guardare gli altri negli occhi. Il risultato fu che Nixon ne uscì come il proverbiale “azzeccagarbugli”, un avvocato di quart’ordine, se non addirittura un esponente delta categoria più spregevole, quella dei venditori di patacche. Furono diffuse foto di quell’uomo dalle guance mat rasate a gli occhi sfuggenti accompagnate dalla scritta “Compreresti una macchina usata da quest’uomo?”. La risposta era abbastanza owia, a il pubblico americano reagì come avrebbe fatto la maggioranza degli esseri umani.

Il dibattito televisivo fu determinante per il risultato delle elezioni. Lo stretto margine con cui Kennedy vinse, fu la prova di quanto fosse stata serrata la gara, a secondo l’opinione comune fu l’immagine televisiva a far pendere il piatto della bilancia in suo favore. Naturalmente, in questo caso non ci si può rammaricare dei risultati delta manipolazione; se net 1960 fosse stato eletto presidente Nixon, senza dubbio gli Stati Uniti sarebbero stab un paese motto diverso, a quasi certamente peggiore. D’altra parte to stesso Nixon non era certo estraneo alle pratiche di manipolazione, main quel caso aveva perso la partita per la sua scarsa familiarità con il mezzo. Ma la lezione era stata impartita, a da allora i politici l’hanno imparata a memoria.

Dalle elezioni presidenziali del 1960 i mezzi di comunicazione e i manipolatori di immagine hanno svolto un ruolo sempre più importante e la politica ha assunto una nuova dimensione che i pubblicitari americani chiamato “perception management”, la gestione delta percezione termine che vorrebbe essere un eufemismo ma rivela più di quello che intende nascondere. Vale la pena di analizzare da vicino due episodi in cui una “gestione” abile è riuscita a modificare drasticamente la percezione delta realtà, e di qui trasformare la storia politicaociale. Il primo è un esempio illuminante di come

Le tecniche manipolatorie di magia profana possano essere utilizzate a sfruttate per finalità fondamentalmente meritorie, mentre il secondo, purtroppo, non ha alcuna giustificazione morale.

 

I diritti civili negli Stati Uniti

In seguito alle leggi federali degli anni cinquanta, il movimento per i diritti civili nel sud degli Stati Uniti acquistò nuovo slancio. Si tennero marce per la libertà, sit-in davanti a ristoranti a negozi in cui si attuava la segregazione razziale, boicottaggi a dimostrazioni, provocazioni programmate (neri che rifiutavano di sedere nei posti loro assegnati sul retro degli autobus o simpatizzanti bianchi che si sedevano accanto a loro). I cittadini del nord cominciarono a rendersi pienamente conto di quale fosse la situazione negli stati del sud, dove l’interesse dei mezzi di comunicazione provocava imbarazzo a faceva crescere l’opposizione. Tuttavia, fino al 1964 le attività del movimento per i diritti civili restarono saltuarie a poco incisive; questa situazione provocò reazioni di impazienza e duri attriti, ma pochi risultati concreti. Anche se i cittadini del nord erano colpiti a indignati per le immagini di brutalità trasmesse dagli schermi televisivi o per quello che leggevano sui giornali, i fatti apparivano distanti, estranei, come se riguardassero un altro paese. Furono gli studenti che, a cavallo fra gli anni cinquanta e i sessanta, scelsero di partecipare alle lotte. Quelli di loro cercavano una “causa” per cui impegnarsi, guardavano piuttosto al conflitto in corso all’epoca, in Algeria ove i movimenti per i diritti civili erano frustrati e deizzati.

Durante la campagna per le elezioni presidenziali del 1964 la situazione si modificò drasticamente. Nel novembre 1963, J. F Kennedy era stato assassinato a Dallas e a lui era succeduto il vicepresidente L. Johnson. Nel novembre del 1964 Johnson era in gara con il candidato repubblicano B. Goldwater, un senatore dell’Arizona . Goldwater era noto come un fanatico estremista di stato, figure rappresentative in campo politico, militari e poliziotti, caserme ed edifici militari, ma la prospettiva di una strage “a caso” (una bomba o una raffica di proiettili in un locale pubblico, net centro di una città, in un ufficio, in un areoporto o su un aereo) rappresenta una nuova forma di terrore. Serve a poco pensare che, obiettivamente, il terrorismo è tra le cause meno probabili di morte o che comunque è assai più facile morire per un banale incidente automobilistico o perfino attraversando la strada. Il numero delle morn causate dal terrorismo è statisticamente irrivelante, ma per entrare in una statistica del genere le persone devono comunque morire, a il timore di una tale prospettiva è sufficiente a far cambiare la destinazione delle vacanze, annullare i viaggi in areo, evitare il centro delle città a altri luoghi considerati pericolosi. La paura va spesso al di là del pericolo effettivo a diventa paranoia. Nella psiche umana i terroristi a le loro imprese occupano ormai un posto stabile. La manipolazione moltiplica i terroristi come per magia; la magic profana ha conferito loro il carattere onnipresente delta divinità, ed è così che essi esercitano un controllo altrimenti impossibile.

 

La manipolazione commerciale della mente degli utenti

L’arte della manipolazione di quel che si vede si chiama illusionismo, e coloro che la praticano sono detti maghi (e più tecnicamente illusionisti).

Per “fare accadere le cose” la magia utilizza dunque varie forme di manipolazione: manipolazione della realtà, delle persone e della loro percezione della realtà, e manipolazione delle immagini. Grazie a queste manipolazioni il mago rimodella, trasforma, e – a volte – crea perfino nuovi mondi o l’illusione di nuovi mondi.

Uno dei metodi più efficaci per manipolare gli esseri umani è il cosiddetto “potere di suggestione“. Noi tutti siamo suggestionabili, e la nostra suggestionabilità ci rende vulnerabili, poiché offre ampio spazio alla manipolazione. Essa è tanto più efficace in quanto spesso inconscia, non solo da parte nostra ma anche di chi ci manipola, soprattutto nella vita quotidiana. Capita tutti i giorni di essere in qualche modo condizionati dagli altri: mettiamo il caso che stiamo camminando per strada felici e contenti, a un certo punto incontriamo un amico o un conoscente il quale, dopo i rituali scambi di saluti, ci guarda fisso a domanda: “Ti senti bene? Mi sembri teso, un po’ pallido. C’è qualcosa che non va?”. Noi rispondiamo si, ma quando ci allontaniamo il nostro umore è cambiato, siamo preoccupati. Sulla nostra allegria è scesa un’ombra. Naturalmente può avvenire l’esatto contrario: ci sentiamo apatici, tristi, irritabili, depressi; un conoscente di passaggio – esagerando un po’- si complimenta per la nostra buona forma a vitalità, e noi continuiamo per la nostra strada sentendoci molto meglio; l’allegria ha preso il posto dell’umor nero.

La psiche è costantemente soggetta a queste suggestioni; determinano il nostro stato a la nostra condizione, il rapporto con noi stessi a con il mondo circostante, e influenzano la percezione che abbiamo di noi sotto diversi aspetti: sensazione di benessere o malessere, la sensazione di essere attraenti o sgradevoli, fiduciosi o incerti, ottimisti o pessimisti. Un parente, un compagno o un collega che ci fa continuamente preoccupare per noi stessi, sia pure con le migliori intenzioni, indebolisce la nostra autostima e può spesso provocare un danno duraturo. Al contrario, una persona che con costanza ci solleva lo spirito a ci fa sentire in pace con noi stessi, può alimentare in noi un senso di equilibrio, di armonia di solida autostima. I medici, per esempio, sono spesso giudicati non solo in base alle loro capacità cliniche e diagnostche, ma soprattutto dal loro modo di trattare i pazienti, in altre parole in base alla loro capacità, usando il potere della suggestione, di farci sentire meglio o peggio. Tutti i medici sanno quanto sia facile rafforzare o indebolire la cosiddetta “voglia di vivere”.

Dunque gli altri ci suggestionano ma talvolta possiamo anche suggestionarci da soli. Usiamo costantemente il “potere di suggestione” per determinare o alterare i nostri stati d’animo. Per esempio, se siamo superstiziosi e vediamo un gatto nero attraversare la strada, la nostra giornata ne sarà offuscata; e se ci convinciamo fermamente che qualcosa di brutto accadrà, la nostra convinzione porterà a far compiere la profezia e saremo stati noi ad attirare ciò che temiamo.

A riguardo abbiamo inventato la famosa Legge di Murphy (e tutta una serie di varianti) : se temi che qualcosa di spiacevole potrebbe accadere tranquillizzati perché accadrà!

 

Molti preferiscono, addirittura subire l’avverarsi della profezia a per dimostrare di “aver avuto ragione”, piuttosto che avere torto a sconfessare la propria superstizione.

Se nella vita quotidiana il potere di suggestione è invero esercitato inconsciamente, esso può anche essere sfruttato a bella posta, con la consapevolezza di istaurare un processo che conduca a risultati predeterminati.

In nessun settore il potere di suggestione è stato usato con più premeditazione e con minori scrupoli che nel mondo della pubblicità.

 

Nel corso di una sola giornata siamo sopraffatti, attraverso radio, televisione, giornali, riviste, manifesti a così via, da una massa sbalorditiva di annunci pubblicitari. Gran parte degli annunci offrono rimedi per un’impressionante serie di malattie, da mal di testa a mal di schiena, da emorroidi a dolori mestruali. La ripetitività di questi annunci ci convince, sia pure in modo subliminale, di avere bisogno proprio di quei rimedi; in altre parole che sicuramente, o almeno probabilmente, soffriamo dei disturbi che essi proclamano di guarire. Non c’è quindi da stupirsi se siamo diventati una società di nevrotici e di ipocondriaci, perché la pubblicità ha proprio la funzione di renderci tali.

Nello sfruttamento del potere di suggestione, la pubblicità può essere di volta in volta scandalosamente grossolana o perversamente sottile, oppure tutte a due le cose insieme. Spesso i pubblicitari non si limitano a suggerire, ma fanno i prepotenti. Si tratta in questo caso della cosiddetta “pubblicità aggressiva”, che da tempo ha disgustato molte delle persone dotate di raziocinio, ma che i pubblicitari, per mancanza di immaginazione e di altre risorse, continuano caparbiamente a propinarci, nonostante che quel modo di operare sia, di fatto, un insulto alla nostra intelligenza. Così, dall’avvento della televisione, abbiamo continuato a vedere casalinghe, evidentemente prive di altri pensieri per la testa, andare in estasi fin quasi all’orgasmo per l’elevato potere “sbiancante” della nuova e più potente formula di un certo detersivo. Data la frequenza con cui vengono annunciate le modifiche al prodotto, ci aspetteremmo che il biancore abbia ormai raggiunto livelli metafisici, e che abbia incorporato un sorta di illuminazione trascendentale.

 Eppure, persino la pubblicità dei detersivi, sicuramente tra le più rozze, contiene un elemento manipolatorio.

 

L’era televisiva è coincisa con l’era nucleare, ed entrambi i fenomeni testimoniano il trionfale potere della

scienza. Con la scissione dell’atomo, la scienza è assurta allo status di divinità e, come affermiamo, è diventata la religione della nostra epoca, l’unica trascendenza, rispetto alla nostra comprensione, che ispiri una fede senza tentennamenti o riserve. Se le dottrine delle varie religioni tradizionali suscitano differenti gradi di validazione ed accettazione, sono molto pochi coloro che osano sfidare le affermazioni della scienza.

 

Se, dopo la Seconda guerra mondiale, la scienza è diventata la religione della nostra era, lo scienziato ne è l’alto sacerdote. Ne consegue che perfino la pubblicità per qualcosa di banalmente quotidiano come un detersivo deve affidarsi all’autorità dello scienziato. Se l’annuncio è di tipo vessatorio, la presunta infallibilità della scienza sarà invocata come “sottotesto”, con la funzione di alludere piuttosto che di suggerire esplicitamente. Per esempio, l’elevato potere sbiancante” del nuovo detersivo sarà attribuito all’aggiunta di qualche nuovo “ingrediente attivo” dallo stupefacente nome simil-scientifico, diranno un frase magica “scientificamente testato a clinicamente sperimentato“. L’efficacia del nuovo ingrediente sarà testimoniata e garantita da un personaggio che suggerisca l’idea di uno scienziato o ancor meglio di un tecnico di laboratorio, identico allo scienziato per l’immaginario collettivo, il cui camice bianco, simile a una abilo talare che ispirei un puro candore, è la conferma delle sue inoppugnabili credenziali.

Notiamo quanto ciò sia ben noto ai medici, gli unici a fare largo uso dei camici bianchi sì da differenziarsi da altri operatori che piuttosto che chiamarsi con il proprio titolo preferiscono chiamarsi para-medici così da ottenere un po’ di credenziali con una piccolo grado di medicità!

Naturalmente non sono solo i detersivi a ricevere tale ratifica pseudo scientifica; dentifrici, shampoo, creme per il viso e numerosi altri prodotti possono essere pubblicizzati alto stesso modo. Basta lasciar intendere che contengano qualche rivoluzionario ingrediente, garantito da un individuo che parla con l’autorità sacerdotale del ricercatore scientifico. Lo stesso personaggio sarà utilizzato per suggerire l’esistenza di differenze fra le varie marche, anche quando tale differenze non esiste.

 

Per esempio per parlare degli antidolorifici acquistabili in farmacia senza ricetta, è noto che tale prodotti possono essere messi in commercio in un limitato numero di combinazioni, con un dosaggio massimo stabilito dalla legge. Tutti i prodotti composti in varia misura a combinazione da quei pochi antidolorifici di base sono assolutamente identici, eppure le ditte farmaceutiche invocano la testimonianza della scienza per suggerire che fra loro esistono importi differenze. Spesso i produttori vanno anche oltre. Una società farmaceutica ha inondato gli ospedali americani con scorte di antidolorifici a prezzi ridottissimi, tanto ridotti che il prodotto era praticamente gratis; comprensibilmente gli ospedali hanno cominciato ad usare quel prodotto più di altri. Tale espediente ha autorizzato la società produttrice a pubblicizzarlo come l’antidolorifico preferito dagli ospedali, suggerendo così l’idea che fosse il più efficace.

 

 

La pubblicità

I servizi segreti furono i primi ad adottare le tecniche di lavaggio del cervello a di controllo della mente scoperte durante le guerre e in seguito utilizzate e sfruttate dal settore pubblicistico. Ai pubblicitari degli anni ’50 la psicologia offrì un campo illimitato di potenziali manipolazioni. Questo genere di manipolazioni era peraltro considerato fondamentale nell’ottica di una sempre crescente prosperità; tramite la psicologia si poteva indurre un bisogno incessante di consumi, che a sua volta portava a un incremento continuo del processo produttivo. In passato, l’offerta era stata più o menu regolata dalla domanda; ora la manipolazione psicologica permetteva di aumentare la domanda alimentando in tal modo la necessità di ampliare l’offerta. Ogni incremento del potere di acquisto del consumatore si trasformava così in nuova domanda che generava nuova offerta.

A metà degli anni cinquanta, soprattutto negli Stati Uniti, il conformismo rappresentava il fondamento della nuova e quanto mai prospera società. Per fabbricanti e pubblicitari, il “colletto bianco” era la figura ideale, che andava allettata con tutte le risorse della psicologia a della manipolazione psicologica. Le industrie cominciarono a utilizzare le tecniche psicologiche non solo sui consumatori ma anche sui propri dipendenti, vecchi a nuovi. I test e profili psicologici divennero una pratica comune per stabilire la “normalità” del personale a verificarne il conformismo. L’insidiosità del processo in atto non sfuggì agli studiosi più attenti. Alla fine degli anni cinquanta, due libri, I persuasori occulti (1957) di Vance Packard e La società opulenta (1958).

 

 

CAPITOLO 4

 

ENTRA IN SCENA L’OPEN SOURCE

 

 

 

L’Open Source è qualcosa di più di un ambiente operativo a codice aperto, gratuito ed estremamente versatile. E’ una cultura e una filosofia di vita

Richard Stallman

 

4.1. COS’È L’OPEN SOURCE

Letteralmente open source (OS) significa “codice aperto” e identifica tutti quei programmi la cui caratteristica è di non essere legati al copyright di case produttrici, ma di essere virtualmente disponibili al libero uso e più precisamente il cui codice sorgente che compone il programma è lasciato alla disponibilità di ulteriori sviluppatori, in modo tale che con la collaborazione nello sviluppo dell’applicazione in oggetto, il prodotto finale possa raggiungere un alto grado di complessità e dunque avere anche una più solida robustezza in fase di esecuzione. In pratica è, dunque, un modello di sviluppo basato sulla “apertura” a cooperare e a riciclare esperienze nel mondo dell’Information Technology.

 

4.2. QUANDO NASCE

In realtà fin dagli albori dell’informatica, la condivisione di codice e conoscenze al fine di programmare i computer, è stata una esigenza che i programmatori hanno sempre soddisfatto, in realtà non possiamo però parlare di vero e proprio riutilizzo del codice in quanto i primi computer erano davvero pochi e tutti i linguaggi diversi tra loro. Quindi analizzare la nascita dell’open source non è tanto interessante quanto studiare , al contrario, la nascita del software proprietario, infatti la nascita del software proprietario diede, in qualche maniera, avvio alla distinzione tra software libero, se così vogliamo per ora definirlo, e software proprietario appunto. Uno dei primi software non più liberi ed riutilizzabili sul mercato fu costituito da UNIX, progettato da AT&T. Infatti la distribuzione di tale sistema operativo permetteva di usare logiche tipicamente commerciali.

4.3. LA FREE SOFTWARE FOUNDATION ED IL PROGETTO GNU

La pratica di non rendere più disponibile il software sorgente venne messa in uso quando sorse l’esigenza di implementare la segnalazione automatica di problemi con la carta inceppata preso una stampante del MIT. Tale esigenza non poté essere risolta direttamente dai programmatori del MIT w quindi si dovette chiedere alla ditta fornitrice di sviluppare tale funzionalità. Si diffuse così la pratica suddetta e cioè di non rendere disponibili i sorgenti dei programmi, trasformando così lo sviluppo del software in un vero e proprio mercato. Nacque di conseguenza l’esigenza di firmare accordi di non divulgazione (i famosi  NDA, ovvero Non-Disclosure Agreement).

Proprio un o dei ricercatori del MIT, Richard Stallman, si trovò con in accordo con questa nuova tendenza, e decise nel 1985 di fondare la più famosa organizzazione senza scopi di lucro, che oggi presente nel panorama informatico: la Free Software Foundation (FSF). Tale organizzazione si pose principalmente due obiettivi: quello di sviluppare e distribuire software libero e quello di progettare ed implementare un nuovo sistema operativo, compatibile con UNIX, ma distribuito con una licenza totalmente permissiva, il cui codice sorgente del tutto libero e con tutti gli strumenti necessari per personalizzarlo.

Quest’ultimo obiettivo prende il nome di GNU (acronimo ricorsivo “GNU’s Not UNIX”), nato per contrastare, in qualche modo, direttamente UNIX.

 

«L’obiettivo principale di GNU era essere software libero. Anche se GNU non avesse avuto alcun vantaggio tecnico su UNIX, avrebbe avuto sia un vantaggio sociale, permettendo agli utenti di cooperare, sia un vantaggio etico, rispettando la loro libertà.»

 

Nello sviluppo del progetto GNU ricordiamo l’implementazione di software famosissimi, quali il compilatore gcc e l’editor di testo Emacs. Furono sviluppate anche tante altre componenti. Il costo per entrare in possesso di GNU era di 150 dollari (costo che occorreva a Stallman per pagare i programmatori ingaggiati dalla FSF). Mell’acquisto di GNU vi era però un’unica condizione da rispettare è cioè: “che tutte le modifiche eventualmente effettuate su tali programmi venissero notificate agli sviluppatori”. Prese così vita la GNU General Public License (GPL). Di seguito la citazione di alcune righe della licenza:

 

 «Le licenze per la maggioranza dei programmi hanno lo scopo di togliere all’utente la libertà di condividerlo e di modificarlo. Al contrario, la GPL è intesa a garantire la libertà di condividere e modificare il free software, al fine di assicurare che i programmi siano “liberi” per tutti i loro utenti

 

Tuttavia, all’inizio degli anni Novanta, il progetto GNU non aveva ancora raggiunto il suo obiettivo principale, mancando di completare il kernel del suo sistema operativo (HURD). Per sopperire alla mancanza del kernel William e Lynne Jolitz riuscirono a fare il porting di UNIX BSD su piattaforma Intel 386 nel 1991, e Linus Torvalds (anch’esso nel 1991 e su piattaforma Intel 80386) iniziò lo sviluppo del kernel Linux, cresciuto poi con il contributo di migliaia di programmatori volontari sparsi per il mondo.

Prima che il progetto GNU rilasciasse un sistema operativo stabile ed efficiente, occorre aspettare 6 anni, e più precisamente il 1991 quando uno studente dell’Università di Helsinki, Linus Torvald, nel tentativo di progettare un sistema operativo alternativo a quelli delle multinazionali, trovandosi di fronte ad una mole di lavoro al di sopra delle possibilità di qualsiasi singolo individuo, ebbe l’idea di pubblicare il suo lavoro su internet e di dichiararlo disponibile a qualsiasi modifica, integrazione o suggerimento volto a completarlo o migliorarlo. Nacque in questo modo il primo sistema operativo libero: Linux. In pochi anni Linux si diffuse al punto da creare una vera e propria comunità di programmatori che da ogni parte del mondo ne curano lo sviluppo e la continua innovazione. La caratteristica essenziale di Linux, come di tutti i software liberi, è l’apertura del codice sorgente, ovvero nella possibilità, da parte di chiunque, di intervenire sul software per modificarlo in funzione di specifiche esigenze operative.

 

4.3. LE TRE “LIBERTÀ” DEL SISTEMA OPEN SOURCE

Il sistema open source si basa su tre libertà fondamentali condivise da tutti gli utenti:

  1. la libertà di studiare il funzionamento di un programma e adattarlo alle proprie esigenze;
  2. la libertà di condividerlo con i programmatori di tutto il mondo;
  3. la libertà di migliorare il programma e di ridistribuirlo al pubblico con le modifiche apportate.

 

4.4. LA FILOSOFIA DELL’OPEN SOURCE

La filosofia dell’open source, in estrema sintesi, consiste nel garantire licenze libere per tutti gli utenti, consentendo a chi lo desidera di apportare miglioramenti, con meno restrizioni possibili. Tali considerazioni ci permettono di comprendere perché l’open source, il software a codice sorgente libero, si sta dimostrando sempre più indispensabile per il mondo della Rete. Solo per fare qualche esempio, i software aperti sono utilizzati in più del 70% dei server di Internet, gestiscono la maggior parte del traffico di e-mail nel mondo e rappresentano la base di appoggio del motore di ricerca leader del Web, Google. L’open source è un vero e proprio pilastro dell’economia della Rete, che sta costringendo sempre più aziende a rivedere i propri modelli di business e che ha attirato l’attenzione di grandi colossi del settore come IBM, HP e Sun. Secondo alcuni analisti, il successo del software libero non risiederebbe tanto nella nobile volontà di arricchire la comunità internettiana, quanto nella possibilità offerta dall’open source di veicolare la vendita di altre tecnologie. Altri ritengono, invece, che il suo successo sia soprattutto da intendere come segno inequivocabile del cambiamento dei tempi e del fatto che i software stiano diventando un bene di consumo di massa, al pari del PC negli anni ’80. Quale che sia il modo giusto di interpretare il fenomeno, non c’è dubbio che “gli interpreti” del software libero sono in continuo aumento. Tralasciando di entrare nei particolari di Linux, ormai unanimemente riconosciuto come leader indiscusso, altri programmi aperti si stanno affermando nell’arena dei sistemi operativi e non, primo fra tutti “Apache”, progetto nato nel 1995 nell’Illinois National Center for Supercomputing Applications e che ora è diventato il programma leader per la fruizione dei contenuti tramite browser Internet. Non meno importanti altri progetti come Sendmail, che oggi controlla il 40% del mercato degli e-mail server, o del Berkeley Internet Name Domain (BIND), che gestisce gran parte dei procedimenti che portano alla traduzione degli indirizzi Web dalle parole comuni ai numeri; non da meno è MySql, database server diffusissimo per la gestione di database e dati relazionati tra di loro. Una schiera in continua evoluzione, che sembra non essere minimamente intaccata dalle azioni legali in materia di copyright che ogni tanto, regolarmente, aziende più o meno affermate decidono, a torto o a ragione, di promuovere.

 

4.5. OPEN SOURCE E SOFTWARE LIBERO

I termini “open source” e “software libero” vengono normalmente utilizzati per identificare software il cui codice sorgente può essere liberamente studiato, copiato, modificato e ridistribuito. In particolare, la definizione di software libero proposta dalla Free Software Foundation (FSF) recita testualmente:

 

“L’espressione ‘software libero’ si riferisce alla libertà dell’utente di eseguire, copiare, distribuire, studiare, cambiare e migliorare il software”

 

Più precisamente, esso si riferisce a quattro tipi di libertà per gli utenti del software:

  1. libertà di eseguire il programma, per qualsiasi scopo (libertà 0);
  2. libertà di studiare come funziona il programma e adattarlo alle proprie necessità (libertà 1). L’accesso al codice sorgente ne è un prerequisito;
  3. libertà di ridistribuire copie in modo da aiutare il prossimo (libertà 2);
  4. libertà di migliorare il programma e distribuirne pubblicamente i miglioramenti, in modo tale che tutta la comunità ne tragga beneficio (libertà 3). L’accesso al codice sorgente ne è un prerequisito.

 

È importante comunque fare distinzione tra i termini “open source” e “free software”, infatti questi non sono affatto considerati sinonimi. In realtà essi si riferiscono a filosofie ed approcci diversi:

  • Free software. Secondo la FSF il software deve essere libero non in quanto gratuito, ma per una questione etica e di principio. Esistono una serie di diritti dell’utente del software (indicati nella definizione proposta in precedenza) che devono essere adeguatamente tutelati; il software deve essere “libero” per questi motivi prima ancora che per motivi di carattere economico e di mercato.
  • Open source. La comunità del software OS condivide in larga misura le posizioni del mondo del software libero, ma più che indugiare sugli aspetti etici, fonda le proprie scelte e motivazioni su considerazioni di carattere tecnico-economico. Secondo i sostenitori del software OS, tali motivazioni tecnico-economiche sono sufficienti a giustificare la necessità del software aperto/libero.

 

Esistono poi diverse altre varianti sul tema che sottendono diverse forme di licenza e modelli alternativi, che in qualche modo si rifanno alla condivisione del codice sorgente.

In particolare, è stato proposto il concetto di community sourcing per indicare una qualche forma di condivisione controllata di codice all’interno di una comunità. Si rimanda ad altri testi e riferimenti per un’analisi dettagliata delle diverse proposte e alternative disponibili. Si noti che “open source” e “free software” non sono sinonimi di “gratuito”: un software OS può essere gratuito oppure venduto a pagamento (basti ricordare la prima versione di GNU che aveva un prezzo di acquisto che, per quanto basso, si aggirava intorno ai 150 dollari). L’idea di fondo è che quando un utente è entrato in possesso di una copia di un programma libero (che deve necessariamente includere il codice sorgente e non solo l’eseguibile) ha il diritto di utilizzarlo secondo quanto previsto dalla licenza (tipicamente può modificarlo, copiarlo, installarlo, ridistribuirlo ed eventualmente anche rivenderlo). Ovviamente, le licenze OS prevedono vincoli che regolano tale processo. Per esempio, la licenza GPL (General Public Licence) impone che software sviluppato e integrato con software GPL sia anch’esso GPL. Si invita chi fosse interessato ad approfondire, a confrontare i principi ispiratori della definizione di software libero della FSF, orientati alla difesa dei diritti degli utenti, con quelli che ispirano la direttiva 2001/29/CE del Parlamento Europeo e del Consiglio sull’armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi alla società dell’informazione. In pratica tutti i diritti riconosciuti all’utente dalla FSF sono esplicitamente indicati come pratiche illegali, quando si tratta di materiale coperto da copyright.

 

CAPITOLO 5

 

LA CRITTOGRAFIA

 

 

 

5.1. INTRODUZIONE

Una visione storica del problema è sempre di grande utilità per la comprensione dello stesso. In questa introduzione, pertanto, intendiamo dare una breve ed efficace panoramica sulla Crittologia.

La Crittologia può essere divisa in tre grandi branche.

  • La crittografia o arte delle scritture segrete: in questo ambito il problema che ci si pone consiste nel nascondere un messaggio con procedimenti noti solo al mittente e al destinatario, al fine di impedire che un personaggio estraneo alla comunicazione possa, senza essere autorizzato, comprendere il messaggio stesso. I procedimenti per “cifrare” e “decifrare” i messaggi rappresentano il segreto del codice.
  • L’autenticazione è un ulteriore procedimento mediante il quale il ricevente ha una garanzia che il messaggio sia esattamente quello spedito dal mittente e che il testo sia autentico. I metodi di autenticazione più sofisticati sono i procedimenti di firma numerica, grazie ai quali il mittente non può disconoscere di aver inviato quel dato messaggio ed il destinatario è in grado di provare ad un terzo l’identità dei mittente.
  • La crittoanalisi è la metodologia di ricerca che mira alla ricostruzione, parziale e/o totale, dei sistemi di cifratura usati senza essere in possesso né della loro architettura, né delle norme d’impiego, né delle chiavi usate. Dunque sono definiti crittoanalisti coloro che si occupano a rompere i messaggi senza conoscerne la chiave segreta.

 

Risulta interessante ora riflettere sulla frase, di seguito riportata:

 

L’ingegno umano non riuscirà mai a concepire un cifrario

di cui l’ingegno stesso non possa scoprire la chiave

(Edgar Allan Poe)

 

Tale frase si può riassumere nel modo seguente: non appena un uomo è in grado di costruire un cifrario, si riesce a trovare sempre un altro uomo pronto ad abbatterlo.

 

5.2. LA STORIA

L’uso delle scritture segrete risale a tempi antichissimi. Lo stesso Erodoto (VII, 139) ci narra che un tale Demarato riuscì ad informare i Lacedemoni del progetto di Serse di invadere la Grecia facendo pervenire loro un messaggio inciso su di una tavoletta, che era stata ricoperta con cera. Inoltre, durante le guerre persiane, si usava rapare uno schiavo, incidere il messaggio sopra la sua testa, fargli poi ricrescere i capelli ed infine inviare il messaggio, ovvero lo schiavo, che, giunto a destinazione, veniva rapato di nuovo per consentire al destinatario di leggere il messaggio[121].

Aulo Gellio (Noct. att., XVII, 9) parla di un sistema simile, usato dai Cartaginesi, e descrive la scytala lacedemonica, della quale parla anche Plutarco: il messaggio veniva inciso su un nastro di cuoio avvolto attorno ad un tubo di legno e poi, sfilando il nastro, si spediva il messaggio che poteva essere letto solo da chi possedeva un tubo dello stesso diametro. Si introdusse, così, il primo strumento che possedeva un codice. Svetonio (Caes., LVI) parla di un alfabeto convenzionale usato da Giulio Cesare: era sufficiente sostituire ogni lettera con quella che la seguiva dopo aver effettuato lo slittamento di tutte le lettere dell’alfabeto normale di un certo numero di posti prestabilito.

 

Esempio

ABCDEFGHIJKLMNOPQRSTUVWXYZ (alfabeto in chiaro)

                   
                   

 

 

 

XYZABCDEFGHIJKLMNOPQRSTUVW (alfabeto cifrato)

Testo chiaro: ALEA IACTA EST

Testo cifrato: XIBX FXZQX BPQ

Quindi, il testo cifrato è stato ottenuto slittando di tre posti tutte le lettere dell’alfabeto in chiaro.

 

A parte il cifrario di Giulio Cesare sopra analizzato, va ricordato anche l’antico sistema persiano di trasmettere segnali accendendo fuochi su località elevate; simili sistemi di comunicazione furono usati dai greci, cartaginesi e romani, addirittura fino ai tempi della guerra anglo-boera. Alcuni scrivevano messaggi sulle foglie che servivano a bendare le piaghe purulente dello schiavo-corriere mentre, ad esempio, Scipione l’Africano concepì un sistema di comunicazione, recentemente molto usato dall’Unione Sovietica, che consisteva nell’inviare in altri paesi spie esperte travestite da domestici degli ambasciatori.

Nel VI secolo, la rete informativa dell’Impero bizantino era divenuta uno dei fondamenti dello stato: agenti mercanti erano sparsi in tutto il paese attraverso un sistema di import-export.

Comunque l’invenzione di alcuni dei più importanti sistemi di comunicazione viene fatta risalire ad Alessandro il Grande: ad una certa distanza dal suo quartier generale, il Macedone aveva infatti costituito un vero e proprio ufficio di raccolta dati, basato sulle informazioni ottenute da agenti inviati nei paesi nemici. Costoro avevano anche il compito di spargere notizie false sulle intenzioni e le mosse di Alessandro, in modo da disorientare il nemico o indurlo a svelarsi.

Nel Medioevo non si ebbe una sostanziale evoluzione dei sistemi crittografici, mentre nel Rinascimento la crittografia ebbe notevole impulso, grazie alla scoperta di nuovi sistemi di cifratura ideati da:

  • Leon Battista Alberti, sul cui codice torneremo più avanti
  • Giovan Battista Della Porta, celebre fisico napoletano (1540-1615), inventore della camera oscura ed autore, fra l’altro, del trattato De furtivis literarum notis (Napoli 1563)
  • Gerolamo Cardano, medico e matematico (1501-1576), che, durante la sua sfortunata esistenza, affrontò anche problemi crittografici nel De subtilitate (Lione 1554).

 

Fuori Italia occorre menzionare il tedesco Tritemio (Johannes da Trittenheim, 1462-1516), autore della Polygrafia (Francoforte 1550) e della Steganographia, hoc est ars per occultam scripturam animi sui voluntatem absentibus aperiendi (Francoforte 1606-1622). Alcuni metodi di Tritemio sono riportati anche nel libro di Umberto Eco, Il pendolo di Focault. Il francese Blaise de Vigenère (1522-1596) autore di un Traicté des chiffres ou secrètes nianières d’escrire (Parigi 1586), invece, merita una descrizione a parte. Il suo codice, infatti, fu considerato “sicuro” per più di 200 anni, fin quando, nel 1863, Kasiski, ufficiale prussiano, ideò un test statistico (test di Kasiski) che spezzo il codice.

Nel sec. XVII fu attribuita sempre maggiore importanza alle scritture in cifra e le varie Nazioni adottarono sistemi di cifratura sempre più complessi.

Di conseguenza durante il Rinascimento una rete fittissima di agenti copriva l’Europa tant’è che neanche il Papa poteva stare tranquillo: si dice, infatti, che il segretario di Adriano VI fosse una spia dell’Imperatore Carlo V, al corrente di tutti i segreti del Papa e della sua corte[122].

Il miglior servizio di spionaggio dell’epoca era probabilmente quello spagnolo: l’agente principale di Filippo II era nientemeno che l’ambasciatore inglese a Parigi, Sir Edward Stafford, il quale fra l’altro riuscì a fornire agli spagnoli notizie sulla flotta di Sir Francis Drake, pronta a salpare contro l’invincibile Armata. A questo punto però si inserì nel gioco Sir Francis Walshingham, che, raccolte le prove del tradimento di Stafford, decise di sfruttarlo a suo vantaggio, così tramite Stattord si ottennero molteplici informazioni, ad esempio l’elenco preciso di tutte le spie spagnole in Inghilterra.

Padre Giuseppe, religioso al servizio del Cardinale Richelieu, fu famoso per la sua scuola di informatori. Essi trovarono pane per i loro denti solo con il servizio segreto inglese, guidato allora da Thurloe, abilissimo collaboratore di Cromwell.

Verso la fine del XVIII secolo il primato dell’organizzazione spionistica passa dall’Inghilterra alla Francia: Napoleone domina l’Europa, non solo con la potenza degli eserciti e con il genio strategico, ma anche con l’efficienza della sua rete di informatori. Tra questi il più grande di tutti, Karl Schulmeister.

Presentato da Savary a Napoleone con le parole “Ecco, Sire, un uomo tutto cervello e senza cuore, ai Vostri ordini”, Schulmeister si accinse a quella che resta forse la più incredibile azione di spionaggio della storia: diventare capo del servizio di informazioni militari della coalizione avversa a Napoleone. Schulmeister si trasferì a Vienna ed offrì informazioni strategiche di grande importanza e assolutamente vere.

In meno di un anno, Schulmeister riuscì a farsi nominare capo del servizio di informazioni austriaco: da quel momento fu come se Napoleone stesso potesse esaminare i piani strategici del nemico.

Le vittorie di Ulm e di Austerlitz furono in gran parte dovute a Schulmeister, che non solo informava Napoleone delle mosse nemiche, ma forniva agli Alleati false indicazioni.

Nel 1900 la tecnica fa notevoli passi avanti ed i mezzi di comunicazione subiscono una vera e propria rivoluzione: la fotografia, il telegrafo, la radio, il telefono, l’aereo. Nascono i servizi militari organizzati. A volte forse anche più di uno per nazione. In Italia durante la seconda guerra vi erano ad esempio i seguenti:

  • Servizio Informazioni Militari (SIM) dell’Esercito
  • Servizio Informazioni Militari (SIS) della Marina
  • Servizio Informazioni Aeronautica (SIA) dell’Aeronautica
  • Centro di Controspionaggio Militare e Servizi Speciali (CCMSS) alle dipendenze del Ministro della Guerra
  • Organizzazione di Vigilanza e Repressione Antifascista (OVRA)

 

Chiusa l’era delle spie romantiche e degli avventurieri di genio, i nuovi personaggi saranno soprattutto colonnelli inglesi a riposo con l’hobby della decifrazione; giornalisti mondani affiliati da anni da qualche servizio segreto; taciturni camerieri turchi e scienziati atomici convinti che una potenza diversa dalla loro patria avrebbe fatto un uso più giusto dei terribili segreti di cui erano a conoscenza; ufficiali della Marina particolarmente dotati nel campo dell’intercettazione e delle trasmissioni radio.

Accanto a loro, spesso alle loro dipendenze, tutta una galleria di personaggi minori, mossi da motivi sia nobili che ignobili, ideologici o bassamente economici, ma sostanzialmente non diversa dagli informatori dei Faraoni d’Egitto o dei consoli romani del passato.

Durante la prima guerra mondiale (1915-1918) va ricordato l’episodio del telegramma Zimmerman, nell’Aprile 1917, che è, di fatto, il primo caso di messaggio segreto che decriptato al momento giusto creò un evento assai importante: l’entrata in guerra degli Stati Uniti.

Come premessa va ricordato che nel 1915 un U-boot tedesco in immersione aveva silurato il transatlantico Lusitania causando la morte di 1200 civili tra cui 150 americani. L’incidente avrebbe causato l’entrata in guerra degli Stati Uniti ma un accordo risolse l’incidente. Del resto lo stesso Presidente Woodrow Wilson era contrario ad un intervento poiché sperava di poter pesare nelle trattative e condurre l’Europa ad una pace risparmiando vite americane. Nel Novembre 1916 la nomina di Arthur Zimmerman a Ministro degli Esteri tedesco di notoria indole liberale, sembrò facilitare l’ipotesi di Wilson.

In realtà Zimmerman riteneva che si dovesse scatenare una guerra sottomarina senza avvisaglie e senza quartiere e consigliò il Kaiser in questa direzione. L’unica preoccupazione era l’eventuale intervento USA. Così Zimmerman tentò un accordo con il presidente del Messico spingendolo ad invadere gli USA al fine di chiedere la restituzione del Nuovo Messico, del Texas e dell’Arizona. Il presidente messicano, inoltre, avrebbe tentato di coinvolgere anche il Giappone a dare manforte in questa operazione. Gli Stati Uniti impegnati su questi fronti non avrebbero prestato molta attenzione all’Europa. L’inizio dell’operazione avvenne con un telegramma cifrato inviato all’Ambasciatore tedesco in Messico, che doveva informare il Presidente messicano del da farsi. Di seguito riportiamo una traccia di quel famoso telegramma:

 

Segretissimo– Per conoscenza personale di Vostra Eccellenza e per l’ulteriore inoltro al Ministro Imperiale in (Messico?) con telegramma No. 1 (…) per via sicura.

Intendiamo iniziare dal 1° febbraio la guerra sottomarina senza restrizioni. Ci sforzeremo, ciononostante, di mantenere neutrali gli Stati Uniti d’America. (?)

Se non dovessimo (riuscirci) proponiamo al (? Messico) un’alleanza su queste basi:

[condurre una comune] condotta di guerra, [pervenire ad comune] conclusione della pace (…) con nostro sostegno finanziario e nostro accordo a ceder a Messico i perditi territori del Nuovo Messico, del Texas e dell’Arizona. A lei definire dettagli.

Vostra Eccellenza informi il presidente [del Messico] segretamente (? che noi prevediamo) guerra con gli Stati Uniti (forse) e nello stesso tempo d’intavolare trattative fra noi ed il Giappone.

(La preghiamo dire al Presidente) che (…) i sommergibili costringeranno l’Inghilterra alla pace entro pochi mesi. Accusi ricevuta” – Zimmerman

 

Il telegramma prese, per un incidente su alcuni cavi sottomarini, la via della Svezia. Intercettato dallo spionaggio inglese venne decrittato nella famosa stanza 40 dal crittoanalista, nonché reverendo, Montgomery. Così  nonostante la lunga riluttanza del Presidente Wilson e dei non interventisti, quando il congresso ne venne a conoscenza, ed insieme al congresso la stampa e i media, la situazione cambiò globalmente dalla sera alla mattina. Una semplice decrittazione era valsa tre anni di fallite trattative e l’operazione bellica che ne derivò fu di proporzioni colossali e con il ben noto esito.

Durante la seconda guerra mondiale fu molto in auge una macchina di decrittazione costruita da Turing il cui nome era Enigma.

Oggi lo scenario è cambiato: oltre al mondo politico-militare (statale in genere) è coinvolto anche il mondo privato (civile). Il problema crittografico nuovo è quello di proteggere qualsiasi informazione. Si pensi a quanti dati attualmente occorre mantenere riservati, contenuti, ad esempio, presso:

  • archivi di banche
  • archivi di grosse e medie industrie
  • archivi di enti di stato dai quali possono trarsi informazioni sullo stato patrimoniale anche di singoli soggetti
  • archivi di compagnie aeree dai quali sapere in anticipo spostamenti di singoli soggetti
  • archivi di Ospedali

 

Inoltre, si pensi che oggi nessuno è in grado di garantirci la riservatezza non solo dei dati contenuti negli archivi sopraindicati ma anche la segretezza di una telefonata o l’autenticità di un ordine di pagamento fatto in uno dei canali disponibili (telefonico o telefax). Inoltre un nostro agente potrebbe disconoscere l’ordine ricevuto ovvero un malintenzionato potrebbe modificare l’ordine dall’esterno a suo favore e a nostro danno.

Quindi, come è facilmente intuibile anche per i non addetti ai lavori, la crittologia nasce e prolifera come supporto per le comunicazioni militari. Con il passare dei secoli, però, i metodi sono cambiati ed i crittografi naturalmente sono sempre a caccia di nuovi codici che i critttoanalisti sistematicamente scoprono.

 

5.2. IL PROBLEMA DEI CRITTOGRAFI: FARE UN CAOS ORDINATO

Il problema più delicato nell’organizzazione di una rete di informazioni è quello di stabilire comunicazioni sicure tra gli agenti e il centro da cui essi dipendono. I diversi sistemi escogitati nel passato si può dire siano stati sufficientemente simili tra loro.

Spesso le informazioni venivano spedite per mezzo di lettere redatte secondo un codice convenzionale precedentemente stabilito: ad esempio comuni lettere commerciali. Cifre e nomi di particolare interesse erano “travestite” con vocaboli innocenti: cliente, denaro e ordinazioni indicavano effettivamente truppe, dati bellici o altre informazioni. Ecco un esempio di codice molto elementare.

 

Cliente = Alleato                                Acquistare = Attaccare

Merce = Esercito nemico                   Ditta = Divisione in soccorso

Interpellare = Comunicare a …          Inviare = Far saltare

 

Per messaggi di questo tipo era necessario avere fantasia e tempo a disposizione. A causa della loro ingenuità essi risultavano immediatamente cifrabili, non erano quindi così adatti per trasmettere informazioni di una certa importanza[123]. Messaggi convenzionali venivano alle volte inviati anche per mezzo di inserzioni nei giornali.

Ad esempio: “Vendesi terreni per 10 ettari, 2 fabbricati, 823 bovini” può essere benissimo un messaggio in cui 102823 è la chiave da usare per decifrare un successivo o precedente messaggio.

L’abilità consiste nel pensare il testo in modo da non destare il sospetto e da non richiamare l’attenzione dell’avversario.

Il mezzo più usato da quando esiste è stata la radio. Con essa è possibile inviare tempestivamente qualsiasi messaggio al proprio centro, da questo è possibile ricevere in ogni momento ordini o informazioni. Le trasmissioni avvenivano ad ore prestabilite ed iniziavano sempre con la sigla di una delle parti.  Il dispaccio veniva trasmesso cifrato, con un sistema la cui chiave era conosciuta quasi sempre da un solo trasmettitore che, una volta raccolte le informazioni, le cifrava per affidarle all’agente incaricato di effettuare la trasmissione. Così questi inviava al centro una serie di numeri o lettere a lui stesso incomprensibili. Nel corso dell’emissione l’operatore inseriva il cosiddetto parity check che segnalava eventuali errori dovuti al canale e il security check, cioè un errore, una parola sbagliata sempre uguale, in modo che il centro avesse la certezza che l’agente stava trasmettendo liberamente. La radio presentava il grave inconveniente di poter essere individuata dalle stazioni di ascolto e di intercettazione avversari.

Come si è detto, i messaggi, prima di essere trasmessi, venivano tradotti “in cifra” secondo particolari metodi appositamente studiati.

I vari sistemi di cifratura possono a grandi linee raggrupparsi in tre categorie: sistemi a trasposizione, sistemi a sostituzione e sistemi misti. Nei primi la traduzione del linguaggio chiaro in linguaggio segreto ha luogo mediante una specie di anagramma degli elementi dei testi chiari; nei secondi mediante una sostituzione degli elementi stessi con cifre crittografiche, cioè con segni convenzionali, o con gruppi di tali segni; nei terzi mediante entrambe le operazioni eseguite successivamente l’una dopo l’altra in un certo ordine.

I sistemi a sostituzione, più precisamente, consistono nel mettere al posto di ogni lettera (o gruppo di lettere, o parole o frasi del testo) un’altra lettera (o numero, o gruppo di lettere o di numeri). La sostituzione letterale può essere monoalfabetica o polialfabetica a secondo se avviene in base ad un solo alfabeto cifrante o a più alfabeti cifranti, da adoperare in blocco, ma con una certa legge, di volta in volta, prestabilita.

Ad esempio il seguente messaggio: “Appuntamento ora X…” può essere così trasmesso:

 

BQQVOUBNFOUPPSBY …

 

Osserviamo innanzitutto che lo spazio tra le parole è stato abolito (cosa che accade anche per l’immagine crittografata) e che l’alfabeto usato in questo caso è un alfabeto slittato di un posto, nel quale la B ha preso il posto della A, la C della B, la D della C e così via. Naturalmente l’alfabeto cifrante si può ottenere spostando di due, tre, quattro, o anche di ventisei posti l’alfabeto reale. In questo caso ci si trova di fronte ad un codice monoalfabetico poiché vi è una corrispondenza biunivoca (uno ad uno) tra l’alfabeto chiaro e quello cifrante. Per problematiche statistiche, come si vedrò nel seguito, questi codici presentano una debolezza estrema.

Un altro messaggio: “Giorno X ora Y in arrivo navi ed aerei alleati …” cifrato per trasposizione senza chiave diviene:

 

GIIE INEA OADT RRAI NREA OIRB XVEC OOID RNAE AALF YVLG

 

Esso si ottiene scrivendo su di un rettangolo il messaggio da inviare nel modo seguente:

 

GIORNOXORAY

INARRIVONAV

IEDAEREIALL

EATIABCDEFG

 

La cifratura può aver luogo per lettere, per sillabe, o per gruppi di un numero fisso di lettere (poligrammi), o per frasi, o in modo promiscuo.

La maggior parte degli autori ripartisce i sistemi di cifratura nelle due categorie di sistemi letterali o di sistemi a repertorio. I primi consistono nella trasposizione e/o sostituzione delle lettere o di poligrammi. I secondi consistono invece nella sostituzione delle parole e delle frasi.  Questa operazione può essere seguita da una seconda cifratura, o sopracifratura, per trasposizione e/o per sostituzione delle relative cifre crittografiche. I segni convenzionali che rappresentano gli elementi del linguaggio chiaro possono essere di qualsiasi genere, ma nei tempi moderni è frequente l’uso di segni adoperati nella corrispondenza telegrafica. Sono usati i segni della normale scrittura, e per lo più si usano o sole cifre arabe o sole lettere e si formano gruppi di un numero fisso di elementi.

Molto comuni sono i sistemi a gruppi di cinque lettere o di cinque cifre arabe, ovvero di dieci lettere costituenti un insieme pronunciabile, essendo tali i massimi tassabili per una parola nelle comunicazioni telegrafiche internazionali.

La convenzione in base alla quale si eseguono le operazioni di sostituzione e di trasposizione è sovente rappresentato da una chiave, cioè da una serie di numeri o di lettere, il cui uso può spiegarsi mediante esempi.

 

Esempio

Alfabeto chiaro           A B C D E F G  H  I  L  M  N  O  P  Q  R  S  T  U  V  W  Z

Alfabeto cifrato           g  i  n  e  p  r  o   a  b  c   d   f    h  l   m  q   s   t   u   v   w   z

 

Si fissa l’attenzione sulla parola chiave, “ginepro”, formata da lettere tutte distinte, che rappresenta la vera e propria chiave. Il metodo di cifratura è ovvio: nell’alfabeto cifrato sono assenti tutte quelle lettere comprese nella parola chiave. Chiaramente se la parola chiave fosse stata costituita anche da doppie allora bisognava contarle una sola volta, ossia esse andavano contratte. Da notare che, in questo caso, potrebbe essere conveniente cambiare la parola chiave per il fatto che da s a z ci sono troppe lettere fisse.

La cifratura può anche essere eseguita mediante l’uso di griglie, cioè di poligoni di cartone o di altra materia ripartiti in caselle, delle quali un certo numero forate. Il tipo originario è la griglia quadrata, ideata dal Cardano, con la quale la cifratura ha luogo sovrapponendo quadrati di cartone forati in un certo modo convenuto. Il messaggio viene scritto nei fori della griglia appoggiata su di un foglio di carta quadrettata, ruotando il cartoncino in un modo stabilito quando tutte le fessure sono state riempite.

Dopo aver tolto la griglia, si rilevano le lettere o colonna per colonna, sia in senso verticale che in senso orizzontale, oppure mediante l’aiuto di una “chiave” come nei casi precedenti.

 

Esempio

  PRIMO QUADRATO                        SECONDO QUADRATO

 

1

 

 

 

 

 

 

 

 

 

7

 

2

 

 

 

 

 

 

 

 

 

6

 

8

 

3

 

5

 

 

 

 

 

5

 

 

 

 

 

4

 

6

 

 

 

 

 

4

 

 

 

 

 

 

 

7

 

1

 

3

 

 

 

 

 

 

 

8

 

 

 

2

 

 

 

 

 

Si osservi che il secondo quadrato è stato ruotato, rispetto al primo, di 90° (in senso antiorario).

 

Testo chiaro    LA CRITTOGRAFIA E’ INTERESSANTE

 

 

L

 

 

 

 

 

 

 

 

E

 

 

N

 

 

 

 

A

 

 

 

 

 

 

 

 

A

 

I

T

 

 

 

 

 

 

C

 

I

 

 

 

 

I

 

 

 

 

E

 

E

 

 

 

 

R

 

T

 

 

 

 

F

 

 

 

 

R

 

S

 

 

 

 

 

 

T

G

 

A

 

 

 

 

 

 

 

 

S

 

 

 

 

O

 

 

R

 

 

 

 

 

 

 

 

A

 

 

 

Gli spazi vuoti vengono riempiti ad esempio con lettere casuali.

Per eliminare in parte le ripetizioni che compaiono necessariamente in ogni crittogramma, specialmente nei testi molto lunghi, si ricorre alla sopracifratura, operazione che consiste nel cifrare di nuovo il testo ottenuto con la prima cifratura, magari cifrando parzialmente il testo o usando un cifrario tipo quello dell’Alberti, nel quale cambiare alfabeto è facile.

Naturalmente il destinatario per poter decifrare un crittogramma doveva compiere operazioni inverse a quelle eseguite dal mittente.

Da un punto di vista storico, possiamo dire che nel Medio Evo, per le condizioni politiche, i codici segreti vengono usati poco ed in genere solo per nascondere nomi di personaggi importanti.

Verso la fine del Medio Evo, con l’inizio delle relazioni diplomatiche tra i vari stati i codici segreti diventano una necessità.

Secondo ricerche storiche dovute a Meister (1902) l’uso sistematico dei codici segreti ebbe inizio nella Corte Papale, nelle Repubbliche e Signorie Italiane, a partire dal 1300.

E’ in questo periodo che la Crittografia ha una grossa evoluzione. Troviamo un cambiamento radicale, infatti nascono i primi codici segreti che non usano un solo alfabeto cifrante, ma molti alfabeti cifranti. Tali codici si chiamano codici polialfabetici.

Il primo codice polialfabetico è dovuto ad un illustre pensatore italiano: Leon Battista Alberti, architetto, urbanista, pedagogo, matematico e crittografo. É suo, su commissione del segretario pontificio, Leonardo Dato, il primo codice polialfabetico della storia, messo a punto intorno al 1466.

Esso era costituito da due cerchi o dischi concentrici: in quello più esterno compare l’alfabeto in chiaro formato da 24 caselle, 20 delle quali contenenti lettere (mancano per ragioni di sicurezza crittografica, le lettere che si presentano con minore frequenza, cioè J, K, Y, W, Q, H) e le rimanenti i numeri 1, 2, 3, 4.

 

               4      A        B

                                                       3                                  

            2                                        C            

                                                             r      e    n    b                D

       1           a                           o                E

                                       Z           g                                 s      f

              l                                           c          F

   X         d                                          h         G

    V            j                                        t           I

                   m                              q     y      

  T            z    p   v    k   x   i                  L     

    S                                            M

                                                           R     Q      P     O      N

 

 

 

Osserviamo che il cerchio più esterno contiene lettere tutte maiuscole e ben ordinate (sono scritte, infatti, dalla A alla Z, anche se alcune lettere sono state omesse per timore di un’eventuale confusione: manca la U perché identificata con la V così come la J è stata associata alla I). Tale cerchio, però, contiene ben quattro numeri, dall’1 al 4.

Leon Battista Alberti, inoltre, utilizzava vari dischi interni, in base, ad esempio, al giorno in cui veniva inviato il messaggio. Il disco interno (quello riportato in figura è uno dei tanti possibili dischi interni!) contiene una permutazione di altre 24 lettere (manca la lettera w ed è u = v) formanti l’alfabeto cifrante ed esso può ruotare rispetto al primo disco. Trattandosi di 24 lettere dell’alfabeto, il numero dei riordinamenti possibili, ovvero il numero dei dischi che bisognava costruire, era pari esattamente a 24! (si legge 24 fattoriale), essendo:

24! = 24´23´22´21´ … ´4´3´2´1

Poiché il numero che si ottiene è eccessivamente grande è possibile costruire solo 365 dischi interni, tanti quanti sono i giorni dell’anno.

 

Esempio

Messaggio esatto: TERAMO E’ UNA CITTA’

Messaggio da inviare: TERAMOEUNACITTA

 

Da notare che sono stati eliminati gli spazi e gli accenti!

Prima di cominciare a codificare il messaggio, va scelto il disco da utilizzare in accordo con il destinatario (sia esso quello riportato in figura) e poi va inizializzata la macchina fissando, a piacere, una lettera dell’alfabeto cifrante, ad esempio la a, da collocare sotto la A dell’alfabeto in chiaro, attraverso una rotazione del disco interno. Poiché c’è una corrispondenza biunivoca tra le caselle dei due dischi, allora alla lettera scelta come indice del codice, cioè la a, corrisponde una ed una sola lettera del disco esterno. Dopo aver posto la a sotto la A si inizia a codificare il messaggio tenendo conto della corrispondenza tra le lettere dell’alfabeto in chiaro e quelle dell’alfabeto cifrante.

I° Passo) T®v, E®b, R®x     Þ     TER®vbx

Se continuiamo per questa strada, cioè usando un codice monoalfabetico, la probabilità che esso sia scoperta è estremamente alta per cui occorre cambiare alfabeto utilizzando uno dei quattro numeri che compaiono nell’alfabeto in chiaro. Scegliamo, ad esempio, 3, da inserire tra la R e la A del messaggio da cifrare:

TERAMOEUNACITTA®TER3AMOEUNACITTA

II° Passo) 3®l

Cambiamo così l’inizializzazione portando la a, scelta all’inizio, sotto il numero 3 e procediamo come in precedenza:

III° Passo) A®e, M®y, O®i     Þ     AMO®eyi

Cambiamo di nuovo alfabeto, scegliendo questa volta il numero 1, da inserire tra la O e la E del messaggio da decifrare:

TERAMOEUNACITTA®TER3AMO1EUNACITTA

IV° Passo) 1®l,

Inizializziamo nuovamente la macchina, portando la a sotto il numero 1 e proseguendo come al solito:

V° Passo) E®c, U=V®d, N®x, A®b     Þ     EUNA®cdxb

Si può ora cambiare di nuovo l’inizializzazione della macchina scegliendo un altro numero a piacere e ripetendo il discorso precedente, ottenendo così:

 

Messaggio in chiaro: TERAMOEUNA ……

Messaggio cifrato: vbxleyilcdxb ……

 

Per decifrare il messaggio chiaramente si utilizza lo stesso procedimento al contrario, conoscendo a priori il disco cifrante da utilizzare e l’inizializzazione della macchina.

Anche se la macchina dell’Alberti non ebbe molta fortuna lo stesso autore ne riconobbe i seguenti vantaggi:

  1. nessuna cifra è più rapida;
  2. nessuna cifra è più facile a leggersi;
  • nessuna cifra, se si ignorano gli indici convenuti tra due persone, si può pensare più segreta.

 

La tendenza del periodo medioevale, quindi, era proprio quella di costruire dei semplici algoritmi per cifrare messaggi. Nascono così altri vari codici polialfabetici, quali, ad esempio, quelli di G. Cardano e di Bellaso.

Successivamente si avvertì la necessità di utilizzare la parola chiave introdotta, per la prima volta, dall’italiano Giovan Battista Porta (1563), inventore della camera oscura, rivale di Galileo al quale fu attribuito, dopo una lunga disputa, il merito di avere scoperto il cannocchiale, il commediografo, il crittografo, etc.

Con riferimento alla tavola Della Porta vediamo l’uso della parola chiave in quel codice.

Si comincia con il fissare una parola del tutto arbitraria ma contenente lettere tutte distinte (ciò perché ad ogni parola corrisponderà un diverso alfabeto); sia AMBRISEMLO (abbiamo tolto tre I). Si scrive tale parola sotto il messaggio un numero di volte tale da “coprire” il messaggio stesso, indi si usano le tavole come nel seguente esempio.

 

Esempio

Ogni lettera di essa, ad esempio a, ci dice quale alfabeto dobbiamo usare per criptare la lettera del messaggio corrispondente. Nel caso generale quindi si deve dare una permutazione dell’alfabeto per ogni lettera della parola chiave. La costruzione di queste permutazioni costituisce il codice stesso. Come esempio vediamo, di seguito, il sistema Porta:

 

 

ab

A

N

B

O

C

P

D

Q

E

R

F

S

G

T

H

U

I

V

J

W

K

X

L

Y

M

Z

cd

A

Z

B

N

C

O

D

P

E

Q

F

R

G

S

H

T

I

U

J

V

K

W

L

X

M

Y

ef

A

Y

B

Z

C

N

D

O

E

P

F

Q

G

R

H

S

I

T

J

U

K

V

L

W

M

X

gh

A

X

B

Y

C

Z

D

N

E

O

F

P

G

Q

H

R

I

S

J

T

K

U

L

V

M

W

ij

A

W

B

X

C

Y

D

Z

E

N

F

O

G

P

H

Q

I

R

J

S

K

T

L

U

M

V

kl

A

V

B

W

C

X

D

Y

E

Z

F

N

G

O

H

P

I

Q

J

R

K

S

L

T

M

U

mn

A

U

B

V

C

W

D

X

E

Y

F

Z

G

N

H

O

I

P

J

Q

K

R

L

S

M

T

op

A

T

B

U

C

V

D

W

E

X

F

Y

G

Z

H

N

I

O

J

P

K

Q

L

R

M

S

qr

A

S

B

T

C

U

D

V

E

W

F

X

G

Y

H

Z

I

N

J

O

K

P

L

Q

M

R

st

A

R

B

S

C

T

D

U

E

V

F

W

G

X

H

Y

I

Z

J

N

K

O

L

P

M

Q

uv

A

Q

B

R

C

S

D

T

E

U

F

V

G

W

H

X

I

Y

J

Z

K

N

L

O

M

P

wx

A

P

B

Q

C

R

D

S

E

T

F

U

G

V

H

W

I

X

J

Y

K

Z

L

N

M

O

yz

A

O

B

P

C

Q

D

R

E

S

F

T

G

U

H

V

I

W

J

X

K

Y

L

Z

M

N

 

Nelle tavole di Porta le lettere minuscole scritte in testa danno il nome all’alfabeto di quella riga, che è ottenuto dividendo l’alfabeto in due parti di 13 lettere ognuna e stabilendo una biiezione tra i due insiemi di 13 elementi. Allora se la lettera della parola chiave che stiamo considerando è una a oppure una b, si cripta la lettera del testo corrispondente con l’alfabeto di nome ab, e così via.

 

Esempio

Testo in chiaro: TERAMOEUNACITTA

Parola chiave: PORTAPORTAPORTA

Testo cifrato: ???????????????

 

In primo luogo osserviamo che la parola chiave (porta) è ripetuta un numero di volte sufficienti a raggiungere la medesima lunghezza del testo in chiaro che, nel caso specifico, è costituito da 15 lettere.

 

Si procede ora nel seguente modo: stabiliamo in primo luogo una corrispondenza tra il testo in chiaro e la parola chiave.

 

T

E

R

A

M

O

E

U

N

A

C

I

T

T

A

P

O

R

T

A

P

O

R

T

A

P

O

R

T

A

 

Utilizziamo poi la tavola di Della Porta: poiché alla lettera T (di Teramo) è associata la lettera P (di porta) dobbiamo usare l’alfabeto op, cioè a T corrisponde A; analogamente alla lettera E (di Teramo) è associata la lettera O (di porta), per cui anche in questo caso dobbiamo utilizzare l’alfabeto op, cioè E ® X; proseguendo, alla lettera R (di Teramo) corrisponde la lettera R (di porta), quindi, questa volta, dobbiamo cambiare alfabeto, cioè usare qr (R ® M); continuando, si ottiene che: A ® R; M ® Z; O ® I; E ® X; U ® C; N ® J; A ® N; C ® V; I ® O;           T ® B; T ® C; A ® N.

Dunque:

Testo cifrato: axmrzixcjnvobcn

 

Per essere in grado di compilare i messaggi secondo i sistemi esposti, gli operatori devono conoscere sia le chiavi sia i sistemi di cifratura. Alle volte, invece, si sono usati codici cifranti, cioè fascicoli contenenti liste di cifre o di lettere da sostituire alle rispettive voci. Queste liste possono essere costituite da parole, frasi o periodi, più frequentemente usati nei messaggi, con a fianco un gruppo cifrante, numerico o letterale, che può trasmettersi via telegrafo.

I sistemi monoalfabetici sono i più antichi; l’alfabeto cifrante è stabilito in un qualsiasi modo convenzionale e si può fare uso anche di segni nulli, nonché di omofoni, cioè di più segni rappresentanti la stessa lettera dell’alfabeto normale, usabili indifferentemente.

I sistemi polialfabetici derivano tutti dalle tabelle ideate dall’Alberti, da Porta e da Tritemio.

Tritemio, citato ampiamente da Umberto Eco nel pendolo di Focault, usava rivestire i suoi molteplici codici, molti basati su peculiarità del latino, di misticismo. L’idea di base fu quella di aggiungere molte parole in modo che il messaggio finale avesse senso compiuto. In Tritemio appare anche il quadrato latino 26´26 usato come tavola per cifrare e decifrare. Questo quadrato può essere visto come la tavola di addizione di Z26 qualora che sia

 

A = 0,  B = 1, …, Z = 25

 

L’introduzione di un codice polialfabetico, che ha raggiunto maggiore notorietà rispetto a quello dell’Alberti, va attribuito al francese Blaise de Vigenère.

Egli nel 1586 pubblica il suo codice nel quale fa uso di una tavola quadrata, già introdotta dall’abate Tritemio e nota come tavola di Vigenère, sulla quale vi è veramente molto da dire. Il quadrato è passato alla storia come quadrato o chiffre carré del Vigenère. Esso è stato molto in voga, sino a epoca relativamente recente, per scopi militari e diplomatici.

 

 

 

 

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

B

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

C

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

D

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

E

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

F

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

G

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

H

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

I

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

J

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

K

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

L

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

M

M

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

N

N

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

O

O

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

P

P

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

Q

Q

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

R

R

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

S

S

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

T

T

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

U

U

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

V

V

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

W

W

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

X

X

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

Y

Y

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Z

Z

A

B

C

D

E

F

G

H

I

J

K

L

M

N

O

P

Q

R

S

T

U

V

W

X

Y

 

La prima riga contiene l’alfabeto di Cesare. La seconda riga contiene l’alfabeto di Cesare slittato di un posto. La terza riga contiene l’alfabeto di Cesare slittato di due posti e così via.

Ogni riga della tavola, dunque, è un alfabeto di Cesare, a cui diamo il nome della lettera posta a sinistra. La tavola, cioè, contiene l’elenco di tutti i possibili codici di Cesare.

Per criptare un messaggio si usano tanti alfabeti di Cesare quante sono le lettere della parola chiave.

La tavola è un quadrato latino cioè una matrice in ogni riga e colona della quale vi è una permutazione della prima riga o colonna[124]. Il segreto di questo codice è tutto nella parola chiave. Quindi, il destinatario del messaggio conosce la parola chiave ed è quindi in grado di decifrare il messaggio in arrivo usando il procedimento al contrario[125].

 

Esempio

Testo chiaro: VIGENERE

Chiave: APEAPEAP

Testo cifrato: VXKECIRT

Dopo aver scritto il testo chiaro, ovvero il messaggio, bisogna ripetere la parola chiave (nel nostro caso ape) un numero di volte sufficienti per coprire il messaggio.

Per l’uso della suddetta tabella si adotta generalmente una chiave letterale consistente per lo più in una parola o in una frase, e la cifratura ha luogo, sostituendo ogni lettera del testo chiaro con quella della colonna verticale, nel punto d’intersezione delle colonne comincianti rispettivamente con la lettera da cifrare e con la corrispondente lettera della chiave, o viceversa. Pertanto risulta:

  • V si codifica usando A
  • I si codifica usando P
  • G si codifica usando E
  • E si codifica usando A
  • N si codifica usando P
  • E si codifica usando E
  • R si codifica usando A
  • E si codifica usando P

 

Ne  segue che:

  • l’intersezione tra V ed A è V;
  • l’intersezione tra I e P è X;
  • l’intersezione tra G ed E è K;
  • l’intersezione tra E ed A è E;
  • l’intersezione tra N e P è C;
  • l’intersezione tra E ed E è I;
  • l’intersezione tra R ed A è R;
  • l’intersezione tra E ed P è T.

 

Dunque:

VIGENERE®           VXKECIRT

 

 

 

 

 

 

 

Possono pure compilarsi tabelle per cifratura polialfabetica aventi per alfabeto base un alfabeto invertito, che sia cioè una permutazione dell’alfabeto ordinario.

Sono stati ideati anche sistemi a rappresentazione numerica, nei quali gli alfabeti cifrati sono costituiti da numeri, ma essi non differiscono in maniera sostanziale, agli effetti del segreto crittografico, da quelli letterali.

Altro esempio di codice polialfabetico è rappresentato dal cosiddetto “codice dello spillo”, basato esclusivamente sulle prime facciate di un giornale. Questo tipo di codice si rivelò molto efficace durante il periodo della guerra.

 

Esempio

Testo chiaro: Alea iacta est

Ogni volta che troviamo una lettera del testo chiaro nella prima pagina del giornale dobbiamo apportare un buco con lo spillo su tale lettera. Ultimata questa operazione dobbiamo piegare il giornale, lasciarlo in un posto precedentemente convenuto con il destinatario che provvederà a raccogliere il giornale e a leggerlo.

 

I sistemi polialfabetici possono essere a chiave fissa, a chiave variabile, a interruzione della chiave e autocifranti. Nei sistemi a chiave variabile e in quelli a interruzione della chiave occorre stabilire per convinzione il modo in cui si deve segnalare al destinatario del messaggio il cambio o l’interruzione nell’uso della chiave. Nei sistemi autocifranti si adopera la chiave per le prime lettere del testo e si usa poi, come chiave, o lo stesso testo chiaro o il testo segreto ottenuto.

Può ricorrersi per la sostituzione polialfabetica all’uso di macchine cifranti, ciò che consente di eseguire rapidamente le operazioni di cifratura, pure adoperando chiavi diverse e di notevole lunghezza. La cifratura, per sostituzione può anche aver luogo per poligrammi, cioè per gruppi di un numero fisso di lettere, e per frazioni di lettere, cioè sostituendo le singole lettere del testo chiaro con gruppi di lettere o di cifre o di altri segni convenzionali, che si sottopongono poi a seconda cifratura. Potrebbe pure aver luogo per sillabe, ma i sistemi di questo tipo sono rarissimi e invero poco pratici. Le macchine cifranti moderne sono naturalmente i computer, ove tutto è veloce e dove la grande mole di lavoro non conta.

I sistemi a repertorio, che si ritengono ideati nel sec. XVII, sono di larghissimo uso nei tempi moderni, in quanto consentono maggior garanzia di sicurezza in confronto dei sistemi letterali e producono, d’altra parte, una notevole economia di spese telegrafiche. I repertori, altrimenti chiamati codici, vocabolari telegrafici, dizionari cifrati, ecc., sono libri o anche programmi di computer contenenti un certo numero di voci, a ciascuna delle quali corrisponde un gruppo cifrante, composto generalmente di quattro o cinque lettere dell’alfabeto o cifre arabe.

Subito dopo la seconda guerra mondiale si assistette al caso di Pearl Harbor, base militare aereo-navale statunitense dal 1887, attaccata il 7 dicembre 1941 dalle forze giapponesi dando così il via alle ostilità nippo-statuntensi: i messaggi, infatti, erano stati decrittati ed i crittoanalisti sapevano già dell’attacco.

Inoltre si capì che un messaggio, attraverso opportuni codici, poteva essere scritto come una sequenza di 0 e di 1, utilizzando il codice ASCII o qualsiasi sua variante. Del resto, se si pensa ad una codifica tipo Vigenère si può dimostrare che se la chiave ha la stessa lunghezza del testo e la sequenza k1, k2, …, kn è casuale (cioè prodotta dal meccanismo di testa e croce), allora il codice non si può rompere indipendentemente dalle operazioni fatte (Teorema di Turing). Per cui si cercò di cambiare sistema considerando sia il testo chiaro che la chiave come una sequenza di 0 e di 1. L’addizione è quella di Boole, cioè:

 

0 + 0 = 0, 1 + 1 = 0, 0 + 1 = 1, 1+ 0 = 1

 

 

  1. Il Sistema One-Time Pad.

 

Testo in chiaro

01100100011001 …

Chiave                                          

10100110011010 …

 

Infatti risulta:

01100100011001 …

 

10100110011010 …

 

11000010000011 …

poiché 0 (del testo in chiaro) + 1 (della chiave) = 1 (del testo cifrato), 1 + 0 = 1, 1 + 1 = 0, 0 + 0 = 0, e così via.

 

  1. Il Sistema Vernam.

 

Testo in chiaro

a1, a2, …, an

Chiave                                          

k1, k2, …, kn

 

I metodi sopra illustrati sicuramente sono tra i più sicuri ma non consentono di trasmettere chiavi in tempo reale; attualmente, quindi, non è ancora stata trovata una soluzione del problema ma sono state scoperte delle chiavi cosiddette pseudocasuali.

 

4.3. IL PROBLEMA STATISTICO

Una simpatica storiella crittografica mostra come, a volte, non bisogna fidarsi di piccole statistiche per generalizzare un problema.

 

 

Esempio

Un intruso, volendo carpire la parola d’ordine di un accampamento militare, si nasconde dietro un cespuglio, in prossimità dell’ingresso dell’accampamento, ed ascolta quanto segue:

 

la sentinella domanda: dodici?

il 1° soldato risponde: sei!                 e passa;

 

la sentinella domanda: dieci?

il 2° soldato risponde: cinque!           e passa;

 

la sentinella domanda: otto?

il 3° soldato risponde: quattro!          e passa;

 

la sentinella domanda: sei?

il 4° soldato risponde: tre!                 e passa;

 

la sentinella domanda: quattro?

l’intruso risponde: due!                      e così viene fulminato da un colpo di fucile!

Per passare senza alcun problema, infatti, l’intruso doveva pronunciare il numero delle lettere componenti il numero della domanda, quindi, nel caso specifico, sette invece di due!

Dunque, non bisogna mai accontentarsi di una piccola statistica ma occorrono numeri sufficientemente grandi per poter effettuare in modo corretto le statistiche.

 

La decrittazione dei crittogrammi é la traduzione di essi in linguaggio chiaro, eseguita da chi non sia a conoscenza dei cifrari e delle chiavi costituenti la base del segreto.

I metodi usati per decrittare i messaggi si basano su considerazioni statistiche, in particolare sulle caratteristiche di ciascuna lingua, cioè sul fatto che in ogni lingua le singole lettere, alcuni bigrammi e trigrammi e certe parole si ripetono più frequentemente di altre. Si chiama logoscopico il calcolo statistico delle parole, frasi e periodi che più frequentemente si riscontrano nel linguaggio. Il lavoro di decrittazione consiste in successive induzioni e deduzioni in merito al presumibile significato dei testi presi in esame e può essere agevolato da alcune circostanze favorevoli, quali il possesso di più testi cifrati relativi allo stesso testo chiaro, ma ottenuti con cifrari diversi, la conoscenza anche vaga del sistema di cifratura adottato, la conoscenza parziale o totale del testo chiaro corrispondente a qualche testo cifrato del quale si sia in possesso. Quindi cifrando un testo chiaro, se ad ogni lettera, o gruppo di lettere o parole si sostituisce un determinato segno, questo si ripeterà con la stessa frequenza del testo chiaro, cosicché alla lettera o alla cifra più frequentemente ripetuta nel testo cifrato, con ogni probabilità corrisponderà la lettera o la parola più frequente nel linguaggio chiaro, tenendo conto chiaramente del fatto che la frequenza cambia in base alla lingua utilizzata, ovvero è costante solo all’interno di precisi margini presi in considerazione.

Le basi linguistiche della decrittazione consistono nelle caratteristiche particolari di ciascuna lingua e cioè nelle sequenze percentuali delle lettere, dei bigrammi e trigrammi più comuni e di alcune parole, nelle sequenze percentuali delle lettere e di alcune parole tra di loro, nelle sequenze obbligate o molto probabili, in quelle escluse o assai poco probabili, nelle terminazioni più frequenti delle parole, ecc. I dati caratteristici delle principali lingue sono contenuti in varie opere di crittografìa.

Ad esempio nella lingua italiana il 45% delle lettere sono vocali e le sequenze con le quali si ripetono le varie lettere sono le seguenti:

 

A = 10, 41%               B = 0, 95%                 C = 4,28%

D = 3, 82%                 E = 12, 63%               F = 0, 75%

G = 2, 01%                 H = 1, 10%                 I = 11, 62%

L = 6, 61%                  M = 2, 58%                N = 6, 49%

O = 8, 71%                 P = 3, 26%                  Q = 0, 57%

R = 6, 70%                 S = 6, 04%                  T = 6, 06%

U = 3, 04%                 V = 1, 51%                 Z = 0, 93%

 

Se, quindi, volessimo scrivere in sequenza le lettere dell’alfabeto italiano in base alla frequenza decrescente, avremmo:

 

E = 12, 63%                T = 6, 06%                 G = 2, 01%

I = 11, 62%                 S = 6, 04%                  V = 1, 51%

A = 10, 41%               C = 4,28%                  H = 1, 10%

O = 8, 71%                 D = 3, 82%                 B = 0, 95%

R = 6, 70%                 P = 3, 26%                  Z = 0, 93%

L = 6, 61%                  U = 3, 04%                 F = 0, 75%

N = 6, 49%                 M = 2, 58%                Q = 0, 57%

 

Esempio

Nel seguente messaggio cifrato:

 

VSNHQ HPNFM HVHLA RQRQR VZUND LHQZN

 

si contano 5 H, 4 N, 4 Q, 3 R e 3 V alcune delle quali con ogni probabilità saranno vocali.  Perciò quasi sicuramente la H corrisponderà alla “E”. Risulta probabile, quindi, che, dato l’argomento in questione, la prima parola sarà “spie” e quindi V = S ed S = P. Perciò il crittogramma è stato ottenuto con un alfabeto spostato di tre posti. Un’accurata verifica ci darà il seguente testo chiaro: “Spie nemiche seguono nostri agenti”.

 

Bisogna però precisare che i metodi di decrittazione sopra riportati sono i più semplici da usare. Ove non si conosca o non si presuma a quale sistema crittografico appartiene il metodo di cifratura, si deve anzitutto eseguire questa indagine, la quale spesso non presenta grandi difficoltà, possedendo i sistemi più usuali delle caratteristiche particolari. Non è raro tuttavia, e ciò avviene generalmente per i sistemi misti, che nel testo non si rilevino sufficienti indizi per la determinazione del sistema di cifratura; in questi casi il lavoro di crittoanalisi è, naturalmente, più difficile e può anche non portare, in mancanza di circostanze favorevoli, a un pratico risultato.

La decrittazione dei sistemi letterali a trasposizione si tenta mediante successive disposizioni e spostamenti delle lettere del testo cifrato, sino a quando non si riscontra qualche combinazione di lettere, parte di parola o parola, che valga a mettere sulla buona via.

Per i sistemi letterali a costituzione monoalfabetica la decrittazione consiste nella ricostruzione dell’alfabeto cifrante.

Sia dato ad esempio il seguente crittogramma, che si presume riferirsi a un testo chiaro scritto in lingua italiana:

 

KSAJOHTQSVTKHXHJKTQPZJHQMTZFJATXS

ZQTJNNZTXJDTKHSXHFTPHMHEYSNZTDTE

TKKTETQEHKHJOHTQSILAASZHDTETQMSZS

QOJNJQJFSZHEJQJ

 

Il calcolo delle frequenze letterali dà il seguente risultato: 17 T; 13 H; 12 J; 10 Q; 10 S; 8 Z; 7 K; 6 E; 4 A; 4 N; 4 X; 3 D; 3 F; 3 M; 3 O; 2 P; 1 I; 1 L; 1 V; 1 Y.

Il confronto delle suddette frequenze con quelle medie della lingua italiana (e = 12, 6%; i = 11,6%; a = 10, 3%; o = 8, 7% ecc.) fa presumere che quattro delle lettere T, H, J, Q, S rappresentino le 4 vocali a, e, i, o; nel testo si riscontrano i bigrammi HT, HJ, HS, dei quali i primi due ricorrono due volte ciascuno, e poiché i dittonghi più frequenti in italiano sono io, ia, ie, può ritenersi H = i. I trigrammi HTQ e JQJ, che ricorrono due volte l’uno, e JHQ inducono a presumere, in considerazione della scarsa frequenza dei dittonghi, che Q rappresenti una consonante e, dato ciò, può presumersi T = o e Q = N. Il gruppo HTQS (ione) che ricorre due volte, fa ritenere S = e e conseguentemente J = a, dopo di che la posizione e la frequenza della Z fanno presumere Z = R. A questo punto il crittogramma presenta l’aspetto seguente:

 

K  S   A  J   O  H  T   Q  S   V  T   K  H  X  H  J   K  T   Q  P   Z  J   H  Q  M T  Z  F   J   A  T   X  S

     e        a        i   o   n   e        o        i        i   a        o   n       r    a   i   n       o   r        a        o        e

 

Z  Q  T   J   N  N  Z  T   X  J   D  T   K  H  S   X  H  F   T   P   H  M H  E  Y  S  N  Z  T   D  T   E

r    n   o   a            r    o        a        o        i   e        i        o        i        i            e        r    o        o

 

T   K  K  T   E  T  Q  E  H  K  H  J   O  H  T   Q  S   I   L  A  A  S   Z  H  D  T  E  T   Q  M S   Z  S

o            o        o   n        i        i   a        i   o   n   e                      e   r    i        o       o   n        e   r    e

 

Q  O  J   N  J   Q  J   F   S   Z  H  E  J   Q  J

n        a        a   n   a        e   r    i        a   n   a

 

Riesce ora facile completare il lavoro di decrittazione, dal quale il testo chiaro e l’alfabeto convenzionale risultano ricostituiti così:

 

Testo chiaro: “Legazione Bolivia Londra informa Governo approvato lievi modifiche protocollo conciliazione suggerito conferenza panamericana”.

Alfabeto chiaro: A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Alfabeto cifrante: JVEPSMAYH  KFQT N  ZIDLX  O

 

La decrittazione dei sistemi letterali a sostituzione polialfabetica si fonda sui seguenti principi, rilevati dal Kasiski e dal Kerckhoffs:

  1. in qualunque testo cifrato due poligrammi simili sono, salvo casi eccezionali, il prodotto di due gruppi di lettere uguali cifrati con alfabeti uguali;
  2. il numero delle cifre compreso nell’intervallo dei due poligrammi simili è un multiplo del numero di lettere della chiave.

 

Determinata la lunghezza della chiave, ciò che equivale a determinare il numero degli alfabeti cifranti, si divide il testo in gruppi di lunghezza pari a quella della chiave e si calcolano le frequenze delle lettere che occupano nei gruppi lo stesso posto; confrontando le frequenza suddette con quelle medie della lingua è possibile quasi sempre intuire il significato delle lettere più frequenti e formare in tal modo, in successivi tentativi, gruppi di lettere, parti di parole e parole, tenendo conto del presumibile contenuto del messaggio.

Se gli alfabeti convenzionali sono disposi normalmente (tabella del Vigenère e simili) la conoscenza del significato di una lettera in un alfabeto ha per conseguenza quella del valore di tutte le altre lettere nello stesso alfabeto. Ciò non si verifica per i sistemi ad alfabeti intervertiti, nei quali però, se l’interversione è regolare, si ha l’equidistanza relativa delle varie lettere in tutti gli alfabeti e, conseguentemente, si deduce dal significato di una lettera in più alfabeti cifranti il valore che hanno in tutti questi alfabeti le lettere di cui si conosca il significato soltanto per uno di essi.

Per i sistemi a rappresentazione numerica, tanto monoalfabetici quanto polialfabetici, i metodi di decrittazione non sono diversi da quelli innanzi indicati per le rispettive categorie di sistemi a rappresentazione letterale.

La decrittazione dei sistemi a repertorio si tenta in base al confronto della frequenza dei gruppi cifranti con quella delle parole di uso più frequente nella lingua e cioè delle cosiddette parole vuote più importanti (articoli, verbi ausiliari, preposizioni, congiunzioni). La posizione di questi gruppi nel testo, il presumibile contenuto del messaggio, ed eventualmente la conoscenza, parziale o totale, di qualche testo chiaro corrispondente a un testo cifrato di cui si disponga, danno modo di intuire il significato di altri gruppi e di procedere nel lavoro di decrittazione.

La decrittazione dei repertori ordinati e non sopracifrati è in linea di massima possibile, ove si disponga di testi aventi complessivamente una lunghezza opportuna, dato che la conoscenza o presunzione del significato di alcuni gruppi cifranti costituisce una guida di grande importanza.

Circostanza particolarmente favorevole è l’esistenza di serie di gruppi che facciano pensare ad una parola, generalmente nome proprio, cifrata mediante cifratura delle lettere o delle sillabe. Per esempio, se in un testo ottenuto con un repertorio di 10000 voci che si ritenga in lingua italiana e in ordine normale, si riscontra una serie di gruppi come la seguente, si deve presumere che essa rappresenti un nome proprio e che i singoli gruppi corrispondano ad una vocale o ad una consonante secondo queste indicazioni:

 

  3733              3409                 7462                7462              0002                 7462            4517

conson            vocale              conson            conson             vocale             conson          vocale

 

Il gruppo 0002 è senza dubbio uguale ad a; i gruppi 3409 e 4517, data la distanza dall’inizio del cifrario e la loro distanza rispettiva equivalgono presumibilmente ad e ed i; la consonante rappresentata da 3733 è molto probabilmente f. Il gruppo 7462 sarà presumibilmente corrispondente a p, r, s, ma, poiché delle tre ipotesi “Feppapi”, “Ferrari”, “Fessasi” la seconda è evidentemente la più probabile, può concludersi ritenendo 7462 = r. In tal modo si pongono dei punti di riferimento abbastanza attendibili per la ricostruzione del cifrario ed è agevole proseguire il lavoro di decrittazione, deducendo anzitutto, in base al calcolo delle frequenze, il significato delle parole vuote più importanti.

Per i repertori paginati e sempre non sopracifrati si procede in maniera analoga, tenendo conto non soltanto delle frequenze dei singoli gruppi cifranti, ma anche di quelle complessive dei gruppi contenuti in ogni pagina.

Molto più difficile è la decrittazione dei repertori intervertiti e non sopracifrati per la mancanza di qualsiasi ordine nella disposizione dei gruppi cifranti corrispondenti alle voci chiare; il lavoro, generalmente, può avere pratico risultato soltanto ove ricorra qualche circostanza favorevole o soccorra un’intuizione particolarmente felice, e comunque disponendo di un adeguato numero di messaggi cifrati.

Il problema della decrittazione dei sistemi a codice (intervertito o non) sopracifrato è di estrema complessità ed è anche piuttosto lungo descrivere casi particolari per farsi un’idea.  Comunque, va detto che un tale problema è di fatto teoricamente impossibile se non vi sono sovrapposizioni nell’impiego del verme di sopracifratura. Se sovrapposizioni vi sono, si riesce ad eliminare la complicazione dovuta al verme lavorando sulle “differenze” fra i gruppi costituenti la differenza prima dei messaggi. Il “procedimento” usato è piuttosto complesso ed è praticamente impossibile descriverlo in questo lavoro.

Il problema è molto più complicato che nei codici di Cesare o comunque monoalfabetici. Si pensi che il codice di Vigenère è stato usato da vari eserciti resistendo ai vari “attacchi” che i crittoanalisti gli hanno dato per ben tre secoli. Nel 1863 un ufficiale prussiano, Kasiski, forza il codice di Vigenère con un metodo noto come test di Kasiski. Il test di Kasiski è basato sui seguenti punti:

Il messaggio è, sufficientemente lungo.

Il primo passo è, “trovare la lunghezza della parola chiave”.

Il secondo passo è “trovare le lettere della parola chiave”.

Circa il primo passo iniziamo con il ricercare nel messaggio cifrato tutte le sequenze (cioè i gruppi) di tre o più lettere consecutive che si ripetono. E’ molto probabile che a sequenze uguali del cifrato corrispondano sequenze uguali del testo in chiaro. In ogni caso è questa una ipotesi di lavoro compatibile con la lunghezza del messaggio. Se così è vuol dire che le prime lettere di sequenze eguali sono state criptate con lo stesso alfabeto della tavola di Vigenère, analogamente le seconde, le terze, …. Da ciò segue che alle prime lettere delle sequenze uguali corrisponde la stessa lettera della parola chiave, analogamente alle seconde lettere e così via.  Ma allora la distanza (= numero delle lettere) tra due sequenze uguali è un multiplo della lunghezza della parola chiave.

Quanto è lunga la parola chiave? Molto probabilmente la sua lunghezza è pari al M.C.D. delle distanze tra le sequenze uguali tra loro, che si ripetono.

Chiaramente una distanza “strana” tra due sequenze uguali, nel senso che non ha divisori comuni con le altre distanze, deve essere scartata; questo è il motivo per cui abbiamo detto “molto probabilmente la sua lunghezza …” Ciò accade quando due sequenze uguali non corrispondono a due sequenze uguali del testo in chiaro.

Trovata la lunghezza d della parola chiave cerchiamo le lettere che la compongono. Notiamo che, nel testo cifrato, alla prima lettera, alla (d + 1)-ma lettera, alla (2d +1)-ma lettera, … corrisponde la stessa lettera della parola chiave e quindi tutte queste lettere sono state criptate con uno stesso codice di Cesare (cioè con una stessa riga del quadrato di Vigenère). Segue, ripetendo il ragionamento, che la seconda, la (d + 2)-ma, la (2d + 2)-ma riga sono anche loro crittografate usando uno stesso codice di Cesare. In definitiva ciascuna delle righe seguenti sono crittografate con una stessa lettera della parola chiave:

 

íI, (d + 1)-ma, (2d + 1)-ma, …ý

íII, (d + 2)-ma, (2d + 2)-ma, …ý

íIII, (d + 3)-ma, (2d + 3)-ma, …ý

…………………………………..

…………………………………..

íd-ma, 2d-ma, 3d-ma, …ý

 

Le lettere di ognuno di questi insiemi sono state criptate con lo stesso codice di Cesare. Allora studiamo la frequenza delle lettere in ognuno di essi, con lo stesso metodo usato nei codici di Cesare. Scoperta una lettera, è noto il codice di Cesare usato, e quindi anche il nome dell’alfabeto (cioè, la lettera che compare in testa), che ci dà la lettera della parola chiave.  Allora il codice di Vigenère è forzato e quindi perde il suo interesse.

E proprio dall’idea di Vigenère nacque un codice completamente sicuro, precisamente il codice di Vernam (1926), sopra analizzato.

 

CAPITOLO 6

 

INTELLIGENZA ARTIFICIALE

 

 

6.1. INTRODUZIONE AL PROBLEMA DELL’INTELLIGENZA ARTIFICIALE

Costruire macchine che possano simulare i comportamenti umani o sistemi formali che possano rappresentare il funzionamento della mente è un obiettivo che l’uomo cerca di raggiungere. Discretizzare ed algoritmicizzare la mente umana, piuttosto che meccanizzarla, è stata sempre una  meta dell’età moderna, infatti molto sono gli studi che è possibile riportare a giustificazione di tale affermazione: basti pensare ai Teatri della Memoria di Robert Fludd, all’Ars Magna di Raimondo Lullo passando per la Macchina Analitica di Babbage, fino a giungere ai giorni nostri.

Benché sia stato scritto e progettato tanto oggi siamo ancora lontani da quelli che possono essere risultati apprezzabili:del resto malapena si riescono a costruire invertebrati artificiali dotati di una qualche minima intelligenza. Eppure il dibattito oggi aperto sull’intelligenza artificiale coinvolge migliaia di studiosi in tutto il mondo in quanto tale disciplina ha sempre affascinato e continuerà ad affascinare quelle che è lo stesso intelletto umano, cercando di esorcizzare nello stesso tempo quelle che sono le più profonde ambizioni umane: quelle di creare vita artificiale intelligente.

Quando si parla di nuove tecnologie o di informatica, una delle terminologie che più affascina l’immaginario collettivo è esattamente Intelligenza Artificiale, infatti tale dizione sembra nata quasi come un prodotto del marketing moderno, una sigla o uno slogan pubblicitario il cui compito è quello di affascinare, eppure se oggi andiamo a considerare quali oggi siano i reali risultati di questa disciplina, molto probabilmente il termine adatto non sarebbe intelligenza artificiale, ma più correttamente intelligenza artigianale:,non possiamo dire che oggi i software e gli hardware realizzati possano propriamente definirsi intelligenti.

Sicuramente una delle definizioni che meglio rappresenta lo spirito dell’Intelligenza artificiale è sicuramente quella attribuita da Turing a questa disciplina: Intelligenza delle Macchine, perché in realtà sarebbe più corretto parlare di una sorta di intelligenza delle macchine e non propriamente artificiale. Benché questa definizione si possa reputare più corretta ed attinente a quello che la tecnologia informatica oggi propone, il termine intelligenza artificiale rimane però quello utilizzato da tutti, sia informatici, ingegneri che psicologi o filosofi a causa della grande curiosità ed attenzione che tale terminologia fa scaturire nei confronti dell’interlocutore.

Riuscire a dare una definizione di Intelligenza Artificiale (IA) è un’operazione assai difficile, del resto ancora oggi molti studiosi si chiedono cosa significhi esattamente pensare o come definire l’intelligenza umana: immaginiamoci quindi come è possibile riuscire a determinare cosa vuol dire intelligenza artificiale, se ancora non comprendiamo.

Un modo per poter cogliere meglio l’IA potrebbe essere quella di analizzare i suoi campi di applicazione, cercare di capire “cosa fa”, ma anche qui potremmo dilungarci in un elenco di attività che confonderebbero solamente le idee.

Prima di dare una vera e propria definizione molti studiosi preferiscono suddividere l’IA in due branche principali.

La prima, denominata intelligenza artificiale debole sostiene che una macchina computer non potrà mai, alcuna maniera poter essere equivalente ad alla mente umana, in quanto quest’ultima è troppo complicata da poter essere riprodotta. In pratica le macchine potranno solamente simulare alcuni comportamenti propri della mente umana, ma non riusciranno mai a riprodurli in modo totale e completo.

Ovviamente questa prima branca, in qualche maniera identifica una sorta di limitazione applicata alle macchine, in quanto, per quanto queste possano evolversi nel tempo, non potranno mai raggiungere l’uomo. Del resto questo approccio ritenuto pessimistico è sostenuto da tutti quegli studiosi che lavorano a stretto contatto con la mente umana; parliamo quindi di filosofi, psicologi.

La secondo branca è denominata intelligenza artificiale forte e  ha un approccio del tutto diverso, infatti questa sostiene le macchine in una loro forma evoluta, possono davvero essere dotate di una reale intelligenza, distinguibile con molta difficoltà da quella umana.

Ovviamente in questo testo ci soffermeremo principalmente sulle teorie che vengono inquadrate all’interno dell’intelligenza artificiale forte. Del resto ne secoli precedenti, molti studiosi hanno affrontato il problema di automatizzare, o meglio meccanizzare la mente umana, solo per citarne alcuni Raimondo Lullo nel pieno medioevo o l’empirista T. Hobbes.

Le definizioni che ora cercheremo di attribuire all’IA, appartengono a questa seconda branca, ma il loro obiettivo non è quello essere esaustive, ma solamente di cercare di rendere al meglio cosa si intende per Intelligenza Artificiale.

Se riuscissimo a definire percezione, ragionamento ed azione in termini di calcoli, una possibile definizione potrebbe essere:

 

“L’intelligenza artificiale è lo studio dei calcoli che rendono possibile la percezione , il ragionamento e l’azione” [aiello]

 

Tale definizione si avvicina molto al pensiero dei razionalisti nel XVIII secolo, infatti le loro idee avevano come principio di fondo il seguente motto: “ragionare non è nient’altro che calcolare”, in pratica la mente umana potrebbe in qualche maniera essere il risultato di una complessa serie di calcoli da parte del cervello umano.

Un’altra definizione interessante, forse più vicina allo studio dell’uomo che non della macchina, è:

 

“L’Intelligenza Artificiale studia facoltà umane mediante l’uso di modelli computazioni” [aiello]

 

Agli inizi degli anni ’90, nel momento in cui l’IA veniva inquadrata sempre più come una vera e propria scienza che potesse cambiare il futuro, avvicinando sempre di più macchine e uomini, furono date tre definizioni di intelligenza, da tre importanti studiosi del settore:

 

“L’arte di creare macchine che svolgono funzioni che richiedono intelligenza quando svolte da esseri umani” [The Age of Intellingent Machines, Ray Kurzweil 1990]

 

“Il ramo della scienza dei calcolatori che si occupa dell’automazione del comportamento intelligente” [Luger-Stubblefield 1993]

 

“L’impresa di costruire artifatti intelligenti” [Ginsberg 1993]

 

Sicuramente più interessate e vicina al concetto di Intelligenza Artificiale così come la intendiamo noi, possiamo considerare la seguente definizione:

 

L’intelligenza Artificiale è lo studio di come far fare ai calcolatori cose che, se eseguite da un essere umano, sarebbero considerate compiti che richiedono intelligenza [aiello]

 

Questa frase affermazione sembra rivivere molto dello spirito di cui Turing si fece carico oltre 50 anni fa, con il suo famoso Test di Turing.

È comunque importante capire che oggi è assai difficile definire l’Intelligenza Artificiale, soprattutto perché la stessa definizione è in continua evoluzione così come lo è la stessa disciplina

 

?????

Nel corso degli ultimi decenni la tecnologia dei computer elettronici ha compiuto enormi passi avanti. I computer sono oggi in grado di svolgere numerosi compiti che sono stati in passato una prerogativa esclusiva del pensiero umano, con una velocità e precisione che supera molto i risultati di un essere umano. Queste conquiste non turbano per nulla il nostro orgoglio, ma saper pensare è sempre stata una prerogativa umana. Un’area che ha assunto enorme interesse in anni recenti, è quella che della cosiddetta Intelligenza Artificiale, spesso abbreviata semplicemente in IA. Gli obiettivi della IA sono di imitare attraverso strumenti elettronici, quanto più possibile l’attività mentale umana, e forse di andare, per certi versi, oltre la capacità umana.

La IA potrebbe avere, sotto certi aspetti, una pertinenza diretta con la psicologia; si spera che cercando di imitare il comportamento di un cervello umano per mezzo di un dispositivo elettronico, o non riuscendo a farlo, si possa apprendere qualcosa d’importante sul funzionamento del cervello stesso. Facciamo un esempio: i computer giocatori di scacchi simulano un comportamento che potrebbe essere considerato un “intelligente”. Tali computer fanno molto affidamento sulla “conoscenza teorica” oltre che su un’accurata capacità di calcolo. Va notato che i computer, giocatori di scacchi, si comportano meglio dei giocatori umani, quando si richiede che le mosse siano eseguite rapidamente; i giocatori umani ottengono risultati relativamente migliori rispetto alle macchine quando si concede una buona durata di tempo per ogni mossa. Si può comprendere meglio questa situazione se si considera che il computer prende le sue decisioni in conformità a calcoli estesi precisi e rapidi, mentre il giocatore umano si basa su “giudizi fondati su valutazioni coscienti relativamente lente”.

L’utilizzo cattivo del modello matematico, consiste nel creare Macchine che si prefiggono di sostituire l’uomo attraverso un progressivo processo di livellamento, ma la Macchina deve essere un prezioso assistente (e peggio per chi non ne dispone) e mai un pericoloso antagonista.

Ad esempio ogni volta che il calcolo numerico tende a complicarsi, il modo migliore per l’esecuzione è l’affidarsi ad un computer.

Rileggendo l’attività descritta nel paragrafo precedente, dedicata all’arte della memoria che, Robert Fludd chiama arte quadra, con l’occhio di chi ha assimilato la struttura interna, l’architettura, le memorie e i programmi con tutta l’archiviazione vi è da essere esterrefatti. L’intera struttura informatica sembra una trasposizione in chiave moderna dell’intero progetto fluddiano. Questo evidenzia l’importanza enorme dell’opera di Fludd che con il suo Teatro chiarisce quali sono i palcoscenici costruibili dalla mente umana ma non presenti nelle attuali architettura del Computer. Sembra allo stato attuale che il Computer non sia in grado di occuparsi dell’arte tonda, nella quale prevale l’emozionale e l’intuitivo.

Orwell nel suo romanzo 1984, scritto nel 1948 quando il 1984 sembrava un futuro lontano, immagina queste future autorità d’Oceania, una nazione che occupa un terzo del mondo, che s’incarnano in un’immagine umana: il Grande Fratello. L’immagine del Grande Fratello, pur non esistendo – ovvero esistendo virtualmente – è, in quel mondo, in ogni luogo. Sovrasta la vita pubblica e privata di ognuno. Entra in ogni abitazione attraverso uno schermo, prototipo letterario di una televisione, che nel 1948 non esisteva, ma operante nei due sensi, trasmettitore e strumento di controllo visivo dell’individuo. Ogni pensiero, ogni parola sono controllati da vari ministeri, specie da quelli dell’Amore e della Verità; essi sono preposti in quella realtà romanzesca all’imbonimento ideologico e morale dei cittadini, per renderli completamente succubi del sistema, pronti a tradire qualsiasi sentimento d’affetto e d’amore anche verso i propri famigliari per servire lo Stato. Appare in Orwell un pessimismo totale, una previsione di un possibile totalitarismo futuro, basato sulla Tecnologia, assunta come strumento di potere e di controllo. Queste previsioni nascono naturalmente in un particolare momento storico e le visioni del futuro riflettono le preoccupazioni del tempo in cui sono state scritte. Riletto nell’ottica di questi paragrafi si coglie una paura di un controllo occulto, non dedito al bene del mondo, ma forse ad un’inconscia lotta – ignaro il buon Orwell – contro l’arte tonda di Fludd. Al contrario del pessimismo di Orwell, nella storia del mondo l’arte tonda sembra sempre prevalere. Così al controllo totale del Grande Fratello da lui ipotizzato, si oppone nella realtà l’apertura totale di una rete come Internet, rete che non ha un capo, che si estende in tutte le possibili direzioni in cui si sviluppa e nella sua totale democraticità è tuttavia ancora pericolosa, realizzando un modello di totale anarchia.

Anche dell’immagine del Grande Fratello, di orwelliana memoria, si sono impadroniti i Media, ma riducendolo a spettacolo, strumentalizzazione si, ma in direzioni ben diverse da quelle che Orwell aveva concepito. Sembrerebbe quasi impossibile allora, da queste considerazioni, la sostituzione totale della macchina all’uomo.

Per tornare all’IA si tende a pensare che tutte le qualità mentali dell’uomo: pensiero, sentimento, intelligenza e conoscenza devono essere considerate come semplici aspetti di una complessità di funzionamento; sarebbero, in altri termini, caratteri dell’algoritmo eseguito dal cervello. Se esistesse un algoritmo di questo genere, i sostenitori dell’IA sono convinti che lo si potrebbe far girare in un computer. Esso potrebbe, in effetti, essere usato in qualsiasi moderno elaboratore, se non fosse per limitazioni di memoria e di rapidità di operazione. Si prevede che tali limitazioni saranno superate dai grandi computer veloci di un futuro non troppo lontano. I fautori dell’IA affermerebbero che, dovunque l’algoritmo fosse fatto girare, esso sperimenterebbe sentimenti, avrebbe una coscienza, sarebbe una mente. Il nostro modello di mente umana presuppone l’esistenza di due forme di pensiero fondamentali: quello logico e quello analogico; la comprensione e la consapevolezza dell’esistenza di queste due forme di pensiero rappresentano la base per ogni successivo ragionamento sui processi decisionali dell’uomo.

Per pensiero logico, deduttivo e matematico, s’intende tutta quella attività mentale umana che, con un po’ di semplificazione, potremmo dire essere gestita dall’emisfero sinistro del cervello. Infatti, mentre l’emisfero destro sovrintende all’immaginazione e alla creatività e all’arte tonda in generale, l’emisfero sinistro è quello che sovrintende alla razionalità, alle attività logiche e di programmazione, in sostanza all’arte quadra. Per pensiero analogico s’intende tutta quella attività umana, che da un punto di vista funzionale dà luogo a capacità associative e geometriche. Ma dove entri in ciò la tensione verso il sacrale e le differenze tra arte quadra e tonda, nel senso di Fludd, è ancora tutto da scoprire. Se è pensabile che l’arte quadra di Fludd e dei suoi predecessori sia inquadrabile solo in macchine logiche, nulla a nostro avviso può ancora essere detto sull’arte tonda, così vicina all’arte regia. L’uomo può essere aiutato solo nella zona logica, nel suo immaginario razionale. Possiamo affermare che una Macchina Intelligente può permettersi di essere perfetta, senza essere costretta nei vincoli strutturali del cervello umano. Cosi l’evoluzione celebrale dell’uomo, sia in termini individuali sia sociali e in continuo movimento e tale sviluppo è ottenuto mediante due soli fattori fondamentali: l’esperienza personale diretta e l’esperienza indiretta sintetizzata nella tecnologia. Molte individui si rifiutano spesso di avvicinarsi ad una macchina percependola aliena nei confronti del loro modo di ragionare. Viceversa l’aspetto pratico delle nuove generazioni di computer è molto interessante, ed anche negli aspetti multimediali vicino ai dettami dell’Arte classica degli Edifici della Memoria. In più virtuali corridoi che permettono il salto da una stanza all’altra dell’edificio, operazione impossibile su una struttura muraria, ma sempre pensata nella nostra mente! Si spera che l’interesse, suscitato da questi fenomeni straordinari, possa indirizzare una futura ricerca di molti studiosi intorno a questi problemi e che, la natura e il significato della memoria occultista del Rinascimento, diventino in futuro più chiari e quindi maggiormente applicabili.

 

6.2. IL CONCETTO DI ESSERE VIVENTE

Il filosofo greco Platone (IV a.C.) riteneva che il nostro mondo si ripete seguendo dei cicli planetari collegati al movimento del Sole e della Luna e dei pianeti  e ancora che ogni ciclo iniziasse e si concludesse con tutti i pianeti che tornavano ad assumere la medesima posizione nel cielo. Questo intervallo fu calcolato in ragione di 36.000 anni, periodo che fu chiamato “Magnus annus”. Questa credenza molto in voga anche presso i Romani fu anche condivisa dalla filosofia induista che identificò i cicli di sviluppo con i cicli vitali del loro dio Brama. In moltissime culture vi è un momento di creazione dal nulla, operato da un Creatore, il dio dei Cristiani, ovvero il Grande Architetto dell’Universo per i Massoni, o nel Dio di una delle tante religioni monoteiste come quelle di cattolici, anglicani, mussulmani, ebrei, induisti, a parte il dissenso di dettaglio tra le varie liturgie.  Ne segue    un successivo momento ordinatore, come nel caso di molte delle religioni indicate per via delle quali  queste  visione dei miti delle origini sono estremamente utili per spiegare al popolo l’origine del mondo e porre ordini ponendo dei divieti. Eva ed Adamo sono cacciati dal paradiso perché hanno disobbedito e la loro esistenza degrada, per colpa di questo peccato originale, in una vita terrestre.

Ben diversa fu la visione di Aristotile (IV a.C.) che riteneva l’universo eterno e il tempo infinito, credenza questa che sopravvisse fino al tempo di Einstein e viaggiò parallelamente con le altre credenze di creazione dal nulla e del ripetersi di stati evolutivi di società organizzate secondo cicli.      

Oggi il mito al quale si fa riferimento è un modello fisico : il modello del cosiddetto Big Bang, mito che non sembra discorsi di molto dal mito del momento creativo, ma solo nel credere in un Creatore o principio creatore. La differenza è che questo modello è rimesso in discussione ad ogni nuova acquisizione sulla natura delle leggi della fisica e della struttura dell’Universo. L’Universo così sconosciuto da essere quasi totalmente costituito dalla cosiddetta “materia oscura”, eufemismo per dire che conosciamo solo il 10% dei costituenti dell’Universo. Cosa si guadagna con la Scienza, si guadagna un punto di vista  non dogmatico, un atteggiamento di attenzione verso le eventuali rivoluzioni scientifiche, verso i cambiamenti in quanto la scienza, al contrario di un mito, è disciplina mutabile.

Una seconda differenza tra la credenza in un Creatore ordinatore ed una visione scientifica è che la Scienza  moderna crede  in un modello evoluzionistico, modello che  affonda le sue radici nella Teoria che Charles Darwin elaborò nel suo mitico viaggio in Patagonia,  a contatto con tutte le diverse specie di quel mondo, dalle quale ebbe dono e ispirazione di quella forza creatrice dalla quale originò quel pensiero, quel guizzo d’intuito, che per molti segna un confine epocale e certamente un grande salto epistemologico.  Forse nel non tenere rigidamente separate la religione dalla ricerca scientifica si originano malintesi e false credenze e speranze. Il rifiuto della Teoria di Darwin e delle successive specifiche e modificazioni, se si vuole del paradigma darwiniano,  in nome di una intelligenza creatrice è un vero e proprio attacco al metodo scientifico. E’ un ingenerare una confusione tra credenza e teoria  che porta ad un erronea posizione di come organizzare il pensiero e di come interpretare i saperi per meglio comprendere il mondo e di come cambiarlo verso direzioni stabili di miglioramento.  Alla religione compete indubbiamente fornire una guida spirituale al credente fornendogli dei modelli comportamentali ed etici, quindi essenzialmente prescrittivi, la religione deve funzionare da ancora di salvezza. I liberi pensatori tra i quali trovano posto i non credenti o i non seguaci di un credo rivelato, cioè di una religione,  troveranno in se stessi le prescrizioni etiche e comportamentali e rinunceranno ad una visione salvifica correlata ad un credo. La Scienza ha un diverso compito, certamente descrittivo, e si preoccupa di fornirci modelli validi del mondo. Allo stato attuale il modello evoluzionistico della selezione naturale ci presenta la natura come una struttura che conduce all’estinzione di quelle speci che non hanno la forza di sopravivere e  che comunque indicano che, in tempi ragionevoli, ad una specie dominante se ne sostituisca sempre un’altra. Le scienze descrivono il mondo in modo amorale ma non immorale. Occorre riflettere sulle problematiche numerose come quelle relative al controllo delle nascite, alla fecondazione assistita, alla  donazione degli organi, alla produzione di cellule staminali,  alla  creazione di organismi geneticamente modificati (Ogm) e alla clonazione .  Ad esempio è molto discutibile che debba essere un gruppo religioso o un gruppo politico a dover dire l’ultima parola, ovvero a decidere per i più. Infatti  non è affatto detto che uno di questi gruppi sia per competenze sia  per assenza di secondi fini il più idoneo a  potersi definire garante degli interessi dell’intera comunità e della finalità della razza umana. La scelta lasciata ai singoli potrebbe essere, in una specie di ordine nel caos, se si vuole per un innato collettivo senso di conservazione, la scelta migliore per la sopravvivenza della specie umana.  

Per meglio comprendere di cosa si parli diamo un brevissimo flash su queste problematiche.

 

 

Controllo delle nascite.

Sono vari i motivi per cui l’umanità ha praticato e pratica il controllo delle nascite. Che il numero degli esseri umani sia in continua crescita non è un’opinione. Inoltre anche il diffondersi di nuove malattie sessuali, anche sospetti prodotti per guerre battereologiche,  come ad esempio l’AIDS,  hanno riportato alla ribalta l’uso del preservativo come mezzo di sicurezza e come contraccettivo. Per contraccezione si intende un meccanismo che impedisca  il concepimento, cioè l’unione tra uno spermatozoo e un’ovocita. Esempi di contraccettivi sono appunto  il preservativo e la pillola anticoncezionale. Il primo è un metodo di barriera perché impedisce agli spermatozoi di risalire nel corpo della donna; la seconda è un metodo ormonale che impedisce all’ovaio di espellere un’ovocita: gli spermatozoi che penetrano all’interno del corpo della donna non incontreranno nessun ovocita, per cui non ci potrà essere il concepimento. Il controllo delle nascite, oggi, sembra essere estremamente importante e molto in uso in tutti i gruppi sociali più evoluti. La contraccezione è condannata da numerosi gruppi religiosi ivi compresa la  Chiesa Cattolica.

Moralmente discutibile ad ogni livello è l’aborto. Per aborto si intende l’interruzione di una gravidanza mediante espulsione del feto prematuro. L’aborto può essere spontaneo ovvero  praticato con un intervento chirurgico anche legale come l’aborto terapeutico, oppure praticato per via  farmacologica, come nel caso della cosiddetta pillola del giorno, il farmaco è l’ RU486 che fa espellere l’embrione di pochi giorni producendo delle alterazioni  della parete interna dell’utero, che diventa così “inospitale”. Pur producendo l’ RU486 lo stesso tipo di alterazioni prodotte dalla più che accettata spirale (IUD), che causa uno stato infiammatorio cronico dell’utero, il dibattito su questo farmaco messo all’indice da molti gruppi sociali è notevole.

Uno dei problemi focali, per chi non accetta l’aborto,  è il sapere se l’embrione sia già, oppure no, vita umana. Allo stato attuale delle conoscenze sappiamo che dal momento della fecondazione dell’ovulo sino alla nascita, lo sviluppo è uno stato evolutivo continuo per cui non sembra potersi individuare un momento speciale che segni un passaggio da un “grumo cellulare” alla vita umana. In altre parole con la formazione dell’embrione parte un programma unico e irrepetibile che ha uno svolgimento continuo.

 

Fecondazione artificiale

La  fecondazione artificiale (umana) o anche procreazione assistita avviene attraverso opportune tecniche,  molteplici allo stato attuale delle conoscenze. La  più diffusa  è la fecondazione in provetta e successivo trasferimento dell’embrione fecondato nell’utero di una donna, anche diversa dalla produttrice dell’ovulo fecondato, nel qual caso si parla di utero in prestito. La fecondazione  in vitro si  dice   fecondazione omologa se il seme e l’ovulo utilizzati nella provetta appartengono alla coppia di genitori del nascituro, il quale  presenterà quindi un patrimonio genetico ereditato da entrambi i genitori.  La fecondazione eterologa si verifica quando il seme non è del padre oppure l’ovulo non proviene dalla madre, caso che si verifica in presenza di coppie con problemi di fertilità, anche bilaterali. Il seme e gli ovuli provengono, in tal caso,  da anonimi donatori, estranei alla coppia, i cui doni sono acquisiti mediante le  banche del seme.

Per il nascituro si presenta il non lieve problema sia di carattere etico sia di carattere psicologico di avere due genitori legali e un terzo biologico quasi sempre anonimo. E’ stato ipotizzato e paventato una situazione di  rischio eugenetico dovuto ad eventuali  eccessive richieste di semi ed ovuli appartenuti a personalità con elevato patrimonio genetico (geni, capitani d’industria e finanzieri,  personaggi notevoli della storia) o dediti al culto di se a punto tale da  voler  “riprodurre” i propri geni. La nascita di tal tipo di  banche risale ai primi del novecento (in contemporanea agli studi di James D. Watson e Francis Crick) con l’idea del conservare il patrimonio genetico individuale. Il probleman nella sua evoluzione, ha condotto alle tecniche  del   congelamento, sia degli ovuli, sia del seme, sia anche degli stessi embrioni ottenuti da fecondazione in vitro e poi congelati. Il criocongelamento si realizza  utilizzando sostanze come  l’ azoto liquido e la  durata della conservazione dei criocongelati è limitata e non supera i cinque anni.

Il problema della eliminazione degli embrioni  congelati dopo cinque anni ha, nell’attuale dibattito, forte valenza etica  in quanto l’embrione è dai più considerato vita umana a tutti gli effetti. Da aggiungere che secondo alcuni il curare il fisico per poter concepire, nel modo migliore possibile,  un figlio in modo naturale è una cosa niente affatto paragonabile alla fecondazione assistita, che rappresenterebbe invece  una forzatura alla Legge di Natura e tutti i problemi fisici, psicologici e morali che la fecondazione assistita produce ne sarebbero  una dimostrazione.  Secondo gli oppositori della fecondazione assistita la disponibilità e il desiderio di prendersi cura e di educare un essere umano come un figlio possono essere ampiamente soddisfatte attraverso l’adozione.

Ecco cosa prevedono le leggi che regolano la procreazione assistita in Italia e in qualche altro  Paese.

 

In Italia  esistono diversi divieti. Intanto il divieto di inseminazione eterologo fa si  che per mettere al mondo un bambino,  una coppia, che faccia una tale scelta,  non potrà più ricorrere al seme o all’ovulo di un donatore, condannando anche il  futuro delle coltivazioni degli embrioni e provocando la chiusura delle “banche del seme”, che custodiscono ovuli, seme ed embrioni  congelati. La crio-conservazione degli embrioni sarà parzialmente vietata e ne sarà  contingentata la produzione  a non più di tre ovuli. La donna inoltre  sarà  costretta all’impianto dei suoi tre ovuli fecondati, restrizioni queste incomprensibili pure alla luce di un logico principio di prudenza. I problemi fondamentali di carattere etico-politico sono nati nel contrasto nato tra gruppi cattolici e gruppi laici che nel loro muro contro muro appaiono spaccati anche all’interno dei loro stessi schieramenti. Il tentativo di risolvere la questione per via politica ha condotto ai quattro referendum del 2005, nati  per abrogare alcuni punti dell’attuale legge sulla fecondazione che era  giudicata dai referendari troppo restrittiva ai fini delle tecniche utilizzabili. L’affluenza alle urne, non superiore al l 26% non ha però permesso il raggiungimento di alcun quorum.

 

In AUSTRIA è ammessa sia la fecondazione artificiale tra coppie sposate o conviventi sia quella eterologa, ma non per le donne sole. I componenti la coppia inoltre devono essere entrambi in vita e non è  consentito un utero in affitto. E’ inoltre ammesso l’accesso ai dati del donatore.

 

In FRANCIA una legge del 1994 stabilisce che solo le coppie sposate o conviventi da almeno due anni possano far uso dell’inseminazione artificiale. Non è ammessa la fecondazione post mortem e l’uso di utero in affitto. E’ ammessa l’inseminazione artificale eterologo solo nei provati casi nei quali  la procreazione assistita non abbia avuto successo all’interno della coppia.

 

In GERMANIA una  legge del 1990 ammette l’inseminazione omologa e eterologa solo per le coppie sposate. La fecondazione in vitro è ammessa solo se omologa. E’ inoltre vietato trasferire nel corpo di una donna più di tre embrioni per un ciclo di inseminazione. Non sono ammessi l’inseminazione post mortem e l’utilizzo di un utero in affitto.

 

Nella GRAN BRETAGNA una  legge del 1990 consente l’inseminazione sia omologa sia  eterologa applicabile a coppie sposate o conviventi ed anche  a donne singole. E’ permessa l’inseminazione post-mortem  ed anche  l’utilizzo di un utero “in prestito”  purché non ci siano  transazioni di denaro allo scopo. 

 

In NORVEGIA l’accesso all’inseminazione artificiale è consentita alle coppie sposate e ai conviventi in comprovato modo stabile. L’inseminazione eterologa è ammessa solo quando il marito o il convivente della donna sia sterile o se si è in presenza di gravi malattie ereditarie.

 

In SPAGNA  possono accedere all’inseminazione artificiale sia omologa che eterologa solamente le coppie sposate o conviventi purché vi acconsentano in modo libero e cosciente. La prima legge che regola la materia è del 1987.

In SVEZIA  possono accedere all’inseminazione omologa e eterologa  tutte  le coppie sposate o conviventi. Non è ammessa l’inseminazione per la donna single. La fecondazione in vitro è ammessa solo se omologa e non è ammesso l’utilizzo di un utero in affitto.

 

Negli STATI UNITI  nazione di tipo federalista, la situazione è complessa in quanto per ogni singolo stato esiste una differente legislazione. Tuttavia è ammessa l’ inseminazione sia omologa che eterologa e in qualche stato, come ad esempio la  California, è ammesso l’utilizzo di un utero in affitto.

 

Il dibattito etico sulla fecondazione assistita è pure notevole e variegato. Le principali  posizioni etiche sull’argomento sono due. Vi è una linea asserente che l’embrione è a tutti gli effetti  una «persona», con tutti i diritti connessi alla quale si contrappone la linea che  nega che all’embrione  possa attribuirsi  questo stato e quindi dei diritti. Tuttavia le due linee non sono così nette e tra esse vi sono numerose differenziazioni, che esprimono, grandi linee, le tendenze etiche che oggi si stanno dibattendo nella nostra società su questo argomento.

 

L’etica dell’autonomia  pone in primo piano l’autonomia di scelta  degli uomini ed è quindi fortemente permissiva  ad ogni decisione, individualmente presa da  quegli individui che per diverse ragioni non siano  in grado di procreare per vie naturali  a causa di sterilità, orientamenti sessuali, scelte di vita personali ed altro così  da voler  ricorrere alla tecnica medico-biologica per dare corpo alle loro scelte.

 

L’etica del senso comune  ritiene la procreazione assistita ed artificiale sia una pratica accettabile quando risulti essere l’espressione di una relazione di coppia stabile che desideri rimanere negli standard della famiglia tradizionale superando la fase di difficoltà di riproduzione e parimenti il piacere e il desiderio di prendersi cura della crescita e dello sviluppo di un figlio non adottivo. 

 

L’etica relazionale valuta l’eventuale procreazione come momento importante ma non essenziale di  una relazione fra due persone. Una relazione di coppia quindi non  avrebbe unicamente e necessariamente come unico scopo quello della procreazione. Dunque in questo contesto l’amore sarebbe il considerare l’altro il fine della relazione di coppia e non il  mezzo per procreare e sarebbe pertanto riduttivo considerare la procreazione solo come un mezzo di produzione di altri esseri umani.  In questa ottica tutto quelle attività che porterebbero a strumentalizzare l’uso del proprio corpo quale la riproduzione artificiale,  con la donazione di seme ed ovuli, quale ogni surrogazione di maternità come inseminazione artificiale ed utero in prestito,  quali i processi di selezione e congelamento degli embrioni, quali i meccanismi di aborto, sarebbero degli atti alienanti in quanto non fondamentali per la relazione. Difficilmente in essi si andrebbero a riconoscere atti  prodotti dell’amore.

 

L’etica della creazione riguarda il modo, se si vuole la qualità,  con cui avviene la «creazione» di un figlio. L’uomo è essenzialmente un creatore, che ha il dovere attraverso la procreazione, di cooperare con la Legge di Evoluzione. Lo strumento principale che egli ha a disposizione per esercitare questo suo potere è racchiuso nel rapporto sessuale che assieme alla qualità dei sentimenti della coppia costituirebbero i  fattori determinanti nella nascita di una nuova vita. Questo aspetto si perderebbe completamente nella procreazione assistita.

 

L’etica della responsabilità emette forti riserve sulla procreazione assistita, perché il diritto ad avere figli, quando questi non provengano da atti naturali, quasi mai sarebbe una  libera scelta ma solo un implicito condizionamento dovuto alla famiglia e alla società. In questa ottica  la produzione in eccedenza di embrioni e il loro congelamento sono visti come atto «angoscioso» e «disgustoso» perché  agli embrioni si riconosce un diritto forte alla vita considerato  superiore al diritto della donna a  soddisfare il suo desiderio di maternità.

 

L’etica della legge di natura, che ha valutazioni molto simili  a quelle della morale cattolica, ritiene che l’embrione sia una vita umana a tutti gli effetti fin dal momento della fecondazione, quindi giudica la creazione di embrioni a scopo di ricerca, il loro congelamento e la distruzione di quelli in soprannumero, nonché la diagnosi prenatale per verificare le anomalie, come una vera e propria «strage degli innocenti». Ammette, però, l’aborto indiretto (l’uccisione del feto per salvare la madre) quando è inevitabile.

 

Donazione di organi

Le donazioni tradizionali di organi possono dividersi in due grandi tipi. Ci sono donazioni di organi da persona umana ovvero da animali (xenotrapianto). I trapianti da persona umana possono essere da persona viva (trapianto di un rene) o da cadavere (trapianto del fegato, del cuore, altro). Per diverse religioni i trapianti umani,  ledendo l’integrità fisica dei corpi donanti, ai quali è stata magari promessa una resurrezione corporea, non sono accettabili. Se da un lato si incoraggia la donazione per espianto degli organi come atto di bontà a favore di malati privi di speranze, dall’altro si aggiunge “purchè in forme eticamente accettabili” . Condividiamo indubbiamente quel fenomeno di commercio degli organi che si può innestare sul fenomeno, ma non per questo occorre condannare i trapianti, ma solo reprimere gli abusi. Al solito non sono i trapianti un male ma è l’uso negativo che si può fare dell’idea ad essere deprecabile.

 

Cellule staminali

Nei feti e negli embrioni di pochi giorni sono rinvenibili, e quindi prelevabili, alcune cellule, dette staminali,  che nascono indifferenziate e che in seguito hanno la capacità di andare a formare i diversi tessuti degli organismi. La fecondazione dell’ovulo femminile crea una cellula detta “totipotente” che si riproduce in cellule identiche e che,  per meccanismi ancora sconosciuti, si differenziano e formano gli organi del feto. Esse sono state usate in campo medico sia per curare piaghe croniche che per sostituire organi danneggiati o mal funzionanti e aggirando i problemi dei trapianti.  Il problema di utilizzo dell’embrione come serbatoio di cellule staminali ha suscitato un dibattito di carattere etico, essendo giudicata da taluni inaccettabile la rinuncia all’inviolabilità degli embrioni, non ancora risolto. Per la Chiesa Cattolica, ad esempio, le tecniche che prevedono la manipolazione e magari la distruzione di embrioni umani non sono moralmente accettabili anche quando il loro fine è condivisibile. L’embrione è ritenuto persona fin dal primo istante di esistenza ed è considerato immorale utilizzarlo o generarlo a fini di ricerca scientifica.

 Il dibattito portato in sede ONU non ha condotto al blocco dell’uso delle cellule staminali. Nel frattempo si sta valutando l’utilizzo di serbatoi alternativi quali il cordone ombelicale e il midollo osseo.

 

Organismi geneticamente modificati (Ogm)

In Italia un decreto  legge ha bloccato per tutto il 2005 la coltivazione degli Ogm (Organismi geneticamente modificati). Tuttavia dal 1 gennaio 2006 il decreto è inoperante ma non sembra che la faccenda abbia avuto  grande popolarità.

Attualmente al mondo circa 1 miliardo (su 7 miliardi) di persone consumano prodotti provenienti da Ogm  e le proiezioni parlano del raggiungimenti dei 3 miliardi. , Alcuni scienziati italiani indicano generici pareri negativi, altri sono di parere opposto. Questi pareri a favore degli Ogm sembrano essere molto motivati almeno per l’abbattimento di sostanza cancerogene indispensabili per combattere l’attacco alle sostanze non geneticamente modificate. Spesso gli alimenti sono pieni tossine cancerogene (ad esempio le anflatossine del mais) , escrementi, metalli pesanti, pesticidi,           ) che alla fine del processo della catena alimentare finiscono sulla nostra tavola

Ultimo interessante problema è l’influenza, non già l’inquinamento, che un campo coltivato ad Ogm può avere con un campo vicino. Le distanza di rispetto sono calcolate in ragione di duecento metri (30 metri secondo alcuni ottimisti, 20 chilometri per altri pessimisti) da confine a confine. Invece fonte di influenza/ inquinamento è il trasporto dei semi senza accorgimenti.

Si assiste a volte a sprechi irrazionali come cento ettari di mais mandati in fumo poiché contenevano lo 0,1 per mille di Ogm, la distruzione del 20% della produzione di latte di una Regione italiana che conteneva anatossine in percentuale troppo elevata rispetto al consentito.

Alcuni pareri di politici sono negativi ma questi sono solo pareri umorali o di facciata.

Coltiviamo tabacco e riso transgenetico, uliveti resistenti all’attacco di insetti. E’ pronta una variante Ogm del San Marzano, che sta scomparendo a causa di un virus, ma in Italia non è producibile, così il brevetto sarà esportato in Cina. L’attuale pasta deriva da grano duro, il vino, la birra, il pane, lo yogurt, alcuni tipi di formaggi, e più di recente insuline artificiale per diabetici, tabacco transgenico per prodotti farmacologici, le farine di soia, i mangimi biotec e i cosiddetti prodotti biologici, sono di fatto degli Ogm, perché sono stati ottenuti, migliaia di anni fa, mediante introduzione forzata di lieviti, muffa e batteri,  non sembra che nel tempo  sia accaduto nulla. 

 

La clonazione

Per tornare al dibattito generale va presa in considerazione anche una  posizione etica non ben definita che taluni indicano come quella derivante da una sorta di  Scienza dello Spirito. Tale scienza  pur non essendo riconosciuta ufficialmente, fornisce tutta una serie di valutazioni,  molto precise, che hanno comunque interesse  in questo dibattito. Si parte dall’idea che le modifiche di varia natura  che vanno dai trapianti all’ingegneria genetica  alla procreazione assistita fino alla clonazione potrebbero essere meccanismi autosviluppantisi  che il genere umano crea con i quali opera  per  difendere se stesso da un evoluzionismo di altre specie che potrebbero tendere a distruggere l’uomo.  Secondo alcuni questo potrebbe essere l’ipotetico  riconoscimento dell’esistenza di  una Mente Universale,  che guida tutto il processo evolutivo degli uomini, attraverso un piano predisposto sia a livello individuale che collettivo.

Pertanto  l’uomo,  non tenendosi al passo con certe evoluzioni e mutamenti,  potrebbe agire contro  la sopravvivenza della specie. Parimenti potrebbe esserci invece una chiave di lettura antitetica e la manipolazione potrebbe accelerare il processo disgregativo della razza umana, ad esempio sia con l’uso scorretto di sostanza nocive sia con la creazione di virus da laboratorio fortemente distruttivi. 

A questo si collega anche una certa accettazione della fatalità nell’assurto che  nulla accada a caso, per cui anche l’impossibilità ad avere figli non sarebbe  il frutto di un destino crudele o di una «lotteria naturale» ma l’espressione di uno «stato di necessità» della natura non casuale. 

 

 

L’idea di essere vivente è ben difficile da definire in modo univoco. Da un punto di vista formale si è portati a convenire che tale nozione possa essere implicitamente definita da un sistema di assiomi/proprietà di tipo aperto, cioè aggiornabili in funzione dell’avvento temporale di nuove e sempre più sofisticate tecnologie.

 

Al di la di una visione assiomatica occorre tenere presente anche una visione di tipo filosofico, che sia se si vuole di tipo olistico e che vede nella vita qualcosa di più ampio che non il rigido ed assiomatico modo di vedere l’essere vivente come un semplice aggregato di proprietà e funzioni. L’essere vivente sarebbe qualcosa in più e quel di più lo potremmo identificare con quel che di astratto che si è portati a chiamare  “soffio vitale”.

Vi sono scienziati ed evoluzionisti che sono convinti che caratteristica fondamentale della vita è il meccanismo della riproduzione, idea questa sulla quale torneremo a proposito del desiderio di creazione, altri sono maggiormente dell’avviso che l’idea di vita è legata invece al fenomeno della autorganizzazione, cioè a quella capacità di dotarsi di una organizzazione mediamente compatibile con il  livello raggiunto dall’intera specie e che conduce l’uomo planetario,  nel suo muoversi ed adattarsi al tempo che trascorre, ad una linea evolutiva da considerarsi stabile. Altri  ancora preferiscono far riferimento ai nove assiomi individuati da Daniel E. Koshland e che costituiscono l’assiomatica (aperta) dell’idea di vita da attribuire un organismo considerato come insieme dei suoi composti chimici .

Le proprietà (assiomi) che vogliamo controllare che un organismo possieda perché lo si possa sospettare di essere dotato di vita sono le seguenti:

 

  1. Un piano organizzativo che descrive gli elementi costitutivi e le loro interazioni. (Assioma di gestione del programma).
  2. La capacità di cambiare il programma quando variano le condizioni iniziali. (Assioma della improvvisazione).
  3. Risposte repentine a stimoli esterni. (Assioma di adattabilità).
  4. La presenza di membrane o di altre strutture che separino l’organismo dal mondo esterno. (Assioma dei comparti separati).
  5. Energia che viene scambiata in vario modo nelle interazioni con il mondo esterno. (Assioma dell’Energia).
  6. Il ricambio parziale di parti usurate o mancanti. (Assioma di rigenerazione).
  7. Presenza di enzimi che svolgono precise funzioni all’interno dell’organismo. (Assiomi di specificità).
  8. Presenza di capacità di autosostenersi e mantenersi. (Assioma dell’autopoiesi).
  9. Essere parte non separabile di una struttura dotata di metabolismo e con caratteristiche di ereditarietà. (Assioma dell’evoluzione).
  10. La vita riconosciuta in un organismo è dotata di un valore aggiunto che va al di la di quella che sia la mera aggregazione di proprietà e funzioni logicamente riscontrabili. (Assioma olistico).

 

Queste caratteristiche sono certamente tutte ben presenti nel vivente a noi noto. Per lasciare una apertura verso altre possibili forme di vita, riscontrabili forse in altri pianeti,  la NASA, ad esempio, adotta un sorta di definizione indiziaria di vita ritenendo che: ci possa essere presenza di vita allora che le condizioni di atmosfera e chimiche del pianeta non siano in una forma di equilibrio termodinamico. La mancanza di equilibrio sarebbe indicativo di forme di vita da individuare poi con criteri da stabilire, magari usando, adattando o modificando opportunamente gli assiomi di Koshland. L’essere artificiale sarebbe tanto più tale quanto più in esso si riconoscano parti  consistenti degli assiomi di Koshland (allargati).

Da notare che al momento esistono dei software che soddisfano, ad alcuni degli assiomi di  Koshland e precisamente soddisfano gli assiomi del programma, dell’acquisizione, dell’adattabilità e dell’energia. Tali programmi, pensati come organismi, sono una inquietante forma di pseudo-vita e non sono molto lontani da quelli che noi intendiamo per organismi viventi, poiché nel loro essere nascono, si sviluppano, evolvono e muoiono sia pure solo all’interno dei computer ove agiscono.

 

 

6.3. IL DESIDERIO DI CREARE: PRODROMI DI INTELLIGENZA ARTIFICIALE

Sin dalla sua nascita, nella seconda metà degli anni ’40, il campo dell’Intelligenza Artificiale (IA) ha forse  ospitato la più significativa  delle battaglie intellettuali sviluppatesi all’interno della scienza moderna . Il termine Artificial Intelligence (Intelligenza Artificiale) venne  coniata dal matematico americano J. McCarthy, durante uno storico seminario multidisciplinare, tenutosi nel 1956 in una località del  New Hempshire.

 

Per Intelligenza Artificiale (IA)  si intende, in una larga accezione del termine,  la possibilità di far svolgere ad un calcolatore, o una struttura meccanica gestita da un calcolatore,  alcune funzioni e alcuni ragionamenti tipici della mente umana, così come ad esempio codificati negli assiomi di vita che abbiamo chiamato assiomi di Koshland allargati. Negli ultimi anni abbiamo assistito ad una sempre più ampia partecipazione di nuovi attori in  questo dibattito che,  ristretto un tempo alle torri d’avorio di alcune importanti Università, oggi si apre al contributo di vari operatori sul campo, non solo informatici ed ingegneri dell’hardware ma anche a  studiosi di varie provenienze,  anche a militanti nelle discipline delle scienze mediche, biologiche, sociali ed umani in genere. In tal modo,  come più in generale per il campo dell’Informatica,  anche  il dibattito sull’IA è diventato sempre più accessibile ai più,  entrando in sintonia con gli eventi più complessi della società, ivi comprese  le dinamiche di mercato (quindi l’economia),  gli umori e le necessità del pubblico (quindi la pubblicità e il binomio salute-benessere) e si affacciano oggi anche gli aspetti etici. Trattando di intelligenza artificiale quindi occorre tener presente che con questo termine si individua non solo un campo di applicazioni concrete ma anche uno dei campi di dibattito teorico, forse un punto d’incontro,  tra scienziati e filosofi, campo nel quale sembra esserci un significativo contributo atto a delineare il futuro delle nostre vite. Non vi è dubbio che in questo dibattito si presentano molte tensioni, incertezze, dubbi, indicazioni di pericoli ma  l’attuale tensione sull’IA, a nostro avviso, non è altro che un riflesso di quella  tensione che si agita nella nostra società verso un  futuro difficile per il quale non è prevedibile cosa potrà riservarci.

In una prima superficiale analisi  tutti ci troviamo d’accordo nel ritenere che gli esseri umani siano intelligenti, riteniamo anzi che questa sia una caratteristica distintiva rispetto ad altre speci, tuttavia a ben riflettere  non sembra che esista una definizione accettabile di intelligenza. Secondo Marvin Minsky, uno dei “pionieri” della I.A., lo scopo principale di questa disciplina sarebbe quello di “creare macchine capaci di fare attività  che richiederebbero intelligenza se fatte dagli uomini”, quindi  la  domanda al centro del dibattito sull’IA potrebbe essere racchiusa nella sintomatica domanda: “I computer possono pensare?”. La domanda che ci poniamo non è di oggi, anzi,  come ci piace evidenziare, questo quesito era argomento d’interesse forte anche attorno alla metà dell’Ottocento, riguardo la macchina (teorica) di Charles Babbage. La sua allieva e collaboratrice Ada Byron, Contessa di Lovelace, ebbe a dichiarare “Questa macchina non ha la pretese di creare alcunchè. Essa non può realizzare se non ciò che noi sappiamo metterla in grado di eseguire”.  E’ interessante citare un lavoro, scritto circa cento anni dopo Babbage, agli inizi degli anni ’50, da  Bruno de Finetti. Questo studioso famoso, considerato il fondatore della teoria della probabilità soggettiva, quando era Attuario alle Assicurazioni Generali, dedicò un lungo periodo a visitare i principali Laboratori esistenti allora negli USA (Los Angeles, New York, Boston, Washington, Philadelphia, Princeton) e in particolare trascorse un periodo di studi al Watson Scientific Computing Laboratory della Columbia University,   partecipando pure al momento storico in cui a Los Angeles venne inagurato lo SWAC. Sulla sua esperienza in relazione a quelli  che lui amava chiamare “sistemi a schede perforate” ebbe a scrivere, con chiari scopi epistemoloci: Cervelli giganti, Macchine che pensano: così definiscono le calcolatrici elettroniche coloro che più rimangono colpiti o intendono colpire rilevando quanto vaste e complesse operazioni del pensiero esse possono venire comandate ad eseguire. Semplici ausiliarie : così ribattono altri facendo rimarcare che si tratta pur sempre di operazioni che esse vengono comandate ad eseguire, cosicché la funzione creativa del pensare rimane intangibile attributo dell’uomo che le costruisce e le usa. Concepita in questi termini, di contrapposizione di due tesi nettamente definite, la questione è mal posta: si ridurrebbe a un vano dilemma metafisico, per di più connesso con ogni possibile preconcetto di carattere morale. E’ la stessa situazione che si incontra nel voler indagare sulla linea di demarcazione  fra regno animale e vegetale, o tra mondo vivente o inerte (o, in altro campo, tra onde e corpuscoli). E tale analogia sarà utile da tenersi presente, perché anche qui si può dire, nello stesso modo, che si tratta di indagare sul confine di ciò che va considerato come effettivo dominio del pensiero. (cfr. B.de Finetti, “Macchine “che pensano” (e che fanno pensare)”, Tecnica ed Organizzazione, 3-4 (1952) ).   

Ancora un momento importante è la nascita della disciplina denominata Cibernetica, disciplina che trae origine proprio dall’idea di esplorare la regione oscura nella quale è delineato il vago confine tra il campo dei fenomeni fisico-tecnologici da quelli propri dell’essere umano propriamente detto. Il fondatore della disciplina Norbert Wiener (1894- 1964), si occupa di studi comparati sulle analogie tra funzioni fisiologiche e psichiche degli animali con analoghe funzioni riscontrabili nei grandi apparati di calcolo, quali ad esempio il confronto tra struttura interna delle macchine calcolatrici e sistema nervoso dell’animale e dell’uomo.

Le risposte attuali alla domanda “I computer possono pensare?”, sono varie e discordi. In primo luogo occorre che ci si intenda su cosa significhi pensare. Distinguiamo solo, in questa analisi, i due grandi campi paradigmatici  nei quali si riconoscono le comunità scientifiche che si occupano di IA. 

 

  • Il primo campo detto del paradigma dell’intelligenza artificiale forte, risale al filosofo empirista inglese T. Hobbes. In questo punto di vista un computer correttamente programmato può  essere considerato dotato di una intelligenza pura, non distinguibile in modo rilevante dall’intelligenza umana. Non vi è dubbio che fondamento di questo paradigma è il pensiero di Alan Turino e il suo test atto a ritenere che un computer è dotato di intelligenza quando interagendo con un essere umano viene confuso con un altro essere umano. In questa ottica si sostiene che pensare è ragionare e ragionare è nient’altro che calcolare. La mente umana, anche ricordando il pensiero di Hobbes, sarebbe il prodotto di un complesso insieme di calcoli eseguiti dal cervello. In questo Hobbes si riallaccia al cosiddetto sogno di Leibnitz e prelude al pensiero di Alan Turing.

 

  • Il secondo campo, detto paradigma dell’intelligenza artificiale debole, sostiene che un computer non riuscirà ad essere equivalente (o confondibile) con una mente umana. Potrà forse arrivare alla simulazione, anche molto efficiente, di parecchi processi cognitivi umani, senza tuttavia riuscire a riprodurli nella loro totale interezza e complessità.

 

Una critica interessante consiste nell’osservare che, secondo alcuni esperti del settore,  è improbabile il raggiungimento, da parte di un computer, di una capacità di pensiero classificabile come “intelligenza”. Ciò per fatto che la macchina stessa è “isolata” dal mondo ovvero collegata con esso tramite una rete informatica che è  in grado di trasmettergli delle informazioni provenienti da altri computer. Una più reale “intelligenza artificiale” potrebbe essere raggiungibile solo da un robot (non necessariamente umanoide) in grado quindi di muoversi (su ruote, gambe, cingoli o quant’altro) ed interagire con l’ambiente che lo circonda magari grazie a sensori e bracci meccanici. Anche nell’uomo, del resto,  l’intelligenza deriva talvolta da  esigenze corporee, che difficilmente si svilupperebbero in una simulazione priva di un corpo.

Inoltre, finora, nel tentativo di creare IA, si è spesso compiuto un errore che ha portato i computer all’incapacità di utilizzare il buonsenso, o se si vuole alla capacità di disporre del principio di adattabilità (nel senso di Koshland).  La sperequazione uomo-macchina comunque dovrebbe  includere nell’analisi la considerazione che il mondo reale è complesso e quindi una sua rappresentazione lo sarà altrettanto. Non solo sarà complessa, ma sarà anche incompleta, perché non potrà mai includere tutti i casi che il robot potrà incontrare. Perciò, o immettiamo nel cervello artificiale una quantità enorme di informazioni assieme ad altrettante regole per correlarle  oppure lo mettiamo in condizione di imparare dai suoi errori. La chiave dell’AI, sembra proprio essere questa: l’imitazione della sua analoga naturale : l’intelligenza reale, tenendo presenti le  caratteristiche  comportamentali e umane di un individuo in ciò che si chiama “senso comune”.

Ancora una questione. Nell’evoluzione delle macchine intelligenti si sono  spesso saltate intere generazioni di macchine più modeste, tuttavia  in grado di fornire preziosi contributi  per capire come gli organismi biologici interagiscono con l’ambiente attraverso la percezione, il movimento e  la manipolazione. Ora, per fortuna, c’è chi segue un approccio più coerente: prima di insegnare a un robot a giocare a scacchi, è necessario insegnargli a muoversi, a vedere, a sentire. Si comincia a ritenere, e non è fantascienza che anche nel robot intelligente occorre creare una specie di “infanzia”, che gli consenta di mettere a punto autonomi processi di apprendimento e di adattamento all’ambiente in cui si troverà ad agire. Se si vuole un sistema esperto che apprende dagli errori. È forse necessario da quanto detto il promuovere due tipi di evoluzioni di fatto parallele. La prima che prodotti informatici semplici porti alla creazione di elaboratori sempre più complessi. Una seconda via, interna alla struttura del singolo automa, che gli permetta una sorta di  crescita intellettuale,  sotto naturalmente la supervisione umana, con tendenza (controllata) verso una futuribile autonomia decisionale.

Le nostre considerazioni conducono a pensare che l’intelligenza artificiale, attraverso le vie di sviluppo che gli sono proprie, diverrà probabilmente un’intelligenza “essenzialmente diversa” da quella umana. Ne nascerà allora anche un nuovo modo di concepire la vita umana e la vita artificiale. Le ricerche sulla  Artificial Life, considerata oggi  una branca della IA, venne inizialmente  proposta, come campo di studi, da  Chris Langton. Tale campo  è legata chiaramente legato alle parti avanzate della  robotica avanzata e se si vuole capace di stadi evolutivi. Il tipo di ricerche in termini di software e hardware tenta di comprendere e costruire quello che potrebbe essere l’ambiente e quelli che dovrebbero essere in esso gli organismi primitivi interagenti. Gli organismi di tale ambiente  si riproducono ed evolvono verso popolazioni più complesse e sofisticate, tutto ciò senza anche senza l’intervento umano.

 

6.4. TAPPE DEL DIBATTITO SULL’INTELLIGENZA ARTIFICIALE

1900- Durante il Secondo Convegno Internazionale dei Matematici tenutosi a Parigi nel 1900, David Hilbert[126], nella sua prolusione iniziale (8 Agosto) enunciò una lista di 23 che egli considerava fondamentali per la fondazione della matematica del XX secolo. Tali “Problemi matematici” per essere risolti avrebbero, a suo avviso, idee e tecniche impensabili ed innovative. La sua previsione fu tanto vera che alcuni di questi daranno vita sia alla scienza dei computer sia all’IA.

 

  1. “Quanti sono i numeri reali?”La domanda nascondeva il sapere se tra l’infinito dei numeri reali (continuo) e quello dei numeri naturali (numerabile) vi fossero potenze intermedie o no. In modo sorprendente nel 1938 Kurt Godel dimostrò che non era possibile escludere la non esistenza di una potenza intermedia. Nel 1963 Paul Cohen dimostrò che nemmeno l’esistenza si può escludere! Dunque la nuova questione è che siamo davanti ad un bivio della matematica.

 

  1. Dimostrare la coerenza della Teoria dei numeri reali. Ancora Kurt Godel nel 1931 dimostro che non è possibile dare questa prova dall’interno della teoria che andrebbe immersa in una teoria più ampia, nella quale la prova potrebbe essere data, ma riaprendo il probelema della coerenza per la nuova teoria. L’idea venne poi estesa da Godel ad un qualsiasi sistema razionale.

 

  1. Risolvere i problemi dell’aritmetica quali: la congettura di Goldbach (ogni numero pari è la somma di due primi), l’ipotesi di Rieman (1859), l’ultimo teorema di Fermat (l’equazione xn + yn = zn , per n > 2, non ha soluzioni intere).L’ultimo teorema di Fermat (1665) è stato provato nel 1995 da Andrew Wiles, Secondo alcuni tale problema non fece mai parte della lista di Hilbert,  ma si affiancò ad essa congettura di  Poincaré  (1904)

 

  1. Dimostrare la congettura di Keplero sulle arance. Le arance, usualmente, si dispongono a strati e quelli dello strato superiore, in modo sfalsato, vanno a colmare gli avvallamenti lasciati dallo stato precedente (stato naturale), fino a formare una sorta di piramide. La domanda è se questa sia o non sia la migliore disposizione( cioè quella che lascia un minor volume di spazi vuoti) ? In altre parole come delle sfere di ugual raggio riempieno lo spazio realizzando una densità massima. La congettura di Keplero, era stata presentata in realtà da Sir Walter Raleigh (1611), prima di lui. Sir Raleigh, colui che fu il creatore dell’Impero coloniale inglese, si era posto il problema per il trasporto delle palle di cannone, naturalmente. La congettura, asserente che la disposizione naturale è la migliore, è stata provata da T. Hales nel 1998, con un tecnorema consistente in una dimostrazione di 250 pagine completata da l’esecuzione, ripetibile, di un programma di tre gigabytes. .

 

 

1910- Pubblicazione dei “Principia mathematica”, il tentativo di Bertrand Russell e Alfred North Whitehead di fornire fondamenta filosofiche più solide alla matematica.

 

 

1920- La teoria generale della relatività di Einstein estende il lavoro sulla geometria posteuclidea di Hilbert e di altri matematici dell’800 all’ambito della fisica. Einstein dimostra che quando si considerino fenomeni a livello cosmico, il punto di vista e il movimento dell’osservatore sono importanti quanto l’evento osservato.

 

1921- Pubblicazione del “Tractatus Logico-philosophicus di Ludwig Wittgestein, il quale applica al linguaggio l’approccio di Russel e Whitehead. Tutti i dibattiti filosofici nascono dalle incoerenze e dalle imperfezioni del linguaggio umano, afferma Wittgenstein. Tali dibattiti diverranno inutili una volta che verrà determinata la struttura nascosta del linguaggio.

 

1925- Kurt Goodel entra all’Università di Vienna ed è risucchiato nell’orbita di Moritz Schlick un filosofo della Scienza attorno al quale rutava il grande Circolo di Vienna.

 

1927- Heisemberg propone che l’”indeterminatezza” sia una costante quando si esamini il comportamento di particelle subatomiche. In altre parole, un osservatore non può mai essere del tutto certo della posizione o della direzione di una particella, perché la stessa osservazione influenza il sistema osservato. Come la relatività, il principio di indeterminatezza di Heisemberg si trasforma per i filosofi in un’arma che liquida tutte le forme di indagine scientifica obiettiva come indagini soggettive camuffate.

 

1929- Kurt Goodel si laurea con una tesi nella quale prova che la logica predicativa di Frege è completa.

 

1938- il “teorema di incompletezza” di Kurt Goodel dà un colpo di grazia al “programma” trentennale di Hilbert. Godel prova l’incompletezza dell’aritmetica come sistema basato sulla logica e, per estensione, la suscettibilità a incoerenze logiche di qualsiasi sistema formale complesso. Più tardi, i critici dell’IA si appoggeranno al lavoro di Goodel per dimostrare che l’intelligenza umana, con la sua capacità può essere replicata attraverso la logica formale o i processi meccanici.

 

 

1936- L’articolo di Alan Turing “On Computable Numbers” (Sui numeri computabili) estende gli argomenti di Goodel offrendo al contempo il punto di vista di una macchina sulla logica formale. Introducendo un dispositivo teorico chiamato “macchina di calcolo logico”, Turing delinea un metodo meccanico per eseguire una qualsiasi funzione definita matematicamente, o algoritmo. Turing introduce perciò un nuovo campo matematico chiamato computazione.

 

1938- A “Symbolic Analysis of Relay and Switching circuits (Un’analisi simbolica dei relè e dei circuiti di commutazione), tesi di laurea dello studente al MIT Claude Shannon, applica forme ottocentesche di logica simbolica sviluppate da Gottlob Frege e Gorge Boole alla scienza dei relè elettromeccanici e delle reti telefoniche. Questo articolo getta le basi per la teoria dell’informazione e per le future indagini delle capacità cognitive umane da una prospettiva elettromeccanica.

 

1939- In Europa inizia la Seconda Guerra Mondiale. Turing comincia a lavorare per il governo britannico come esperto di decrittazione di codici, utilizzando molte delle idee esposte in On Computable Numbers.

 

1940- Turing e i suoi colleghi sviluppano una serie di dispositivi chiamati “bombe”, in grado di effettuare calcoli con l’enorme quantità di numeri necessari per decodificare messaggi radio crittati.

 

1943- A Logical Calculus of the Ideas Immanent in Nervous Activity (un calcolo logico delle idee immanenti all’attività nervosa), introduce il modello neuronale del cervello. Gli autori paragonano il cervello a una vasta rete telefonica composta di interruttori “neuronali” di tipo binario (acceso/spento).

 

1944- Turing e i suoi colleghi ricercatori completano la costruzione di Colossus, un dispositivo di calcolo con 1800 valvole utilizzato per decrittare i messaggi tedeschi in codice.

 

1945- Gli ingegneri americani J. W. Mauchly, J. P. Eckert e gli altri completano la costruzione di ENIAC, una macchina considerata dalla maggior parte degli storici della tecnologia il primo computer moderno.

 

1947- Arthur Samuel, ricercatore alla University of Illinois, inizia i suoi primi esperimenti con il gioco della dama computerizzato.

 

1948- In Cybernetics or control and communication in the animal and the machine [cibernetica, controllo e comunicazione nell’animale e nella macchina], il professore al MIT Norbert Wiener afferma che il sistema nervoso umano e i sistemi di comunicazione meccanici come la rete della Bell Telephone non sono distinguibili, almeno da un punto di vista teorico.

 

1948- Lo Hixon Symposium on Cerebral Mechanisms amd Behavior tenutosi al Cal Tech ospita il primo importante raduno di psicologi, matematici e ingegneri riunitisi per discutere la natura elettromeccanica del cervello umano. “The general and logical theory of automata”, un intervento del matematico ungherese J. von Neumann, introduce la nozione secondo cui tutta la vita può essere ridotta a sistemi autoriproduttivi che seguono regole matematiche fisse.

 

1950- Macchine di calcolo e intelligenza, di Alan Turing, introduce l’Imitation Game, più tardi chiamato test di Turing. Se una macchina può far credere a un essere umano che sta comunicando con un altro umano, afferma Turing, la macchina deve essere considerata intelligente.

 

1950- Diventa operativo EDVAC, un successore di ENIAC. Primo computer a impiegare programmi residenti, EDVAC è anche la prima macchina a incorporare i principi di calcolo universale esposti nell’articolo di Turing del 1936.

 

1950- Claude Shannon, il padre della teoria dell’informazione, scrive il primo articolo sulla possibilità di giocare a scacchi contro un  computer. Viene programmato  un elaboratore numerico dedicato al  gioco degli scacchi.

(Per l’evoluzione del gioco degli scacchi contro un  al computer vedi: 1950-1965-1967 -1990 – 1997).

 

1956- La conferenza estiva di Dartmouth sell’intelligenza artificiale introduce ufficialmente l’espressione “intelligenza artificiale”.

 

1956- Allen Newell e Herbert Simon presentano  Logic Theorist,  un programma basato sui principi euristici di George Polya. Precursore dei moderni sistemi esperti, Logic Theorist ha la capacità di provare teoremi matematici attraverso l’applicazione logica di assiomi fissi. I successivi ricercatori e filosofi chiameranno “manipolazione simbolica”  questo approccio all’IA.

 

1957- Allen Newell e Herbert Simon presentano in General Problem Solver, un più robusto successore di Logic Theorist. GPS risolve rompicapi attraverso una tecnica di feedback cibernetico chiamata “analisi mezzi-fini”.

 

1957- Syntactic Structures, di Noam Chomsky, è un approccio allo studio della linguistica da un punto di vista di scienza informatica. Chomsky ipotizza che il linguaggio possa essere studiato secondo la sua logica e le sue regole interne, dando così il via alla “rivoluzione chomskyana” in linguistica. Gli sudi di Chomsky determinano infine che fattori biologici giocano un ruolo chiave nella comprensione del linguaggio, contraddicendo e minando alla base i tentativi della comunità dell’IA di costruire sistemi di linguaggio naturale ex situ.

 

1958- J. McCarthy sviluppa il linguaggio di programmazione LISP, uno dei principali strumenti di programmazione per l’IA.

 

1958- Herbert A. Simon e Allen Newell, professori al Carnegie Institute, pubblicano il loro primo articolo sul GPS, [Approccio Euristico al “problem solvine”], nel quale affermano tra l’altro che il decennio successivo avrebbe portato grandi avanzamenti dell’intelligenza artificiale delle macchine, compreso il primo computer campione di scacchi.

 

1958- J. McCarthy e Marvin Minsky fondano l’Artificial Intelligence Laboratory  presso il MIT.

 

1960- In Mente, macchine e Godel, J.R. Lucas afferma che il teorema di incompletezza di Godel contiene una trappola che nessuna macchina può attraversare indenne. Perciò la mente non è una macchina, dice Lucas, perché la mente è in grado di superare o aggirare i paradossi che invece intrappolano le macchine legate alla logica formale.

 

1962- Il programma di dama di Arthur Samuel batte Robert W. Nealy, ex campione di dama del Connecticut.

 

1963- J. McCarthy lascia il MIT e va a Stanford, dove fonda lo Stanford Artificial Intelligence Laboratory.

 

1965- Herbert Dreyfus scrive Alchemy and Artificial Intelligence, come memorandum per la Rand Corporation, nel quale afferma che l’assenza di progressi nel campo dei computer scacchisti a partire dalle previsioni di Newell e Simon del 1957 è un segno dell’eccessivo ottimismo dei ricercatori dell’IA e cita il recente esempio di un programma scacchistico battuto da un “principiante di dieci anni” come prova di stagnazione nel campo di studi.

 

1965- Con ELIZA. A Computer Program for the Study of Natural Language Communication Between Man and Machine, lo scienziato del MIT Joseph Weizenbaum introduce ELIZA, un programma progettato per imitare il comportamento di uno psicoterapeuta rogersiano.

 

1967- MacHack, un programma scritto dall’hacker del laboratorio IA del MIT Richard Greenblatt sconfigge lo scettico Hubert Dreyfus dopo che l’autore è sfidato a un pubblico incontro a scacchi.

 

1969- Perceptrons, di Marvin Minsky e Seymour Papert, espone le debolezze teoriche della teoria perceptron, o della rete neurale. Anche se Minsky è stato in passato un forte sostenitore della ricerca sulle reti neurali, di solito al libro si attribuisce la colpa (o il merito) di avere smorzato l’interesse a finanziare la ricerca sulle reti neurali fino alla metà degli anni Ottanta. È un testo che riflette anche la natura sempre più competitiva della ricerca sull’IA nei tardi anni Sessanta.

 

1972- Con [Che cosa non possono fare i computer], Hurbert Dreyfus amplia il discorso del suo precedente Alchemy and Artificial Intelligence. Dreyfus dipinge la scienza dell’IA come il punto più alto della tradizione filosofica occidentale, con il suo tentativo di compartimentizzare l’universo attraverso la logica e le categorizzazioni rigide. Come tale, L’IA ha più della filosofia che della scienza, afferma Dreyfus.

 

1976- Edward Shortliffe e Bruce Buchanan presentano MYCIN, un sistema esperto progettato per diagnosticare malattie ematiche infettive.

 

1976- [Il potere del computer e la ragione umana], del professore al MIT Joseph Weizenbaum, etichetta la maggior parte della ricerca contemporanea sull’IA come un “trastullo” sempre più distinta dai bisogni della società moderna. Weizenbaum mette anche in dubbio l’etica di questo campo di ricerca: “Visto che non abbiamo modo di rendere saggi i computer, non dovremmo attribuire loro compiti che richiedano saggezza”, scrive.

 

1979- Gobel, Escher, Back, di Douglas Hofstadter, randella il dibattito gobeliano iniziato da Lucas nel 1960. Addita numerosi esempi in cui l’incompletezza gobeliana dei sistemi formali fornisce una prova preliminare di autoconsapevolezza dei sitemi.

 

1980- [Mente, cervelli e programmi], di J. R. Searle, presenta per la prima volta l’argomentazione della “camera cinese” contro la possibilità di macchine senzienti e sfida l’interpretazione dell’”intelligenza artificiale forte” di Hofstadter.

 

1983- Il ricercatore texano Doug Lenat lancia il progetto Cyc. È il più grande sforzo fino a quel momento di creare una base dati di conoscenza abbastanza ampia da replicare le regole del senso comune umane utilizzate nel ragionamento quotidiano.

 

1985- Symbolics, una delle prime aziende a offrire software commerciale di intelligenza artificiale, raggiungere i cento milioni di dollari di vendite annuali.

 

1985- [La società della mente], di Marvin Minsky, rappresenta il momento culminante nell’abbandono da parte della comunità di ricerca sull’IA dell’interpretazione della mente come macchina manipolatrice di simboli. Minshy presenta invece la mente come un insieme caotico di processi paralleli e talvolta sovrapposti.

 

1988- [Menti bambine. Il futuro dell’intelligenza robotica e umana], di Hans Moravec, propone la nozione secondo cui, continuando il corrente trend tecnologico, robot intelligenti rimpiazzeranno gli umani in qualche momento della prima metà del XXI secolo.

 

1990- In [L’era delle macchine intelligenti], Ray Kurzweil predice, tra altre cose, che nel 1998 un campione di scacchi umano verrà battuto da un software.

 

1990- [La mente nuova dell’imperatore], di Roger Penrose, propone che la fisica quantistica sia in grado di spiegare la capacità della mente di non cadere nelle scappatoie logistiche che ingannano la maggior parte delle macchine.

 

1991- [Coscienza], di Daniel Dennett, afferma che la coscienza, il fenomeno che Searle e altri filosofi contemporanei indicano come l’ultima caratteristica che separa il pensiero umano dal calcolo meccanico, è di fatto un effetto ambientale di processi biochimici. “Le menti umane coscienti sono più o meno macchine virtuali seriali implementate, in modo inefficiente, sull’hardware parallelo che l’evoluzione ci ha fornito”, scrive Dennett.

 

1993- Symbolics, le cui vendite annuali sono cadute a dieci milioni di dollari dai cento di otto anni prima, richiede la protezione del Charter 11 [articolo della legislazione americana sulla bancarotta che in alcuni casi permette che le aziende in fallimento godano della possibilità di riorganizzarsi, al fine di evitare il fallimento stesso; il debitore rimane custode attivo dei propri beni e assume l’identità di “debitore in possesso”].

 

1997- Deep Blue, un supercomputer della IBM, batte il campione del mondo di scacchi Garry Kasparov in una serie di sei incontri. Poco dopo, nel corso di un programma televisivo, Dennet e Dreyfus analizzano a fondo il significato della vittoria.

 

1999- L’era delle macchine spirituali, di Ray Kurzweil, amplia le precedenti previsioni dell’autore. Kuzweil definisce l’evoluzione della macchina come un’estensione dell’evoluzione biologica e predice che alla fine del XXI secolo macchine ed esseri umani saranno indistinguibili.

 

2000- [Perché il futuro non ha bisogno di noi], un articolo dell’architetto Unix Bill Joy, pubblicato su “Wired”, fa eco alle preoccupazioni di Weizenbaum circa l’etica della scienza moderna e dell’intelligenza artificiale. Joy considera plausibile ed accetta la visione di Kurzweil di una tecnologia che si evolve libera dal controllo umano centralizzato, ma considera tale evoluzione pericolosa per l’umanità.

 

2000- [Mezzo manifesto], di Jaron Lanier, sfida sia le visioni da incubo di Joy sia le tecnoapocalissi di Moravec e Kurzweil. Si, dice Lanier, le macchine stanno diventando più potenti, ma la mente umana responsabile dello sfruttamento di quella potenza deve ancora superare ostacoli probabilmente insormontabili. Lanier si richiama all’affermazione di Dreyfus secondo cui l’intelligenza artificiale è più una fede di una scienza.   

 

Ampiezza di Internet. Google nel Marzo 2005 ha dichiarato di avere circa 8 miliardi di pagine formato A4. E’ stato valutato che queste pagine rappresenterebbero l’ 1% delle pagine di Internet che sarebbero dunque 800 miliardi. Ciascuna di esse va contata con la sua molteplicità, una stima prudente ci dice almeno due. Il totale sarebbe 1600 miliardi di pagine. Ciò equivale ad una catasta di fogli alta metà della distanza terra-luna. Una laser che li dovesse stampare tutti (20 pagine al minuto) impiegherebbe 150 mila anni, cioè dall’uomo di Neanderthal ad oggi.

 

Microchip impiantabili . Tra gli esseri modificati esistono le problematiche connesse ai microchip impiantabili, con un intervento neurochirurgico, nella corteccia celebrale responsabile del movimento degli arti.  La frontiera di questo settore prevede espansione della memoria umana e l’ampliamento delle facoltà uditive e visive. 

 

Lo sviluppo tecnologico.  L’uomo nuovo, in quanto uomo tecnologico, comunica in tempo reale con qualsiasi altro abitante del pianeta.

La trasmissione culturale ha la caratteristica di essere sia verticale, sia orizzontale. E’ verticale, in senso temporale, quando si tramanda da una generazione all’altra, dal padre al figlio, dal nonno al nipote.  La trasmissione orizzontale è invece tipica del rapporto atemporale, nelle stesso tempo e dauno a molti come nel rapporto tra il professore e gli alunni. Una terza caratteristica, tipica del nostro tempo, è la trasmissione digitale che si propaga attraverso le nuove tecnologie. Queste possibilità erano naturalmente assenti nelle società precedenti nelle quali vi erano scambi di informazioni di tipo statico. L’uomo di oggi da spettatore ignaro degli eventi è divenuto attore della scena del mondo globalizzato, infatti   oggi possiamo collegarci in rete indipendentemente da dove siamo fisicamente e scambiarci informazioni o parcheggiarle in rete. Non vi è dubbio che la creatività e l’innata facilità nella gestione delle nuove tecnologie sono in grado di innescare meccanismi cooperativi, di scambio ed un innalzamento della qualità delle informazioni di cui disponiamo.   

 

6.5. IL DESIDERIO DI CREAZIONE E L’UOMO MODIFICATO.

Immaginiamo l’uomo primitivo e le prime volte che esso ha preso conoscenza razionale del parto, forse più del parto in se che non della tecnica della riproduzione, in altre parole del parto più che dell’atto sessuale finalizzato alla creazione. E’ indubbio che fin dall’inizio abbia ritenuto la donna capace di qualcosa di sacrale e divino. E’ anche parere di molti, forse ipotesi di lavoro, che la divisione del lavoro sociale  tra uomini e donne, al tempo delle caverne, possa essere stato influenzato  dalla capacità della donna di riprodursi. Erano tempi nei quali l’istinto di sopravvivenza latente indicava la via del moltiplicarsi, la via contro l’estinzione era insita nel crescere numericamente. Così era conveniente che al sicuro nella caverna rimanessero molte donne e pochi uomini, così che cacciatori divennero gli uomini. Caso limite da narrare è quello della caverna nella quale rimangono tutti gli uomini con una donna, le donne invece vanno a caccia e in questa caccia nessuna ritorna: perdono tutte la loro vita. In tal caso la sopravvivenza del gruppo, necessariamente debole, è affidata a quell’unica donna che non potrà che partorire un solo figlio ogni nove mesi,  morti escluse. Al contrario se nella caverna rimangono tutte le donne con un sol uomo, la sopravvivenza nel caso di morte dei cacciatori, è fortemente assicurata con un bel numero di donne potenzialmente gravide da quel solo uomo.  Ci troviamo davanti ai misteri della Nascita, il desiderio nascosto dell’uomo. La donna procreava e l’uomo non procreava, l’uomo guardava il mistero della procreazione e rivestiva la donna di sacralità per questo. La procreazione, un mistero, ma anche lo specchio psichico di alcune dualità come il rapporto padre-figlio, dominante-dominato, maestro- allievo, assieme al desiderio di rubare alla donna, questa sua capacità sacrale. Così l’uomo nel trascorrere del suo tempo è stato di volta in volta tentato, usando la tecnologia di cui disponeva, a sopperire alla sua carenza di creatore. Appare chiaro come uno dei grandi problemi dell’uomo è stato quello della  creazione di un nuovo individuo. L’uomo più che la donna, noi pensiamo, è afflitto da questo problema. La creazione, considerata privilegio divino, è il desiderio conscio o inconscio di creare una qualche forma di vita, ovvero di modificarla secondo progetti precisi, ovvero di controllare una mente altrui, questo desiderio è connaturato con l’essere umano. Recentemente si è molto parlata della inseminazione artificiale dell’uomo ed ampi dibattiti etico-politici sono nati sull’argomento. Anche la creazione della vita in provetta sembra aver realizzato alfine il vecchio homuncolus degli alchimisti.

Altro grande problema, vicino al creare,  è il trasformare gli oggetti del creato. Su questo fronte hanno dominato due aspetti. L’aspetto magico-letterario che hanno prodotto nell’immaginario collettivo le figure dell’homuncolus degli alchimisti, del Golem di Praga, del mito di Frankstein, del Vampiro e quant’altro. All’aspetto suddetto si contrappongono tecniche dei trapianti. Per individui in difficoltà sono stati studiati tutori meccanici, poi elettronici e poi ancora computerizzati sempre più sofisticati che vanno da arti artificiali a valvole cardiache artificiali e quant’altro. Si possono, ad esempio, eseguire  trapianti di organi come gli occhi, il cuore, i reni, il fegato ed altro ancora da persona a persona, recuperando organi da persone appena decedute. Da evidenziare anche un aspetto psicologico-biologico, molto concreto, che in parte si lega ad una educazione speciale indotta nell’individuo da trasformare/educare e in parte è connessa  all’antica tecnica della selezione applicata al campo animale e al campo vegetale. Si sceglievano un padre ed una madre biologicamente caratterizzati nella speranza che la loro prole riunisse le caratteristiche genetiche di entrambi. Recentemente a questa antica tecnica, derivante dalla coscienza del Darwinismo, si sono affiancate le nuove tecniche delle biotecnologie e dell’ingegneria genetica, che operando interventi sul DNA, hanno condotto ai cosiddetti organismi geneticamente modificati. 

Creare nuovi esseri biologicamente ed artificialmente, trasformare un essere umano con il pensiero, con la biologia  o in altro  modo. 

Le leggende sulle trasformazioni sono interessanti ed antiche. Le traformazioni erano racconti mitologici di eventi mai avvenuti e la cui credenza fortificava la potenza degli Dei. Una delle storie più antiche è la leggenda di Cadmo, che seppellì dei denti di drago nella terra, denti che  si trasformarono, generarono se si vuole, valenti soldati.  Nell’estremo Nord canadese e nella Groenlandia occidentale, le leggende Inuit raccontano di Tupilaq (o Tupilak), che può essere creato da uno stregone per dare la caccia e uccidere un nemico. Usare un Tupilaq per questo scopo può essere un’arma a doppio taglio, in quanto una vittima abbastanza ferrata in stregoneria può fermare un Tupilaq e “riprogrammarlo” per cercare e distruggere il suo creatore. In questo mito si badi è insita una idea di programmare e riprogrammare oggi a noi molto vicina.

 

Nelle favole il tema è centrale: la Bella addormentata nel bosco, simbolo della donna che si risveglia all’amore, Cenerentola, simbolo della donna che emerge da un ceto servile al rango di principessa, Pinocchio che da essere di legno diviene un “razionale bambino”.

 

Interessante l’idea contenuta nel Pigmalione di George Bernard Shaw (1856-1950), che ha fatto si che la parola “Pigmalione”  divenisse uno stereotipo di un genere di operatore delle  trasformazioni dell’essere umano: il plasmatore psicologico.

 Nella sua commedia sociale: Pigmalione”, G.B.Shaw, con il suo stile fuorviante,  comincia con il dire che la sua prefazione è più una conclusione che una presentazione.  Il suo obiettivo è insegnare agli inglesi a far parlare bene i propri bambini e quindi la sua è una commedia didattica sull’importanza della fonetica. La trasformazione di Eliza Doolittle, punto centrale della commedia, che fa della donna una novella Cenerentola, è puramente psicologica, Eliza viene plasmata e plagiata. Si legge: 

 

…  non hai idea di quanto sia interessante prendere un essere umano e trasformarlo in un individuo completamente diverso, fornendogli un nuovo linguaggio. Significa riempire il profondissimo baratro che separa classe da classe e psiche da psiche. …(G.B.Shaw, Pigmaliaone, 1914)

 

Il citato Pigmalione ha una sua lunga ed interessante storia. L’archetipo dell’essere artificiale ma anche dell’androide può in certo modo essere rintracciato fin dalle storie della mitologia greca. Pigmalione nasce come personaggio mitologico, ed è re di Cipro e scultore. Aveva rinunciato a prendere moglie, disgustato dalle donne. Quando però scolpisce la statua della fanciulla Galatea, se ne innamora perdutamente come sua donna ideale e la porta nel suo letto. Chiede agli Dei di avere una donna bella come la sua statua e  Afrodite lo accontenta e trasforma Galatea in donna. Dalla loro unione nasce Pafo, che fonderà l’omonima città sull’isola di Cipro. (Ovidio, Le Metamorfosi, Libro X). La mitologia di Pigmalione ha ispirato vari autori per i quali il riferimento mitico consiste nella metafora della trasformazione di un individuo in un nuovo essere.

Per tornare al dibattito sull’uomo trasformato mediante implicazioni socio-psicologiche è importante ritornare sul mito di Pigmalione e sulla rilettura che ne ha fatto G. B. Shaw

G.B. Shaw con il suo anticonformismo e la sua satira dei suoi lavori fu uno dei maggiori critici dei costumi dell’Era vittoriana. Ricordiamo tra le opere: Le case del vedovo, La professione della signora Warren, Le armi e l’uomo, Candida, Cesare e Cleopatra, Il maggiore, Barbara, Pigmalione (1914), Androceo e il leone, Santa Giovanna, La quintessenza dell’ ibsenismo, Il perfetto wagneriano. Ottenne il Premio Nobel per la letteratura nel 1925.

La Commedia Pigmalione (1914) è chiaramente un interessante  specchio della gerarchia sociale e umana nella quale alto e basso ceto convivono, si scambiano facilmente  le parti specie passando  da un  ruolo sociale ad una  figura morale, ci sono presentati conflitti generazionali di inaudita violenza, mascherata da una sorta di cattiveria , vissuta con contegno simil-aristocratico.

Prendendo solo vagamente l’idea dal Pigmalione mitologico, la commedia di Shaw è la storia di due studiosi, Pickering e Higgins, che si occupano delle variazioni fonologiche nei ceti bassi della società.

Essi scommettono di poter educare Eliza Doolittle, una sguaiata fioraia, nel tempo breve di poche settimane. Il loro obiettivo è condurla ad  un ballo di ambasciata senza che nessuno possa riconoscere il vero status sociale della bella ragazza. La cosa riesce alla perfezione, Eliza viene scambiata per una principessa ungherese che ha imparato un inglese tanto buono da sembrar finto.

… la differenza tra una signora e una fioraia non consiste nel modo in cui si comporta,  ma nel modo in cui viene trattata….

Eliza fa parte di un’altra classe e, anche quando la scommessa è formalmente vinta, rimane comunque un’estranea al mondo di Pickering e Higgins . Feroce stilettata contro le convenzioni borghesi di una vita nient’affatto genuina, con gli atteggiamenti dei personaggi al ballo che si chiedono se sia “vera” o “falsa”, al punto da convergere in conclusioni in certo modo simili al teatro del grottesco. Infatti la donna si offende abbastanza anche della cinica  soddisfazione dei due amici, i quali considerano l’operazione solo una loro vittoria personale e non premiano, magari con un finale  galante, gli sforzi e l’impegno intelligente della bella Eliza.

L’opera di Shaw  ha ispirato il  musical My Fair Lady

Anche il mondo operistico si impossessò dell’idea del Pigmalione mitologico. Infatti Pigmalione è un dramma in un Atto, che Gaetano Donizetti compose tra il settembre e l’ottobre del 1816, su libretto di Antonio Simeone Sografi. Il soggetto, tratto dalle Metamorfosi di Ovidio, era già stato utilizzato da Jean Jacques Rousseau e rappresentato a Lione nel 1770. Donizetti si servì della versione del Sografi, scritta per l’opera di Giovanni Battista Cimador (1790) e per un lavoro di Bonifacio Asioli (1796), che figuravano, insieme al testo di Rousseau, tra i libri del Liceo bolognese. La prima rappresentazione del Pigmalione è postuma e avvenne a Bergamo, per il XVII Festival delle novità del Teatro Donizetti, il 13 ottobre 1960.

 

(il bagliore di un fulmine illumina la statua e Pigmalione, vedendola animarsi, si allontana spaventato)

Numi che veggo, Numi che mai ravviso tinte di carne ha in viso. Galatea il mio tesoro a poco a poco stende la mano … il piè negl’occhi ha il foco. Povero Pigmalione, non v’è più speme hai la ragion smarrita non v’è più che sperar. (aggirandosi per la scena si trova presso Galatea e, vedendola fare alcuni movimenti più decisi dice)

Smanio, deliro, deliro e fremo. Ah quest’è di una vita il punto estremo. (GALATEA fa alcuni passi con incertezza, si guarda attorno e dice)

Io … (PIGMALIONE sorpreso s’inginocchia)

Io … Numi dei ciel Venere Galatea?

(Galatea si avvicina a Pigmalione, si ferma, lo guarda  e gli dice)

Di chi son io’? (PIGMALIONE)

Tu sei l’idolo mio. Cara tu l’opra sei di mia man del mio core e degli Dei.

 

Ulteriori elementi di metafora sulla creazione di un nuovo individuo  li rinveniamo nellopera del  commediografo comasco Massimo Bontempelli (1878-1960) che mostrò nelle sue opere un certo interesse per due tematiche della creazione dell’uomo artificiale quali la persona plagiata e la persona che, affetta da schizofrenia, si identifica in un personaggio differente. Tra le sue opere ricordiamo: Nostra Dea (1925), Minnie la candida (1927), Vita e morte di Adria e dei suoi figli (1930), Gente del tempo (1937). 

Nella commedia  Nostra Dea (1925), che diede a Bontempelli un autentico successo,  con repliche continue in Italia e in Francia  che registravano sempre il “tutto esaurito”. Il suo personaggio Dea è una donna che cambia carattere a ogni cambio d’abito senza riuscire ad acquisire una propria personalità e nemmeno una chiara fisionomia, interpretando il ruolo di un corpo senza storia.

In Minnie la candida (1927), la protagonista di Bontempelli viene convinta da un amico dell’esistenza di esseri non umani. Minnie, personaggio che mostra difficoltà a distinguere la realtà dalla fantasia, accetta a tal punto l’esistenza dei Robot da convincersi di essere essa stessa un robot. La convinzione la condurrà ad uno stato di disperazione, la disperazione di non essere “vera”, per questo  si ucciderà. 

 

6.6. IL DESIDERIO DI CREAZIONE DELL’ESSERE ARTIFICIALE : LETTERATURA E FILMOGRAFIA

 

Da aggiustare ed aggiungere film in elenco:

2001, Odissea nello spazio

Android

Atto di forza

Blade Runner

Brainstorm – Generazione Elettronica

C.h.o.m.p.s. Supercane Robot (1979)

Classe 1999

Corto Circuito

Cyborg

Cyborg – Il Guerriero d’Acciaio (1989)

Cyborg 2 (1993)

Cyborg, Anno 2087 – Metà Uomo, Metà Macchina… Programmato per Uccidere (1966)

D.A.R.Y.L. 

Dark Star 

Electric Dreams

Eliminators (1986)

Futurekick (1991)

Futureworld – 2000 Anni nel Futuro (1976)

Generazione Proteus

Guerre stellari

I.A.

Il 6° giorno

Il colosso di New York

Il Mondo dei Robot

Il Pianeta Proibito

IL ROBOT E LO SPUTNIK

Il Tagliaerbe

Io, Robot

Johnny Mnemonic 

Knights – I Cavalieri del Futuro (1992)

L’uomo bicentenario

L’uomo meccanico

L’uomo terminale

La fabbrica delle mogli

La Guerra dei Robot

Matrix

Matrix Reloaded

Matrix Revolutions 

Metropolis

Metropolis – Animazione 

Natural City (2003)

Nirvana

Robocop

Robocop 2

Robocop 3

Robot Holocaust

Robots (2004)

Saturn 3

Simone

Sky captain and the world of tomorrow

Solo (1996)

Stealth – Arma suprema

Strange Day

Terminator

Terminator 2 – Il giorno del giudizio

Terminator 3- –  Le macchine ribelli

 

 

L’immaginario fantastico collettivo, che si esprime nella leggenda mitologica,  nella letteratura e più di recente nei film  è costellato da creature artificiali fantastiche e non, perfettamente in grado di svolgere i compiti dell’uomo e magari anche di imitarne i pensieri e gli atteggiamenti . L’intera storia dell’uomo è costellata di leggende, racconti, tentativi letterari ed artistici dei desideri del creare l’uomo  e naturalmente dei fallimenti e paure legate a questa ipotetica creazione. Il sogno perenne dell’uomo a riprodursi artificialmente ha i suoi  primi segni  in alcuni miti e in diverse leggende. Tra le varie risposte letterarie al concetto di essere artificiale una ampia parte della letteratura  riflettè le paure che gli esseri umani avrebbero potuto essere rimpiazzati dalle loro stesse creazioni, siano esse creature magiche, ovvero meccaniche, ovvero da trasformazioni di vario genere quali anche le cosiddette mutazioni genetiche. 

Ancora gli automi metallici, simulanti il femminile, al servizio di Efesto (Hephaestus),  il dio del fuoco e dio del metallo identificato dai romani nel deforme Vulcano,  e che incontriamo nell’Iliade e nella mitologia classica.  Si narra che il deforme Vulcano ebbe a realizzare  nelle sue fonderie numerosi  serventi meccanici, anche  con sembianze non umane quali tavoli a tre gambe, dotati di volontà propria,  che potevano quindi spostarsi, sia con sembianze umane che andavano dai utilitaristici e tenaci operai fino alle  bellissime ed  intelligenti damigelle meccaniche, citate sopra, finemente vestite con abiti dorati.

1200

Il termine androide risalirebbe al filosofo, teologo e scienziato S. Alberto Magno (1204-1282), che lo utilizzò per definire esseri viventi creati dall’uomo per via alchemica. Una leggenda vuole Alberto Magno costruttore di un vero e proprio androide in metallo, legno, cera, vetro, cuoio, con il dono della parola, che avrebbe dovuto svolgere la funzione di servitore presso il monastero domenicano di Colonia.

Il Golem è un uomo allo stadio primitivo,   protagonista di una vecchia leggenda ebraica, narrata nel ghetto di Praga. L’essere può essere pensato nella fase di un simulacro di fango e creta, una statua d’argilla, in attesa di ricevere il soffio divino che lo trasformerà in una creatura dotata di libero arbitrio. Circa la creazione, si legge in un passo del Talmud,  cioè di quel mastodontico complesso delle interpretazioni di tutte le  tradizioni e delle leggi  ebraiche:

 

                                   “ …il giorno fu di  dodici ore, nella prima la polvere (di Adamo)

                              venne  raccolta;  nella  seconda  ne  fu  fatto  un  Golem, nella terza

                             (gli)  furono  estese le membra; nella  quarta fu infusa in lui l’anima ….”

                                                                                                Rabbi Johanan bar Hanina

 

Nel caso della leggenda il Golem prenderà vita grazie alla magia cabalistica e non alla tecnologia scientifica. Fin dall’XI secolo in Germania, Polonia, Cecoslovacchia si diffuse la leggenda che alcuni rabbini, particolarmente esperti nella Cabala, sarebbero stati in grado di dar vita ai Golem, precursori dei moderni aneroidi,  tracciando sulle loro fronti i caratteri alif, mem e thaw (i caratteri del nome Adamo). I Golem sarebbero stati utili servitori specie se le loro dimensioni fossero state piuttosto ridotte, Ma una loro caratteristica era quella di crescere a dismisura, diventare ingovernabili e quindi da molti considerati temibili creature.  I Rabbini, nella leggenda, per neutralizzare il golem lo inducevano ad inginocchiarsi e gli cancellavano il primo simbolo alif, così che il residuo di leggeva meth cioè morte. La conseguenza era la perdita del soffio vitale e la caduta a terra del golem senza più vita. La leggenda a partire dal XVII secolo si sposta nella Praga magica del ghetto ebraico e del suo rabbino, il grande  Rabbi Loew, capace di infondere vita al Golem. Alla leggenda praghese è ispirato il libro “Der Golem”  di Gustav Meyrnink (1863- 1932), pubblicato nel 1915 e del quale Franz Kafka (1883-1924), che nel ghetto ebraico di Praga era vissuto,  ebbe a dire che … l’atmosfera dell’antico quartiere ebraico diPraga vi è descritto meravigliosamente.  Il Golem di   Rabbi Loew si attiva con una parola infilata tra i denti che gli conferisce una vita molto provvisoria. L’uso dei bigliettini con parole è quello tradizionale in uso al cimitero ebraico di Praga, usato dai parenti per mandare messaggi ai cari defunti. Il Golem di Rabbi Loew ha una forza incredibile e poche ore di via il è Il Golem è In questo caso si tratta di che prende vita

 

1842

Una versione più moderna del Golem lo vede costruito come una specie di androide, nella novella di U.D. Horn (Der Rabby von Prag, 1842) e nel libretto di F. Hebbel per il dramma musicale di Arthur Rubinstein Ein Steinwurf (1858): il Golem viene qui rappresentato come un uomo-macchina di legno con un meccanismo ad orologeria all’interno della testa. La leggenda del Golem viene infine ripresa e resa famosa dal romanzo Il Golem (Der Golem) del 1915 dello scrittore e occultista praghese Gustav Meyrink.

1818

Nella letteratura il primo classico riferito alla creazione di un essere umano artificiale è in genere considerato il romanzo Frankenstein (1818) di Mary Wollstonecraft Shelley , che viene spesso definito il primo romanzo di fantascienza, è divenuto un sinonimo di questa tematica. La creatura del dottor Frankenstein era assemblata con parti di cadaveri, utilizzando per infonderle la vita una strumentazione scientifica e l’energia elettrica, studiata solo da pochi anni da Alessandro Volta.

 

1883

Impossibile non citare il racconto dell’italiano Collodi del 1883, Le avventure di Pinocchio, in cui un bambino di legno prende vita. La storia, pur non utilizzando elementi strettamente fantascientifici, contiene i temi fondamentali dei successivi racconti sugli esseri costruiti artificialmente.

Tuttavia questi precursori artificiali non sono ancora dei robot o degli androidi od automi che dir si voglia.  Nel linguaggio comune, un robot è un’apparecchiatura che esegue compiti automatizzati, sia in base ad una supervisione diretta dell’uomo, che per un programma predefinito. Questi compiti vanno a rimpiazzare o migliorare il lavoro umano, come nella fabbricazione, costruzione o manipolazione di materiali pesanti o pericolosi. Così nell’immaginario collettivo, il termine robot viene usato per indicare un uomo meccanico, o un automa che somigli a un animale (reale o immaginario). Il termine ha finito per essere applicato a molte macchine che sostituiscono direttamente un umano o un animale, nel lavoro o nel gioco. In questo modo, un robot può essere visto come una forma di biomimica. L’antropomorfismo è forse ciò che ci rende così riluttanti a riferirci a una moderna e complessa lavatrice, come a un robot. Comunque, nella comprensione moderna, il termine implica un grado di autonomia che escluderebbe molte macchine automatiche dal venire chiamate robot. Si tratta oggi di esaminare dei desideri inespressi dell’affrontare  una ricerca per tentare di costruire o almeno di immaginare in letteratura dei  robot sempre più autonomi, e quindi disquisire sulla loro futuribile sociologia e sugli aspetti di possibili relazioni ed interazioni con l’uomo, argomenti questi che costituiscono una ricerca guida su gran parte del lavoro sull’intelligenza artificiale e sulla robotica.

 

1886

Il primo ad utilizzare il termine androide in un romanzo si ritiene che fu il francese Mathias Villiers de l’Isle-Adam (1838-1889) nella sua opera più celebre, Eva futura (L’Ève future, 1886), nel quale il protagonista è addirittura T. Edison, il quale inventa una donna artificiale quasi perfetta.

 

1920

Il termine Robot, è un’invenzione letteraria successiva, risalente al primo novecento.  Il termine deriva dal termine ceco robota, che significa “lavoro pesante” o “lavoro forzato” ed anche  dal verbo ceco roboti (“lavorare”). L’introduzione del termine appare nel dramma fantascientifico in tre atti dello scrittore  ceco Karel Čapek (1890-1938), R.U.R. (Rosumovi Umělí Roboti) del 1920. Il romanzo più noto con il titolo inglese  Rossum’s Universal Robots, termine interessante e che mantiene l’acronimo R.U.R. del titolo (lett. “Robot Artificiali Rossum”). Il dramma è famoso per ritenersi che in esso sia stato introdotto, per la prima volta, il termine robot. In realtà non fu Čapek il vero inventore dell’idea e forse nemmeno della  parola. L’idea, infatti, gli venne suggerita dal fratello Josef, scrittore e pittore cubista, il quale aveva già affrontato il tema in un suo racconto del 1917, Opilec (“L’ubriacone”),   nel quale  aveva usato il termine automat, “automa”. La diffusione del romanzo di Čapek, in effetti molto popolare sin dalla sua uscita, servì a diffondere realmente il termine Robot, pensato ed utilizzato come forza lavoro a basso costo. ; , e sono pensati e utilizzati come forza lavoro a basso costo..

 

.

Nel dramma vanno in contrasto l’incauta  utopia  di liberare l’umanità dalla schiavitù della fatica fisica,  vagheggiata dal progettista della Rossum, Mr. Domin, con gli effetti catastrofici prodotti dalla comunità liberata, che mal  reagisce male, dedicandosi al  vizio e cadendo nell’indolenza e nell’apatia, rasentando addirittura l’estinzione. La moglie di Domin, Hellen Glory, riesce a distruggere  i progetti  per la fabbricazione degli androidi, mostrando la chiara superiorità dell’intuito  femminile sulla razionalità del progettista. Il finale è drammatico in quanto assistiamo alla scena nella quale gli androidi più evoluti, Helena e Primus, si scambiano preoccupanti effusioni in una lunare romantica sera per concludere con una simulata riproduzione umana.

La procedura di costruzione degli androidi (robot) nella fabbrica Rossum, peraltro piuttosto anacronistica,  comprende macchine per impastare e tini per il trattamento di protoplasma chimico nel quale gli aneroidi prendono vita. Nel  dramma, anticipando anche aspetti che ci dovevano divenire familiari, si parla di una catena di montaggio nella quale dei  robot  costruivano altri robot.  Si legge:

« Il vecchio Rossum, grande filosofo,   […]   cercò di imitare con una sintesi chimica la sostanza viva detta protoplasma finché un bel giorno scoprì una sostanza il cui comportamento era del tutto uguale a quello della sostanza viva sebbene presentasse una differente composizione chimica, era l’anno 1932   […].   Per esempio, poteva ottenere una medusa con il cervello di Socrate oppure un lombrico lungo cinquanta metri. Ma poiché non aveva nemmeno un pochino di spirito, si ficcò in testa che avrebbe fabbricato un normale vertebrato addirittura l’uomo.   […]   Doveva essere un uomo, visse tre giorni completi. Il vecchio Rossum non aveva un briciolo di gusto. Quel che fece era terribile. Ma dentro aveva tutto quello che ha un uomo. Davvero, un lavoro proprio da certosino. E allora venne l’ingegner Rossum, il nipote del vecchio. Una testa geniale. Appena vide quel che stava facendo il vecchio, disse: È assurdo fabbricare un uomo in dieci anni. Se non lo fabbricherai più rapidamente della natura, ce ne possiamo benissimo infischiare di tutta questa roba. […] Gli bastò dare un’occhiata all’anatomia per capire subito che si trattava d’una cosa troppo complicata e che un buon ingegnere l’avrebbe realizzata in modo più semplice.   […]   Quale operaio è migliore dal punto di vista pratico? È quello che costa meno. Quello che ha meno bisogni. Il giovane Rossum inventò l’operaio con il minor numero di bisogni. Dovette semplificarlo. Eliminò tutto quello che non serviva direttamente al lavoro. Insomma, eliminò l’uomo e fabbricò il Robot. »

(Brano estratto da R.U.R. di Karel Čapek)

 

I  robot di Čapek, comunque,  erano uomini artificiali ma organici, in realtà dei replicanti, nel senso usato da Philip K. Dick, uno degli autori di fantascienza che hanno maggiormente scritto sugli androidi.   Dal  romanzo di Dick  Il cacciatore di androidi è tratto il film Blade Runner (1982), che presenta un vivido ritratto di replicanti che aspirano a quella vita umana loro ineluttabilmente negata. I replicanti di Dick, come gli androidi di Čapek, sembrano anticipare come prodotto letterario i risultati di quella scienza che oggi chiamiamo ingegneria genetica. Gli uni e gli altri appaiono  comunque  differenti dai robot dell’immaginario collettivo.

Il tema naturalmente oltre a prendere  sfumature politiche e filosofiche, indica chiaramente tutte le paure  e le angosce che gli esseri umani hanno allora che si ventili la possibilità che possano essere  rimpiazzati da esseri artificiali che loro stessi hanno creato. Nel seguito tuttavia la parola robot viene quasi sempre usata per indicare un uomo meccanico. Il termine androide (dal greco anèr, andròs, “uomo”, e che quindi può essere tradotto “a forma d’uomo”) può essere usato in entrambi i casi. Nell’ambito della fantascienza il termine ginoide , peraltro scarsamente utilizzato, indica invece un essere artificiale dalle sembianze apparentemente e a volte realmente femminili. (Cfr.  Il romanzo di fantascienza del 1992 Richard Calder, Virus ginoide (titolo originale: Dead girls) ).

 

Pur avendo inserito numerosissimi robot antropomorfi nella sua sterminata produzione di racconti e romanzi, Asimov tuttavia non usa in genere il termine androide, reso popolare solo negli Anni cinquanta quando apparve in alcuni racconti di Jack Williamson.

, Io Robot (2005) .

Il termine “robotica” venne usato per la prima volta (su carta stampata) nel racconto di Isaac Asimov intitolato Circolo vizioso , o anche Girotondo,  (Runaround, 1942), presente nella sua famosa raccolta Io, Robot (1984).  Nella introduzione al suo romanzo Abissi d’acciaio, Asimov dichiara che, per quanto fosse di sua conoscenza, il termine robotica è stato da lui introdotto, in quel romanzo, per la prima volta nella storia del mondo. Nella narrativa, la preoccupazione e la paura che i robot potessero competere con l’uomo e magari sopraffarlo o addirittura sterminarlo è molto comune. Tra il 1940 e il 1941 Isaac Asimov, con la collaborazione del mitico editore di Astounting,   J. Campbell, elabora le mitiche tre leggi della robotica, divenute un punto fermo della letteratura sui robot.  Asimov sempre nel romanzo Abissi d’acciaio e nella serie di racconti Io, Robot, le enunciò sempre più chiaramente con l’idea di controllare, almeno dal punto di vista letterario, le relazioni  fra robot ed esseri umani:Un robot non può arrecare danno a un essere umano, o, per inazione, permettere che un essere umano subisca danno.

Un robot deve eseguire gli ordini che riceve dagli esseri umani, ma non quando tali ordini inteferiscono con la Prima Legge.

Un robot deve proteggere se stesso, finché la sua autodifesa non interferisce con la Prima o la Seconda Legge.

Purtroppo la soluzione del problema non è così semplice: Asimov stesso e i suoi successori hanno basato molti dei loro  racconti e romanzi sull’applicabilità/inapplicabilità  e sull’insufficienza delle Tre Leggi, costruendo anche la Legge Zero e la Quarta Legge.

La Legge Zero (numerazione ispirata chiaramente ai principi della termodinamica) appare nel romanzo di Asimov dal titolo Fondazione Anno zero (Forward the Foundation, 1993), edito dalla Mondadori nel 1993.

  1. Un robot non può fare del male all’umanità, o tramite l’inazione permettere che l’umanità ne riceva danno.

Il romanzo fa parte del ciclo della Fondazione ed è il qunto dei sei romanzi (i primi tre degli anni ’50 e i secondi tre degli anno ’90). Nel romanzo si narra del periodo in cui Hary Seldon , futuro scienziato della psicostriografia, subentra, come primo ministro , allo statista Eto Demerzel sotto il regno dell’imperatore Cleon I. In realtà Demerzel non è umano ed è l’androide/robot Daneel Olivaw che da ventimila anni (dal tempo del romanzo Abissi d’acciaio, op.cit.) agisce sotto varie spoglie per aiutare il pacifico sviluppo del genere umano. Il contrasto tra Legge Zero e Prima Legge aumenterà sempre più il senso di inadeguatezza che questo custode dell’umanità ha nella sua logica individuale conducendolo allo spegnimento dopo aver suggerito all’umanità l’ultima grande conquista: la psicostoria.  

La quarta legge della robotica (The Fourth Law of Robotics, 1989)  è un racconto di Harry Harrison (cfr. M.H. Greengberg (a cura di), Gli amici di Fondazione, Sperling & Kupfer, 1990) ) nel quale la protezione che un robot deve avere per via dell Terza Legge si trasforma nella sopravvivenza della specie dei robot e quindi nella riproduzione dei singoli. La Quarta Legge si enuncia: 

  1. Un robot deve riprodursi, posto che tale legge non sia in contrasto con la Seconda e Terza Legge.

Esempi famosi di androidi nella cinematografia e nelle serie televisive:

Il robot femmina del film Metropolis (1927) per la regia di Fritz Lang

Il simpatico androide protocollare C-3PO (D-3BO) di Guerre Stellari (1976)

Roy Batty, condannato ad una breve esistenza e ribelle in Blade Runner (1982) di Ridley Scott, ispirato al romanzo Cacciatore di androidi di Philip K. Dick

L’androide assassino protagonista di Terminator (1984) e dei due seguiti, che però è più propriamente un cyborg

Il bambino artificiale in AI – Intelligenza Artificiale (2001) di Steven Spielberg

Il tenente comandante Data è un membro dell’equipaggio dell’astronave Enterprise nella serie televisiva di fantascienza Star Trek: The Next Generation e in alcuni film derivati dalla serie stessa.

Ancora il termine cyborg (“organismo cibernetico” o “uomo bionico”) indica una creatura che combina parti organiche e meccaniche. Ancora problematiche come la paura del Robot, l’indipendenza del robot, il potere del Robot si trovano ulteriormente disseminate in film classici come Metropolis (1927), il popolare Guerre Stellari (1977), Blade Runner (1982) ,  Terminator Nel 1976 Asimov scrive L’uomo bicentenario, la storia di un robot che vuole diventare umano a tal punto da fare ciò che differenzia gli esseri umani dai robot: morire.

Vale la pena di visionare il film “The Mask” di Charles Russel con Jim Carey e Cameron Diaz, uno dei prototipi del fenomeno effetti speciali, computerizzati, in questo caso decisamente esagerati.

Presente soprattutto nell’immaginario fantascientifico, il termine cyborg o uomo bionico indica un essere di forma umanoide costituito da un insieme di organi artificiali e organi biologici.

Il termine nasce dalla contrazione di cybernetic organism, e fu reso popolare attorno al  1960 in riferimento all’idea di un essere umano potenziato per sopravvivere in ambienti extraterrestri inospitali, chiave per varcare la nuova frontiera dell’esplorazione spaziale del futuro prossimo. L’idea esprime anche la tendenza naturale degli esseri umani di ricostruirsi, attraverso la tecnologia, allo scopo di distinguersi dalle altre forme biologiche del pianeta. L’dea soggiacente o se si vuole il  progetto naturale che ne deriva ha origine nelle prime forme di manipolazione del corpo umano e continua oggi con l’utilizzo di protesi tecnologiche ed organi artificiali e con  lo sviluppo dell’ingegneria genetica. Il confine tra essere umano e cyborg è sempre più sfumato, basti pensare che una persona dotata di un pace-maker potrebbe infatti già corrispondere alla definizione di cyborg.

A seconda della loro origine, è tuttavia possibile distinguere i cyborg in due categorie:

Esseri umani potenziati. Può trattarsi di un essere umano che ha subito consistenti modificazioni ed innesti. Esempio: il protagonista del film Robocop è un poliziotto che, ucciso in servizio, viene fatto resuscitare in forma di cyborg.

androidi, cioè robot umanoidi, provvisti di apporti biologici, spesso allo scopo di aumentare la loro somiglianza con l’essere umano. È il caso del cyborg assassino protagonista del film Terminator (1984) e dei due seguiti.

L’idea condivisa e coltivata  da scrittori di  fantascienza “ cyberpunk”,  risalente ai  primi anni ’80, appare nei romanzi di William Gibson, ove i personaggi sono  spesso dotati di innesti artificiali che ne potenziano la forza ed altre capacità. L’icona in questo caso è Molly, la guardia del corpo dotata di riflessi potenziati e fibre muscolari artificiali, che si è fatta togliere gli occhi per sostituirli con delle inquietanti lenti a specchio saldate alle orbite oculari.

Esempi famosi di cyborg nella cinematografia e nella TV sono:

 Terminator (1984) e i due seguiti

Robocop ed il seguito Robocop 2

I protagonisti della serie tv degli anni 1970 L’uomo da sei milioni di dollari e del suo spin-off, La donna bionica

I Borg, terrificanti nemici del genere umano apparsi nella serie tv Star Trek: The Next Generation

 

         Verso quale futuro ci avviamo ?  L’impressione che si ha, almeno che ha l’uomo della strada attento al mondo che lo circonda è che, nel bene e nel male, ovvero in modo meno dicotomico con una visione etica variabile ed individualizzata, occorra guardare ai seguenti scenari pronti a divenire registri di comportamento:

 

Il sesso tende a divenire un’attività esclusivamente ricreativa, non più necessariamente finalizzato alla riproduzione. Ci appare sempre più anacronistico lo sforzo di quelle piccole comunità che si ostinano a predicare il non controllo delle nascite con atteggiamenti, sia pur leciti, ma del tutto antistorici. Non tutti siamo in accordo ma ci si avvia, a grandi passi,  verso la clonazione. E’ l’idea che l’uso e la diffusione della pillola antifecondativa e della riproduzione in vitro, primo passo della riproduzione assistita,  hanno di fatto già cambiato lo scenario della riproduzione così come il viagra e simili hanno cambiato lo scenario della sessualità.

Il sequenziamento del DNA realizzata alla fine degli anni’90, l’impresa epocale accelerata dalla genialità di J. Craig Venter, è uno dei capisaldi scientifici delle nuove visioni e del tentativo di controllo e gestione della vita. Il programma di Venter ad isolare i geni comuni dai batteri agli esseri umani, definire i geni di base per cambiare il corso naturale dell’evoluzione, evitare il collasso del pianeta ma anche usare i gni dei batteri per eliminare le scorie radioattive e decontaminare le acque.

E’ da pensare che i  bambini del futuro potranno nascere, forse dovranno nascere, da embrioni umani prodotti “ad hoc” con tratti genetici su misura progettata e dotati di serbatoi di geni di riserva attivabili e disattivabili come i programmi di un personal computer.

Sarà possibilità  aumentare, con opportuni chip impiantati nel cervello,  le potenzialità del quoziente intellettuale. Si pensa che per questo debbano trascorrere ancora un centinaio d’anni.

Assisteremo ad un probabile allungamento della vita umana, non della vita in quanto tale, ma della vita sana ed attiva. Dal processo dovrebbe sorgere una umanità più intelligente, più forte e magari anche più affascinante.Tutto ciò  a causa di nuove cure, legate alla produzione e all’uso delle cellule staminali, risolvendo anche in modo imperfetto le questioni legate agli aspetti etici.  Si pensa che nel futuro si possa intervenire sui cromosomi in maniera da arricchirli da moduli protettivi e combattere la vecchiaia, le difficoltà cardiache, le difficoltà renali, il diabet, il parkinson e l’alzaimer ma anche  la fatica e migliorare la capacità  lavorativa.  La vita media è in aumento ed alcune proiezioni  indicano che alcuni nati oggi sarebbero candidati ad una vita di circa 150 anni.

Il sorgere di una forma di inscindibilità operativa del nuovo attore binomio  uomo-macchina nel quale la componente macchina diviene una estensione della componente uomo il quale affida suoi compiti vitali e suoi potenziamenti alla macchina per fornire la sua capacità caratteristica : il cervello. Più che l’idea fantascientifica di “uomo bionico” occorre pensare alla sostituzione di arti e organi danneggiati con arti e organi artificiali, e a chip sottopelle che servano a controllare e monitorare eventuali situazioni a rischio ma anche stimolare la produzione di enzimi ovvero l’emissione di ormoni.  

Non è impensabile che in futuro potranno essere esaltate in gruppi di individui aspetti della personalità e della fisicità  in grado di produrre gruppi in grado di amplificare aspetti specifici della condizione dell’uomo.

Probabilmente stiamo vivendo un periodo di generazioni di transizioni tra una vita che in futuro sarà sensibilmente più duratura. Vi sarà necessariamente una revisione dei periodi di lavoro non pensionabili, la concezione della famiglia che vedrà convivere quattro e forse anche cinque generazioni, i problemi matrimoniali, l’idea di eredità e trasmissione dei beni, nasceranno le “mode biologiche” e gli aspetti umani secondari quale colore degli occhi, dei capelli, della pelle, l’altezza e perfino l’intelligenza potranno essere controllati.   

 

1.7. PRODROMI DI INTELLIGENZA ARTIFICIALE: I PICCOLI ROBOT DELL’ANTICHITÀ

 

L’intera storia è costellata di tentativi reali, letterari ed artistici e naturalmente da fallimenti e paure. Senza andare nei meandri di analisi più profonde del necessario relativo al nostro contesto riteniamo indicare che questi esseri spesso nella fantasia specie letteraria sono stati vissuti come i nuovi schiavi del lavoro capaci anche di ribellione al loro sfruttamento e talvolta anche capaci di reazioni molto differenti dall’atteggiamento umano per le loro differenze costruttive specie di tipo biologico. Naturalmente in questa visione pessimistica si ravvisa in ipotesi sulle future convivenze con un progresso tecnologico, se progresso è, incerto e incomprensibile al grande pubblico.  

Un fenomeno, risalente all’antichità e di grande interesse per la protostoria dell’intelligenza artificiale è la nascita degli oggetti d’arte animati meccanicamente, o se si vuole i cosiddetti “esseri artificiali meccanici”, ovvero come è entrato nell’uso chiamarli “ i robot meccanici”. .

La storia della problematica degli oggetti d’arte animati è molto antica ed anche piuttosto  interessante. In essa si evidenzia 

 

Nella tradizione più o meno sottesa di quest’arte molto antica, fin dal II secolo a.C., abili inventori, provenienti dalla Grecia, iniziarono a creare degli attori artificiali animati, da usare negli spettacoli. Questi piccoli “robot ante-litteram” erano governati da macchinari e da meccanismi di tipo meccanico, anche molto complessi, erano in grado di recitare in ruoli drammatici, come richiedeva lo standard del Teatro Greco, ma erano principalmente in grado di lavorare in mezzo alle fiamme e al fumo, produrre effetti sonori non umani, erano in grado di emettere anelli di fumo, spruzzi d’acqua e lingue di fuoco. In questi ci appare il desiderio di costruire “esseri artificiali”, accanto a questi furono prodotti anche altri meccanismi, tuttora in uso. Si trattava di grandi macchinari, mediante i quali si potessero operare rapidi ed efficienti cambi degli scenari che  risultassero  principalmente spettacolari.  Tra i grandi nomi di coloro che si mossero in questa direzione dello studio della pre-robotica troviamo Filone di Bisanzio (200 a.C. circa), Cresibio e principalmente Gerone. Circa nell’anno 100 a.C. anche in Cina ci si mosse in questa direzione e con risultati anche considerabili di gran lunga più soddisfacenti.

Gerone di Alessandria (100 a.C. circa) fu colui che per primo inventò un motore a vapore, forse più per mostrare la potenza del vapore, che non perché ne avesse comprese le potenzialità e le applicazioni future.  Gerone utilizzava il vapore anche per gli spettacoli nei quali faceva uso di  attori artificiali. Nella sua opera principale  Pneumatica egli ci descrive del comportamento dei fluidi ma anche dell’uso di diverse macchine, nelle quali si ricorreva all’aria calda, sia per pompare acqua, sia per produrre suoni, sia per varie altre cose abbastanza singolari.

Vi è sostanzialmente descritta l’idea delle camere a depressione, ottenute raffreddando, al loro interno, una sostanza trasformata in vapore. Questa idea, ebbe anche notevoli applicazioni pratiche e tra il XVI XVII secolo ebbe un uso pratico anche per pompare acqua dalle miniere. Per tornare a Gerone, in una sua successiva opera Automata, viene esaminato in dettaglio  il problema degli attori artificiali. Attraverso l’esemplificazione e il dettaglio di una particolare recita, Gerone ci descrive  tutto il  macchinario sottostante, il modo con il quale faceva funzionare gli attori artificiali,come era possibile  sincronizzarli con l’intero scenario e come si potevano inserire, nel contesto, i vari  effetti speciali. Il movimento globale della scena era prodotto da un insieme di meccanismi costituiti da  ruote, pulegge, cilindri, leve, contrappesi, ai quali si univano lampade speciali, serbatoi, lanciafiamme e pompe. L’operatore metteva in moto il congegno e tutto andava avanti da solo. Incredibile : era il 100 a.C.! Rimarchiamo che gli effetti speciali di allora, ci inducono a farci riflettere intorno agli effetti speciali del cinema odierno che dalle origini fino agli anni ’80, si è servito di macchinari interpreti di King-Kong, e di vari altri mostri alla Rambelli, non sempre superiori a quelli del passato, ma anche di scene di disastri e crolli realizzati in modo … impeccabilmente … falso. Il concetto di “effetti speciali” è oggi profondamente modificato in relazione alle scene virtuali e ai personaggi computerizzati.

Il primo progetto documentato di un robot umanoide venne fatto da Leonardo da Vinci attorno al 1495. Degli appunti di Da Vinci, riscoperti negli anni ’50, contengono disegni dettagliati per un cavaliere meccanico, che era apparentemente in grado di alzarsi in piedi, agitare le braccia e muovere testa e mascella. Il progetto era probabilmente basato sulle sue ricerche anatomiche registrate nell Uomo di Vitruvio. Non si sa se tentò o meno di costruire il robot (vedi: Automa cavaliere di Leonardo).

La prima vera tecnologia degli automi meccanici si può far risalire al medioevo, quando si cominciano a costruire le prime figure mobili che arricchivano i campanili e gli orologi delle chiese. Il primo progetto documentato di un androide è firmato da Leonardo da Vinci e risale al 1495 circa: appunti riscoperti negli anni ’50 nel codice Atlantico e in piccoli taccuini tascabili databili intorno al 1495-1497 mostrano disegni dettagliati per un cavaliere meccanico, che era apparentemente in grado di alzarsi in piedi, agitare le braccia e muovere testa e mascella, emettendo suoni dalla bocca grazie ad un sofisticato meccanismo di percussioni collocato all’altezza del petto. L’automa cavaliere di Leonardo era probabilmente previsto per animare una delle feste alla corte sforzesca di Milano, tuttavia non è dato sapere se fu realizzato o meno.

Il primo robot funzionante conosciuto venne creato nel 1738 da Jacques de Vaucanson, che fabbricò un androide che suonava il flauto, così come un’anatra meccanica che, secondo le testimonianze, mangiava e defecava. Nel racconto breve di E.T.A. Hoffmann L’uomo di sabbia (1817) compariva una donna meccanica a forma di bambola, e in Steam Man of the Prairies (1865) Edward S. Ellis espresse l’affascinazione americana per l’industrializzazione. Giunse un’ondata di storie su automi umanoidi, che culminò nell’ Uomo elettrico di Luis Senarens, nel 1885.

Nel XVI secolo i trattati di alchimia fornivano indicazioni per costruire un essere artificiale: l’homunculus.

La fine del XVIII secolo e il XIX secolo vede fiorire la moda degli automi meccanici, concepiti soprattutto come sofisticati giocattoli, ma talvolta assai perfezionati. Alla fine del Settecento un inventore ungherese, il Barone Wolfgang Von Kempelen, inventò un automa in grado di giocare a scacchi. Tra il 1770 ed il 1773 due inventori, Pierre e Henri-Lous Jaquet-Droz, costruirono tre sorprendenti automi: uno scrivano, un disegnatore ed un musicista (ancora funzionanti, si trovano nel Musèe d’Art e d’Histoire di Neuchatel in Svizzera, e al Franklin Institute di Filadelfia).

La moderna tecnologia della robotica vede attualmente la costruzione soprattutto di macchine estremamente specializzate per uso industriale, totalmente prive di aspetto umano, che risulterebbe d’intralcio e, secondo alcuni, potrebbe comportare dei problemi a livello psicologico e sindacale. La costruzione degli androidi rimane dunque soprattutto una curiosità per tutto il XX secolo, anche se il successo commerciale dei cani robot, specie in Giappone, ha permesso ad alcuni di supporne un ipotetico sviluppo futuro. Il problema del movimento naturale degli arti inferiori con la stazione eretta, in precedenza ritenuto un grosso ostacolo, è stato in gran parte risolto nel corso degli anni ottanta e novanta.

Tuttavia si vuole anche rimarcare che le macchine attualmente chiamate robot sono dei semplici meccanismi automatici, capaci di muoversi ma solo in funzione di precise istruzioni fornite a priori. Non hanno né volontà, né coscienza di sé o del mondo che li circonda. Ne segue che gli eventuali incidenti che possono essere successi (come a Jackson nel Michigan, quando il 21 luglio 1984, un robot industriale schiacciò un operaio contro una sbarra di sicurezza) non sono concettualmente diversi dagli incidenti provocati dal crollo di un pavimento.

I Robot che lavorano nelle fabbriche di tutto il mondo, in pieno 2005,  sono valutati in ragione di 400.000 mentre quelli che lavorano nelle case sarebbero 300.000, ancora 600.000 fanno le pulizie e tagliano l’erba ed altrettanti  hanno forme umane e di animali (cani , gatti), giocano ed insegnano  per un totale di circa 2 milioni di robot al mondo. Il paese che possiede il massimo numero di Robot è il Giappone (300 robot ogni 10.000 operai). Il mercato dei prossimi anni riguarderà prevalentemente il settore dei robot domestici con una proiezione di vendita di 7 milioni di robot.

Gli scenari fantascientifici di “rivolta” dei robot contro gli esseri umani non sono impossibili, ma per verificarsi si dovrà aspettare che i robot diventino molto più sofisticati di come sono oggi.

Al contrario un  campo di grandi successi per la robotica  è il campo medico. Alcune società produttrici hanno ottenuto le necessarie autorizzazioni per poter far utilizzare i loro robot in complesse operazioni chirurgiche dall’invasività minima. Un settore affine, quello dell’automazione dell’attività di laboratorio analitico, vede robot da banco impegnati nelle attività routinarie di incubazione, manipolazione di campioni ed analisi chimica e biochimica.

 

 

Le idee del transumanesimo e del postumanesimo

Il termine “transumanesimo” fu coniato da Julian Huxley nel 1957, sebbene il significato fosse diverso da quello con cui la definizione fu poi utilizzata a partire dagli anni 1980. L’attuale definizione si deve al filosofo Max More: “Il Transumanesimo è una classe di filosofie che cercano di guidarci verso una condizione postumana. Il Transumanesimo condivide molti elementi con l’Umanesimo, inclusi il rispetto per la ragione e le scienze, l’impegno per il progresso ed il dare valore all’esistenza umana (o transumana) in questa vita. […] Il Transumanesimo differisce dall’Umanesimo nel riconoscere ed anticipare i radicali cambiamenti e alterazioni sia nella natura che nelle possibilità delle nostre vite, che saranno il risultato del progresso nelle varie scienze e tecnologie[…].”

Sono state suggerite anche altre definizioni come quella di Anders Sandberg (“Il Transumanesimo è la filosofia che afferma che noi possiamo e dobbiamo svilupparci a livelli , fisicamente, mentalmente e socialmente superiori, utilizzando metodi razionali”) o quella di Robin Hanson (“Il Transumanesimo è l’idea secondo cui le le nuove tecnologie probabilmente cambieranno il mondo nel prossimo secolo o due a tal punto che i nostri discendenti non saranno per molti aspetti ‘umani'”).

Il Transumanismo è dunque:

Supporto per il miglioramento della condizione umana attraverso tecnologia di miglioramento della vita, come l’eliminazione dell’invecchiamento e il potenziamento delle capacità intellettuali, fisiche o fisiologiche dell’uomo.

Lo studio dei benefici, pericoli e dell’etica dell’implementazione di queste tecnologie.

Transumanesimo e tecnologia

I transumanisti di norma sono a favore dell’utilizzo delle tecnologie emergenti, incluse molte attualmente ritenute controverse, come l’ingegneria genetica sull’uomo, la crionica, e gli usi avanzati dei computer e delle comunicazioni; e delle tecnologie che sostengono saranno certamente sviluppate in futuro come i viaggi nello spazio, i viaggi nel tempo, la clonazione, la nanotecnologia e il mind uploading. Spesso ritengono che l’intelligenza artificiale un giorno supererà quella umana.

Secondo alcuni la rapidità in crescita dello sviluppo tecnologico suggerisce progressi tecnologici radicali ed importanti per i prossimi 50 anni. Secondo i transumanisti questo sviluppo è desiderabile e gli esseri umani possono e dovrebbero diventare “più che umani” attraverso l’applicazione di innovazioni tecnologiche come l’ingegneria genetica, la nanotecnologia, la neurofarmacologia, le protesi artificiali, e le interfacce tra la mente e le macchine.

Radici illuministiche e umanistiche

Seguendo la tradizione politica, morale e filosofica del XIX secolo, influenzata dall’Illuminismo e dal Positivismo, il Transumanesimo si pone come obiettivo l’utilizzazione della conoscenza globale come mezzo per migliorare tutta l’umanità.

Seguendo in parte le tradizioni filosofiche dell’Umanesimo laico, pone gli esseri umani al “centro” dell’universo morale, e sostiene che non esistano forze sovrannaturali che guidino l’umanità. Tende inoltre a preferire discussioni razionali e osservazioni empiriche dei fenomeni naturali e promuove pertanto scienza e ragione.

Si cerca di applicare la ragione, la scienza e la tecnologia allo scopo di ridurre la povertà, la malattia, la disabilità, la malnutrizione e i governi oppressivi esistenti nel mondo, per far si che la realtà materiale della condizione umana soddisfi le promesse di eguaglianza legale e politica, eliminando barriere mentali e fisiche congenite. In riferimento a questo obiettivo molti transumanisti considerano positivamente il potenziale futuro della tecnologia e di sistemi sociali innovativi per il miglioramento della qualità della vita.

Secondo i transumanisti esiste un imperativo etico per gli esseri umani di lottare per il progresso e il miglioramento (perfezionismo). L’umanità dovrebbe entrare in una fase post-darwiniana di esistenza nella quale gli esseri umani dovrebbero controllare l’evoluzione e le mutazioni casuali dovrebbero essere sostituite da cambiamenti guidati dall’etica, dalla morale e dalla razionalità.

I transumanisti si interessano dunque a tutti i vari campi della scienza, della filosofia, dell’economia e della storia naturale e sociale per comprendere e valutare le possibilità di superare le limitazioni biologiche.

Spiritualità transumanista

Il Transumanesimo ha un carattere eminentemente laico e molti transumanisti si dichiarano agnostici o atei. Alcuni seguono tuttavia forme di tradizioni filosofiche orientali, e una minoranza ha fuso le proprie convinzioni transumaniste con religioni tradizionali (per esempio nel Transumanismo cristiano).

I transumanisti cercano tuttavia di realizzare in modo laico gli obiettivi e le speranze che tradizionalmente sono proprie dell’ambito religioso, come l’immortalità. Alcuni transumanisti sperano che la futura comprensione della neuroteologia darà la possibilità agli umani di ottenere il controllo sugli stati di coscienza alterati e quindi sulle esperienze spirituali.

I transumanisti materialisti non credono in un’anima umana trascendente. Spesso credono nella compatibilità delle menti umane con l’hardware dei computer, con l’implicazione teorica che la coscienza umana possa, un giorno, essere trasferita su un supporto alternativo.

Storia del Transumanismo

Joseph Fletcher, considerato un fondatore della bioetica, ha sostenuto l’idea di utilizzare la genetica e altre scienze in via di sviluppo per migliorare, e non solo curare, la condizione umana. Nel suo libro del 1974, The Ethics of Genetic Control: Ending Reproductive Roulette (“L’etica del controllo genetico: la fine della roulette riproduttiva”) chiese di dare ai genitori il controllo sulle caratteristiche genetiche dei propri figli: essi (o lo stato) dovrebbero utilizzare al massimo le possibilità offerte dalla scienza per dirigere la propria riproduzione ed evoluzione, piuttosto che affidarsi al caso. Egli suggerì anche la possibilità di creare esseri paraumani, geneticamente modificati e basati su genoma umano e di animali, a cui potessero essere affidati lavori pericolosi, da produrre secondo le specifiche necessità di una data impresa. Suggeriva che la scienza e la tecnologia potessero rendere la vita umana migliore e che gli esseri umani debbano ricercare questi miglioramenti.

I primi transumanisti si incontrarono formalmente all’inizio degli anni 1980 alla University of California di Los Angeles, che divenne il loro centro principale. Fu qui che FM-2030 (in precedenza “FM Esfandiary”) insegnò l’ideologia futurista degli “Upwingers”. J. Spencer alla Space Tourism Society organizzò molti eventi transumani legati allo spazio. Natasha Vita-More (in precedenza Nancie Clark) esibì “Breaking Away” al EZTV Media, un luogo dove i transumanisti e altri futuristi potevano incontrarsi. FM, J. e Natasha si incontrarono e presto iniziarono a tenere riunioni per i transumanisti di Los Angeles, che includevano gli studenti provenienti da FM-2030, spettatori delle produzioni artistiche di Natasha e la comunità spaziale ed astrofisica. Nel frattempo in Australia, Damien Broderick, autore di fantascienza, scrisse The Judas Mandala. Nel 1982, Natasha scrisse Transhumanist Arts Manifesto (“Manifesto delle arti transumane”) e più tardi produsse lo spettacolo televisivo via cavo “TransCentury UPdate”, che ebbe oltre 100.000 spettatori.

Nel 1986 fu pubblicato il libro di Eric Drexler sulla nanotecnologia, Engines of Creation (“Motori di creazione”). La sede della Alcor Foundation nella California meridionale divenne un centro per pensatori futuristi. Non tutti gli attivisti che erano interessati a migliorare la condizione umana erano coinvolti nel Transumanesimo: alcuni non conoscevano la parola sebbene ne seguissero i principi. Oggi, l’Extropy Institute e la World Transhumanist Association sono tra le più grandi organizzazioni transumaniste.

Transumanesimo nella pratica

Per l’evoluzione personale e l’autocreazione, i transumanisti tendono a utilizzare tecnologie e tecniche che migliorino le proprie condizioni fisiche e cognitive, e si impegnano in esercizi e stili di vita specificatamente progettati per aumentare la salute ed estendere la durata della vita (vedi fyborg).

Molti transumanisti si definiscono “transumani” ossia si sforzano di divenire postumani, cosa che affermano sia il prossimo gradino significativo dell’evoluzione della specie umana. Viene previsto che specifiche innovazioni biotecnologiche e nanotecnologiche faciliteranno tale balzo dopo la metà del XXI secolo. A seconda dell’età, comunque, alcuni transumanisti si preoccupano di non poter raccogliere i benefici di queste future tecnologie e sono dunque grandemente interessati alle pratiche che permettono di allungare la vita e, come ultima risorsa, alla sospensione crionica.

Critiche al Transumanesimo

Le critiche al Transumanesimo possono essere divise in due categorie principali: le obiezioni sulla possibilità che gli obiettivi dei transumanisti possano essere raggiunti, e le obiezioni sui principi del Transumanismo.

Critiche rispetto alle possibilità della scienza

Il genetista e scrittore di fantascienza Steve Jones afferma che l’umanità non avrà mai la tecnologia che i fautori del transumanismo desiderano. Egli una volta scherzò dicendo che le lettere del codice genetico, A, C, G e T dovrebbero essere rimpiazzate con le lettere H, Y, P ed E (che in inglese significano “esagerazione”).

Nel suo libro Futurehype: The Tyranny of Prophecy (“Esagerazione futura: la tirannia della profezia”), il sociologo della University of Toronto Max Dublin sottilinea le molte previsioni errate nel passato a riguardo del progresso tecnologico e sostiene che le previsioni dei moderni futuristi si dimostreranno altrettanto errate. La sua critica si rivolge anche contro il fanatismo nella spinta per il progresso della causa transumanista, per il quale sostiene che esistono paralleli storici nelle ideologie religiose e marxiste.

 

Critiche rispetto ai principi

I critici o gli avversari della visione transumanista affermano che il modo più efficace per il miglioramento della società consista nel miglioramento del comportamento etico, piuttosto che nello sviluppo tecnologico e si preoccupano del fatto che l’attenzione rivolta a quest’ultimo faccia dimenticare il resto. A volte la differenza è solo nell’importanza maggiore o minore attribuibile al progresso sociale ed etico e al progresso tecnologico, mentre in altri casi le divergenze si basano su concezioni diverse della natura umana.

Uno dei più interessanti critici al transumanismo è Bill Joy, co-fondatore della Sun Microsystems, che afferma nel suo articolo Why the future doesn’t need us (“Perché il futuro non ha bisogno di noi”) che gli esseri umani probabilmente finiranno con l’estinguersi attraverso le trasformazioni sostenute dal transumanesimo.

L’astronomo britannico Martin Rees (nel libro Our Final Hour, “La nostra ultima ora”) sostiene che il progresso scientifico e tecnologico comporta altrettanti rischi di disastro che opportunità di miglioramento, e propone norme di sicurezza più rigide.

Il movimento ambientalista sostiene la cautela nell’applicazione degli sviluppi tecnologici e la cessazione della ricerca in aree potenzialmente pericolose. Alcuni “precauzionisti” credono che l’intelligenza collettiva dell’umanità dovrebbe prima organizzarsi in modo da essere pronta a superare i pericoli prodotti da intelligenze artificiali che non condividono la mortalità umana.

L’economista politico conservatore Francis Fukuyama sostiene nel suo libro Our Posthuman Future (“Il nostro futuro postumano”) che l’obiettivo transumanista di alterare la natura umana e l’uguaglianza tra gli esseri umani rischia di minare nei fatti gli ideali della democrazia liberale.

Altri critici fanno notare la soggettività di concetti come “miglioramento” e “limitazione”, e osservano una pericolosa somiglianza con le vecchie ideologie eugenetiche in merito ad una “razza superiore”, preoccupandiosi di quello che il transumanesimo può significare in futuro. Alcuni critici, inclusi alcuni transumanisti, disapprovano la comparsa del cosmoteismo pierciano, del prometeismo e del transtopianismo nelle frange della destra estrema del movimento transumanista.

I “bioconservatori” sostengono infine che ogni tentativo di alterare lo stato naturale dell’uomo (attraverso la clonazione e o l’ingegneria genetica) è di per se stesso immorale.

Rappresentazioni di fantasia del Transumanesimo

La fantascienza ha dipinto il transumanesimo in varie forme da molti anni. Il sottogenere che più si è occupato di questi temi è stato il filone cyberpunk, con riferimenti ancor più espliciti e settoriali nel nanopunk e nel biopunk.

Attenzione: questa sezione rivela — in tutto o in parte — la trama dell’opera.

Gli Ouster della saga Hyperion di Dan Simmons sono un esempio di transumanità, sempre al limite del postumano. Invece di rimanere attaccati alla roccia (“clinging to rocks”) come il resto dell’umanità (che li odia e li teme, considerandoli dei barbari), si diressero verso lo spazio profondo, adattando se stessi a quell’ambiente utilizzando la nanotecnologia, ed entrando in relazione simbiotica con la loro tecnologia. L’ultimo libro di Simmons Ilium descrive una differente situazione nel lontano futuro dove i postumani sembrano essere stati consumati dalla loro stessa tecnologia, una piccola popolazione di umani meno modificati continua a vivere sulla Terra, totalmente dipendente da una tecnologia che non comprende, e gli esseri più progrediti ed “umani” del sistema solare sono dei robot intelligenti che vivono sulle lune di Giove.

Down and Out in the Magic Kingdom, un racconto gratuito di Cory Doctorow, esplora un certo numero di temi transumani, incluse le “cure” per la morte e la scarsità. Anche un altro racconto gratuito, Manna [1] di Marshall Brain, descrive un futuro transumano.

Un gioco di ruolo chiamato Transhuman Space scritto da David L. Pulver, illustrato da Christopher Shy e pubblicato dalla Steve Jackson Games è parte della linea “Powered by GURPS”. [2]

La Serie della Cultura di Iain M. Banks dipinge un futuro nel quale la nostra galassia è dominata da una civilizzazione chiamata “La Cultura”, che rappresenta in molti modi il successo del transumanesimo. La Cultura è una perfetta società utopica e democratica nella quale ogni membro ha l’abilità di alterare il proprio corpo e la propria genetica attraverso la tecnologia. Un legame molto chiaro con il transumanesimo è lo sviluppo di “ghiandole medicinali” nei corpi umani, che permettono alla gente di produrre ed utilizzare all’interno dei loro cervelli e a proprio vantaggio migliaia di combinazioni di sostanze psicoattive.

Nel videogioco Half-Life 2, i principali nemici del giocatore sono transumani creati da una razza aliena conosciuta come “the Combine”. L’avversario umano e governatore fantoccio della Terra, il Dottor Breen, dichiara che lo stato transumano è necessario e può solo essere raggiunto con un aiuto esterno (alieno).

I videogiochi Halo e Halo 2 seguono le imprese del Master Chief, il risultato di un progetto di potenziamento ed estensione delle spacifiche umane per mezzo della cibernetica e dell’alterazione genetica.

Il mondo nuovo di Aldous Huxley, scritto prima della nascita della moderna biotecnologia, descrive un’umanità progettata sin dalla nascita per degli standard mentali, suddivisa in classi di lavoro, e illustra come gli elementi della tecnologia e della produzione di massa siano stati incorporati nella società – soprattutto il ‘Fordismo’ che vede Henry Ford come un messia.

Un buon esempio di critica al Transumanesimo è invece il film Gattaca, la porta dell’universo, in cui la selezione prenatale del corredo genetico perfetto dei nascituri ha dato origine alla sottoclasse dei “non-validi”, le persone nate in modo naturale. Il protagonista, Vincent, sogna da sempre di diventare un astronauta e decide di entrare a Gattaca, l’organo aerospaziale responsabile delle missioni interplanetarie. Vincent è un non-valido e non avrebbe nessuna speranza di passare il test del sangue necessario per essere assunti ma sfida il sistema comprando illegalmente l’identità di un paraplegico, Jerome, geneticamente perfetto.

 

 

I,Robot

trailer del film con Will Smith

(PubliWeb) Will Smith è il protagonista di “I, Robot”, thriller d’azione ispirato alla raccolta di racconti di Isaac Asimov. La storia: nell’anno 2035 i robot sono un apparecchio domestico di uso comune: tutti si fidano di loro, eccezion fatta per un detective leggermente paranoico (Smith), impegnato ad indagare quello che lui solo ritiene essere un delitto perpetrato da un robot. Il caso lo porta a scoprire una realtà ancora più minacciosa per la razza umana. I, Robot usa effetti speciali spettacolari e dell’ultima generazione per portare sullo schermo il mondo dei robot. In Rete il trailer del film e un interessante sito ufficiale.

 

6.7. –  PRODROMI DI INTELLIGENZA ARTIFICIALE: I PICCOLI ROBOT

DELL’ANTICHITÀ

Per continuare la nostra analisi del fenomeno pre-robotico ricordiamo che in Cina nel 70 a.C., al tempo della dinastia Tang, furono costruite macchine da spettacolo con la capacità di reagire a 13 stimoli esterni, macchine, che come diremmo oggi, appaiono  di “generazione successiva” rispetto agli statici e programmati attori artificiali alla Gerone. Si narra di uno spettacolo connesso ad una festa nei giardini reali. Cinque omini artificiali, di circa cinquanta centimetri d’altezza, navigavano in una barca, lungo un piccolo fiume che attraversava i giardini e si snodava a serpente tra i tavoli degli ospiti. Vi era il timoniere, i rematori, un mescitore di vino che ad ogni tavolo serviva una tazza colma di vino, automaticamente. Tutte le volte che il commensale restituiva la tazza vuota il mescitore, sempre automaticamente, la riempiva di nuovo e la porgeva e questa era indubbiamente una reazione ad uno stimolo esterno. Purtroppo della narrata barca non è mai pervenuto il progetto!

 

L’opera di Copernico De Revoluzionibus (1545) segna un cambio d’epoca, il raggiungimento di un livello di gran lunga superiore a quanto si era riusciti a raggiungere nel passato,  sia per la misura del tempo sia per gli strumenti che facilitassero la navigazione. Ma fin dal  XIV secolo vi furono movimenti ed iniziative che condussero a quel momento evolutivo. L’invenzione della stampa che rese possibile la diffusione di vecchie e nuove conoscenze, la scoperta dell’America che allargò letteralmente i confini del mondo e del conosciuto, la nascita degli orologi,  la conoscenza dei cieli, mai di livello così elevato, sono chiari segnali della nuova modernizzazione. Il dibattito sul senso del tempo, così che  acquisti un senso la sua misura, è un dibattito perennemente aperto. Da Aristotile ad Einstein si tenta di tenere il concetto di tempo fuori della Fisica anzi della Scienza. L’idea che la Scienza sia l’analisi continua di fenomeni riproducibili ci porta a tenerne i tempo fuori. Il tempo dal supposto Bing Bang ad oggi, e per quello che accadrà nel futuro è un fenomeno irreversibile, non riproducibile e quindi non osservabile. E’ forse Ilya Prigogine uno dei primi a porre nella Scienza anche i fenomeni di irreversibilità e di evoluzione. L’evoluzione biologica, l’evoluzione delle società sono – secondo Prigogine – una storia naturale del tempo. Il tempo precede la nascita dell’Universo segnando l’evoluzione dei fenomeni che lo hanno generato e forse non ha un momento di nascita e nemmeno di morte. 

Si tratta di una visione – come alcuni affermano – “laica” del tempo. Dice Prigogine a riguardo:

“ Laico  è una parola che può avere vari significati.  Se pensate che la concezione classica, nella quale il tempo è relegato al di fuori della Fisica, è una concezione che attribuisce all’uomo dei poteri quasi divini, sono d’accordo, perché credo che effettivamente che la Scienza sia fatta dall’uomo, a sua volta parte della natura che descrive. L’idea di un’onniscenza e di un tempo creato dall’uomo presuppone che l’uomo sia differente dalla natura che egli descrive, concezione che io considero non scientifica. Che si sia laici o religiosi, la scienza deve collegare l’uomo all’universo. Il ruolo della scienza è proprio quello di trovare dei legami, e il tempo è uno di questi. L’uomo proviene dal tempo; se l’uomo invece creasse il tempo, quest’ultimo sarebbe uno schermo tra l’uomo e la natura. Dunque , da questo punto di vista, è che questa sia una concezione laica e cjhe la scienza debba essere laica, quali che siano le estrapolazioni che ci si possa permetterte al di fuori della scienza.”

 

Tornando alla misura del tempo, prescindento dalla sua vera ed impalpabile natura, giova notare che

gli orologi non trovarono subito adeguati sviluppi. Solo nel XIV secolo cominciamo a trovare, nell’ordine dei meccanismi e dei meccanismi animati, interessanti orologi meccanici da porsi anche sulle torri dei campanili. Prima d’allora la gente comune non era in grado di distinguere le ore della giornata. Troviamo eleganti ed elaborati oggetti meccanici, come orologi dalle molteplici funzioni assieme a figure ed animali animati come cigni meccanici, cavalli meccanici ed  uomini meccanici.

Ilya Prigogine (1917-2003) è nato a Mosca e poi si è trasferito in Belgio, fin dal 1929,  trascorrendovi la  gran parte della sua esistenza. Si laurea nel 1941 a Bruxelles e intraprende il dottorato e l’attività di ricercatore. Come chimico-fisico, ha ottenuto il  premio Nobel nel 1977. Si è occupato, come teorico,   della stabilità dei sistemi lontani dall’equilibrio termodinamico e dei problemi dissipativi. Ha avuto due grandissime illusioni: far riconoscere alla Fisica l’esistenza della freccia del tempo; racchiudere in una formula l’ordine e la complessità del mondo.  Come sognatore o -se volete- come coltivatore di grandi progetti metafisici, è stato a un passo dall’eresia scientifica. (Cf. [Nota biografica e scheda di Domenico Turco (http://www.mondo3.it/)].

 Cfr. I.Prigogine, La nascita del tempo, Tascabili Bompiani, Milano, 2001. Questo piccolo volumetto, scritto in modo molto semplice, è un ottimo approccio con chi abbia scarsa familiarità con il ragionamento e il linguaggio scientifico.

 

Lentamente nasce l’idea del Robot, un essere artificiale che evolverà lentamente nell’essere, della prima fantascienza del post-1940, che può essere comandato a distanza, da congegni elettrici ed elettromeccanici. In realtà l’idea di Robot fu un’invenzione letteraria, nata dal termine roboata, termine che, in lingua ceka, vuol dire lavoro pesante e fastidioso. Il Robot fu l’operaio artificiale, immaginato dallo scrittore praghese Karel KAPEK (1890-1938) autore di novelle (Racconti penosi) e drammi.  Il dramma di Krakatic “R.U.R.”, La fabbrica dell’assoluto”, del 1920, è un tipico caso, ante litteram nel quale la letteratura ha prefigurato un caso futuribile.

Oggi con il termine Robotica si indica un’intera branca, della progettazione elettronica, alla quale si collega anche il termine Automatica. Questo ultimo termine viene dalla parola Automa che può essere inteso come un termine più generale. Ad esempio una macchina, anche con sembianze diverse da un essere umano, che può essere comandata a distanza.

Va pure rimarcato che il mito letterario del Robot si ispira anche al mito magico del Golem, che è un essere artificiale che nasce nella magia e fantasia praghese. Il Golem infatti, è legato alla figura del famoso rabbino Rabbi Low, molto esperto di Cabala e magia, operante nella seconda parte del 1500, e responsabile del ghetto di Praga, dal quale gli abitanti potevano uscire solo marcati da cappelli gialli o da altri segni evidenti. Il Golem, era presente nelle leggende giudaiche dei paesi dell’Est Europa, nell’epoca romantica della letteratura ceca. Il Golem è un essere artificiale, nato da un modello di creta, al quale “magicamente” per opera di un rabbina molto esperto, è stato dato il soffio di vita! Il novello Adamo è dunque un grumo di fango, plasmato a forma d’uomo, al quale rabbini particolarmente saggi avrebbero infuso l’alito della vita, anche se in una forma imperfetta, perché concepita come mentalità ottusa ma benigna, per difendere il ghetto e fare i lavori pesanti. Il golem, nato per difendere il ghetto di Praga, si ribella al suo creatore! Non vi è dubbio che questa immagine è una chiara esplicitazione del mito e della paura che l’uomo ha, cosciamente ed incosciamernte, nei confronti delle sue stesse invenzioni e scoperte!

L’uomo ha tentato, usando l’Alchimia per secoli, di produrre, artificialmente, un essere dotato del soffio vitale come l’Homunculus medievale, fino ad arrivare al Golem praghese di Rabbi Low. Del resto quando i tentativi, in termini di agito, erano impossibili, si ricorreva ad invenzioni letterarie, a parti della fantasia. Così ricordiamo alcune ideazioni letterarie come i vampiri di Bram Stoker, o anche la costruzione di uomini assemblati, come quello prodotto dal dott. Frankstein! Oggi la frontiera si è spinta verso verso l’informatica, con le ricerche sull’intelligenza artificiale, ed ancora  verso la Biologia con la moderna e discussa clonazione.

Tante altre anticipazioni ci sono venute dalla letteratura fantastica. In questo settore si è iniziato a parlare di Robot ed Automi. Questi esseri sono apparsi nel Romanzo Popolare a partire dalle opere di Jules Verne (1828-1905) e per finire con la letteratura relativa alla Science Fiction.

Siamo partiti con dei mostri di ferro negli anni ’30, l’evoluzione letteraria è stata lenta, il pubblico si è mostrato sempre più esigenze e le “invenzioni della Scienze Fiction” è divenuta sempre più elaborata e sofisticata, così i Robot dell’ultimo ventennio, che appaiono in letteratura, sono quasi umani. La letteratura fantascientifica, specie ad opera del compianto Isaac Asimov, ha concepito esseri non umani del tutto simili all’uomo esternamente, ma poi in realtà con una filosofia interna che apre impensabili problematiche. Personaggi come Yvo Demerzel, che ha dominato i più importanti cicli delle opere di Asimov, fanno pensare. La fantascienza è stata talvolta profetica, come appare evidente nella lettura delle opere di Jules Verne, a volte irrimediabilmente non profetica come nei casi di Wells e la sua macchina del tempo o in relazione all’espansione della razza umana nell’intero universo, ma questo naturalmente dipende dal fatto che l’indagine sul futuribile racchiude in se l’insieme delle possibilità, dalle più concrete alle più vaghe, insite nei sogni, nei desideri e nelle tendenze dell’uomo.

Per tornare alle nostre macchine di calcolo, giova osservare che nel 1899 in occasione dell’Esposizione di Parigi e della inaugurazione della Torre Eiffel, l’inventore francese Léon Bollée, presentò una molto efficiente calcolatrice a moltiplicazione diretta attraverso tasti meccanici e quindi attraverso una tastiera. L’idea dell’utilizzo di tasti risaliva al 1850 e al professore di matematica Tito Gonnella, dell’Accademia delle Belle Arti di Firenze ed ebbe anche altri precursori come Door Felt, un giovane meccanico di Chicago, che nel 1884 costruì un altro rozzo prototipo, detto “Macaroni box”, perché appunto montato su una cassetta di spaghetti italiani, detti “macaroni”. Dopo tre anni di studi e perfezionamenti, nel 1887, quel rozzo prototipo, divenne un modello di addizionatrice a tasti, tutta in metallo, la mitica addizionatrice Comptometer.

La tastiera doveva subire poi una graduale evoluzione dalle macchine di calcolo a scrittura meccanica, poi elettrica fino alle tastiere elettroniche, elegantissime, prodotte anche da famosi designer, degli odierni PC.

[1] J. Von Newman (1903-1957), matematico, ebreo ungherese, di grandi capacità che ebbero a procurargli molto presto fama e notorietà. Dal 1933 Professore a Princeton nel prestigioso Institute of Advanced Studies. I suoi molteplici contributi vanno dalla matematica pura ed applicata alla fisica teorica (assiomatizzazione della meccanica quantistica). In Theory of Games and Economic beahaviour (con l’economista Oskar Morgenstern), del 1943,  introduce nuove problematiche anticipando la Ricerca Operativa e la Matematica Discreta. Compì lavori fondamentali sulle basi logiche per la costruzione dei calcolatori e sulla teoria degli automi. Il carattere era bizzarro: vestiva sempre con giacca e cravatta, anche, per esempio,  alle gite a cavallo nel Gran Canyon. Amava guidare pericolosamente, dare feste brillanti, bere e mangiare forte, raccontare barzellette sporche, corteggiare pesantemente le segretarie di Los Alamos. Nella vita familiare la sua collaborazione era del tutto nulla. Quanto alle armi che invece già esistevano, era favorevole ad un attacco nucleare preventivo contro l’Unione Sovietica, prima che anch’essa ottenesse la bomba atomica. La sua morte precoce fu causata da un tumore alle ossa contratto per l’esposizione alle radiazioni dei test atomici di Bikini nel 1946, la cui sicurezza per gli osservatori egli aveva tenacemente difeso.

 

[2] Alan Turing  (1912-1954), matematico inglese. Studiò nel King’s College di Cambridge e non fu esattamente uno studente modello. Studiava solo ciò che gli piaceva e fu solo grazie al suo amico C. Morcom che si adattò a fare studi più sistematici facendo così emergere le enormi potenzialità della sua mente. Comprese l’incompletezza delle teorie assiomatiche anticipando Godel, ma si interessò sopratutto della possibilità di costruire macchine che simulassero i processi mentali dell’uomo. E’ del 1936 il suo lavoro: On computable numbers with an application to the entschidungs problem,  fondamento delle sue teorie. Durante la seconda guerra, operò come crittoanalista dei servizi segreti britannici ed a lui si deve di fatto la rottura del codice della macchina cifrante ENIGMA, la macchina cifrante orgoglio del Terzo Reich.  Ideò, lavorando anche al progetto esecutivo presso il National Phisical Laboratory, di ACE (Automatic Computing Engine), una macchina teorica (Macchina di Turing) che sarebbe stata in grado di eseguire qualunque funzione computazionale, ma che non fu mai realizzata. Non prese parte alla costruzione (1948) della prima macchina computazionale realizzata sulla base delle sue teorie.  Nel 1950 in: Computing machinery and intelligence, presentò un test (test di Turing) ed una macchina (macchina di Turing), del tutto teoriche, che permettevano di valutare la ”intelligenza umana” di una macchina. Ricordato anche per la Tesi di Church-Turing [vedi nota successissiva].  Nel 1954, a soli 42 anni, muore avvelenato per cianuro, con una dubbia morte da taluni pensata come suicidio.  

[3] Claude Shannon (1916-2001), matematico americano che ottenne, nel 1940, il PhD presso l’MIT (Massachussets Institute of Technology) mitica istituzione presso la quale divenne full Professor nel 1956, dopo una lunga esperienza presso i laboratori della Bell Telephon. E’ del 1948 il suo lavoro  fondamentale che gli ha dato l’appellativo di padre fondatore della Scienza dell’Informazione dal titolo:The Matematical Theory of Communication. L’idea del trasmettere informazioni a distanza, attraverso codifiche binarie (in 0 ed 1), è oggi realizzata nell’ambito di Internet, ma ha le sue origini nell’opera di Shannon Notizie in http://www.apav.it – Comunicazione, Scienze e Società/ biografie.

[4] Alonzo Church (1903-1995).  Laurea in Matematica  a  Princeton  nel 1924,   PhD nel 1927. Nel 1929 è ancora a  Princeton, come Assistant Professor of Mathematics, diviene  Associated  Professor nel 1939 e Full  Professor nel 1947.  Nel 1967 Church, 64-enne,  si ritira da Princeton e,  da pensionato, viene chiamato  come Professore di  Matematica e  Filosofia a Los Angeles, ove lavora  per altri ventitre anni,  fino a 1990,  quando 87-enne,  va definitivamente in pensione. Tra le numerose opere è ricordato per una importante ipotesi, che va sotto il nome di Tesi di Church-Turing, asserente che “ qualsiasi funzione intuitivamente calcolabile è una funzione calcolabile anche mediante  una Macchina di Turing.” Non si tratta di un teorema perché i presupposti della cosa non sono chiaramenti definiti ma questa tesi è considerata una delle frontiere da raggiungere teoricamente n modo completo e compiuto. Notizie in http://www.apav.it – Comunicazione, Scienze e Società/ biografie

[5] Per il conteggio notiamo che si tratta di contare le combinazioni di due delle sei lingue a due a due. Tale numero si indica con   e vale 6.5/2 = 15. Poi tenendo conto che ogni coppia di lingue genera due programmi si ottiene il numero 30. 

[6] L’informatica giuridica  parte dall’osservare che in una società sempre più informatizzata  il diritto non può e quindi non è indifferente davanti ai mutamenti di rapporti dovuti e prodotti dall’avvento di nuove tecnologie. Non vi è dubbio che alcuni concetti di rapporti tra le parti, come ad esempio i diritti d’autore per un libro o un disco, o altro, subiscano mutamenti con l’avvento di una struttura come Internet. Si aggiungano ancora le problematiche e il diritto dell’open source, la nuova frontiera libera che non avendo regole diventa pericolosa da gestire. Tuttavia privacy, firma elettronica, e-commerce, e-government sono al momento nell’Informatica giuridica e nella Filosofia del diritto.

[7] Si vedano ad esempio i volumi seguenti: a) A.A.V.V. Parola chiave: Informazione (a cura di Agata Amato Mangiameli), Giuffrè, Milano, 2004. Il volume contiene in particolare articoli di Franco Eugeni ed Ennio Cortellini, e complessivamente illustra numerose interessanti tematiche.   b) Gianluigi Fioriglio, Temi di Informatica giuridica, Aracne, Roma, 2004, con tematiche tipiche dell’Informatica giuridica.

 

[8] Il termine paradigma, come ricordiamo per comodità del lettore, è inteso nel nostro contesto come una conquista di tipo scientifico, accettata nella comunità nella quale viene usata, e che costituisce un punto di riferimento anche metodologico per inquadrare i problemi e presentarne le relative soluzioni. Il primo paradigma, o modello di ragionamento al quale vogliamo fare riferimento, è il cosiddetto paradigma meccanicistico (cfr. 1.1.1 appendice di questo paragrafo per maggiori dettagli) che generalmente si fa risalire a Galileo Galilei ed alla sua filosofia della scienza. Galileo, nel 1623, introduce il suo assunto metodologico, altamente rivoluzionario, che si basa sulla distinzione tra ciò che rientra nell’ambito dei sensi (qualità “secondarie”) e la struttura geometrico matematica della natura (qualità “primarie”) e quindi nell’integrale  applicazione del linguaggio matematico alla natura, che a suo avviso  è scritta “in lingua matematica, e i caratteri son triangoli, cerchi ed altre figure geometriche, senza i quali mezzi è impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro labirinto”. 

[9] Si noti che se N = ab (con a e b maggiori di 1) allora  2N – 1 è certamente composto in quanto risulta:

2N – 1 = (2a)b – 1 = (2a – 1) [(2a)b-1 +  (2a)b-2 + ….+ 1]

Se invece l’esponente N è primo il numero può essere sia primo che composto. Ad essi sono noti 40 esponenti primi, per i quali, il corrispondente numero di Mersenne è ancora primo.  

[10] Martin Mersenne (1588-1648), teologo e scienziato francese che si occupò di studi sulla resistenza dei materiali, sulle corde vibranti e sui fluidi. Dal punto di vista della teoria dei numeri ritenne che i numeri del tipo 2p-1, con p primo, fossero primi. Solo successivamente  si scoprì che 2 11- 1 = 2047 = 23 X 89 era composto!

 

[11] L’infinito, al quale ci si riferiva al tempo di Euclide, è un infinito potenziale. Euclide non diceva “ I numeri primi sono infiniti”, come diremmo oggi in una forma di infinito attuale. L’idea di infinito attuale fu raggiunta allora che si sviluppò l’Analisi Matematica, per opera di Leibnitz e di Newton, e con essa i concetti di limite, di infinito e di infinitesimo. 

[12] Il ragionamento di Euclide era semplice. Diceva : siano 2, 3, 5, 7, 11, 13, …., p i numeri primi a noi noti. Formiamo il numero N= 2 X 3 X …. X p + 1  il prodotto di tutti i primi noti, aumentato di una unità. Sia q il più piccolo divisore primo di N. Se questo q  dividesse  il prodotto 2 X 3 X …. X p , dividendo N per ipotesi,  dividerebbe anche  N – 2 X 3 X …. X p.  Ma allora q sarebbe un divisore di  N – 2 X 3 X …. X p = 1, ma questo non è possibile poiché  un qualunque numero q primo o no, non può dividere 1 che è più piccolo!  Dunque q non divide   il prodotto 2 X 3 X …. X p di tutti i primi noti e quindi non è uno di essi, pertanto è un nuovo primo maggiore dei precedenti! (Euclide , 300 a.C).

[13] Una delle formule più note che produce “molti primi” è quella, trovata da Eulero nel 1772, data da: y = x2+x+41, detta parabola di Eulero,  che per x = 0, 1, …, 39 fornisce ben 40 primi consecutivi. Nonostante l’uso della forza bruta  dei computers di oggi,  questo primato è stato migliorato appena due volte ed oggi è nota una parabola, più complicata, che fornisce tuttavia solo 45 valori primi consecutivi. Si tratta della parabola : y = 36 x² + 18 x – 1801, trovata da RUBY nel 1989! La parabola di Ruby  presenta  45 numeri in valore assoluto primi e consecutivi,  ottenuti per x = 0, ±1,…, ±22.

 

[14] La costruzione di questi computer è dovuta alla genialità del tecnologo Howard AIKEN (1900-1972), che, richiamatosi agli studi di Babbage, progettò e costruì presso l’Università di Harvard e con finanziamenti dell’IBM, alcuni dei primi elaboratori quali il MARK I (1944), MARK II (1946) il MARK III (1950). 

[15] cfr Introduzione a La Scienza dei Calcolatori” (a cura di Daniele Mundici), Le Scienze, quaderno N.56, Milano, 1990.

[16] Bourbakismo. Nicholas Bourbaki viene definito come il matematico che non è mai esistito. Sotto questo pseudonimo si nascondeva un grupoo di 10 geni della matematica, rigorosamente sotto i 40 anni, che negli anni 30 hanno riscritto tutta la matematica dalle fondamenta, deducendola da chiare assiomatiche, con un rigore ed una precisione che non aveva avuto l’eguale nel passato. Questo rigore da un lato ci ha fornito uno strumento molto solido, che ha facilitto il progredire della Logica e dell’Informatica teorica (Turing ). Oggi dopo i risultati di incompletezza dei sistemi assiomatici (Godel) si è criticato il Bourbakismo sia perchè ci allontana dall’intuizionismo sia dalla comprensione non elitaria. Negli anni che sono andati dal 1960 a forse il 1975 la matematica italiana è stata molto bourbakista con poche voci alternative come de Finetti ed altri. Oggi la matematica purtroppo è divenuta disciplina impopolare, difficilmente divulgata e talvolta erroneamente sfuggita.  

[17] In occasione delle celebrazioni  del IX Centenario dell’Università di Bologna [G.Rota,  Bollettino UMI, (1985)]. L’articolo è stato replicato in: D.Mundici, op.cit. (cf. Nota precedente).

[18] Giancarlo Rota (1932-1998), noto matematico operante presso l’MIT (Massachuset Institut of Tecnology) , uno degli Istituti di ricerca più famosi del modo. Di origine italiana (nipote del famoso Ennio Flaiano), nato a Vigevano, ha studiato in Uruguay  e negli Stati Uniti. Caposcuola internazionale della Matematica Discreta si è occupato anche di Filosofia della Scienza e di Intelligenza artificiale. Si veda  www.rota.org . 

[19] La Matematica Discreta è un settore della  Matematica che opera sugli insiemi costituiti da un numero finito di elementi e in essa appaiono problematiche lontane dalla matematica del continuo di Newton e Leibnitz. Fondata forse alla fine del 1700 da Euler ha avuto sviluppi notevoli con l’avvento dei calcolatori più potenti. Per avere un’idea è possibile consultare la lettura: Il problema dei 4 colori, in rete sulle mie dispense. Questo problema è un  tipico problema di Matematica Discreta. Più in generale si veda il volume di M.Cerasoli- F.Eugeni-M.Protasi, Elementi di Matematica Discreta, Zanichelli, Bologna, 1986 , con una presentazione di Giancarlo Rota. 

[20] M.Cerasoli (a cura di), Atti del Convegno Internazionale “G.C.Rota Memorial Conference” G.T.E, L’Aquila, 2002. Si veda in particolare l’articolo firmato G.C. Rota, che è un articolo postumo, ben ricostruito da M. Cerasoli (p.9 , 11).

[21] Franck SUNN, Internet è l’Anticristo, Armenia , Milano, 2001. (cf.  www.armenia.it )

[22] Tim Berners-Lee (Londra, 8 giugno 1955) è il l’inventore del World Wide Web (WWW) insieme ad altri ricercatori del calibro di Robert Cailliau. A Lee si deve il termine World Wide Web, e sempre a lui, nel 1990, il primo server WWW httpd, il primo browser (software per navigare su Internet) ed il primo editor per il WWW. Anche la formalizzazione del linguaggio di marcatura HTML, il cui compito è la formattazione di documenti ipertestuali, è un suo progetto. Nel 1993 Lee ha lasciato l’Europa per approfondire i suoi studi presso il Laboratory for Computer Science (LCS) del prestigioso Massachusetts Institute of Technology (MIT) di Boston, dove, un anno dopo, ha fondato il World Wide Web Consortium (W3C), consorzio che oggi regole tutte le specifiche del WWW.

[23] La nozione di grafo è molto importante sia nella Matematica discreta che nella ricerca operativa. I vertici (nodi, punti,) rappresentano persone, industrie o altro e le frecce indicano le relazioni. Si veda, per i grafi,  il capitolo riguardante

[24] A Platone ed alle sue opere, e al suo pensiero riletto con gli occhi attuali, sarà dedicato il successivo paragrafo 1.4.

[25] La nozione di villaggio globalizzato è stata teorizzata dal canadese  Marshall MCLUHAN, Gli strumenti per comunicare (Understanding Media, 1964 ), Il Saggiatore, Milano, 1993. 

 

[26] M.McLuhan, letterato ed ingegnere, fu direttore del Center of Culture and Tecnology di Toronto.

[27] M.McLuhan, Understanding Media, op.cit.

 

[28] J. Meyrovitz, Oltre il senso del luogo (No sense of place, 1980), Baskerville, Bologna, 1992; si veda pure l’opera  dall’economista Harold A. INNIS, Le tendenze della Comunicazione, Sugarco, Milano, 1983. 

 

[29] A riguardo è interessante leggere l’opera di George Orwell, 1984, pubblicata nel 1948, oppure vedere il film di Michael Radford: “Orwell 1984” (uscito nel 1984). Si veda una recensione del film nel sito www.apav.it, sezione “Scienze, Comunicazione e società” voce “cinema”.  

[30] Si vedano i film “L’uomo che volle farsi Re”(da un racconto di Kipling)  e “Un borghese piccolo piccolo” con Alberto Sordi,  le cui recensioni “massoniche” si possono leggere in www.deacademia.it un sito nel quale possono trovarsi anche interessanti FAQ relative alla Massoneria. 

[31] Un recensione di Farenheit 451 si può trovare nel sito www.apav.it, sezione “Scienze, matematica e società” voce “cinema”.  E’ bene non confondere questo film con “Farenheit 9/11” di Michael Moore, vincitore della Palma d’oro  Cannes e che riguarda l’11 settembre (9), ovvero i 112 minuti che hanno sconvolto il mondo e le  pieghe nascoste (secondo Moore) della politica estera di Bush.

[32] S. Tagliagambe, Epistemologia del cyberspazio, Demos, Cagliari, 1997.Dello stesso autore:Epistemologia del confine, Il Saggiatore, Milano 1997.

[33] Sul concetto di nomadismo spirituale, si veda : Josif Aleksandrovic BRODSKIJ, Fuga da Bisanzio, Adelphi, Milano,1990. ( Brodskij è stato Premio Nobel per la Letteratura nel 1987.)  Per quel che concerne le problematiche inerenti all’etnicità si veda per esempio UgoFabietti , L’identità etnica, Carocci, Roma, 1995; Vittorio Lanternari, L’incivilimento dei barbari. Problemi di etnocentrismo e d’identità, Dedalo, Bari, 1990; Francesco Remotti, Contro l’identità, Laterza, Roma-Bari, 1996.

[34] MARTE, progetto del CRS4.l’acronimo sta per  Moduli d’Apprendimento su Rete Tecno-Educativa. Intende promuovere nuove strategie educative basate sull’integrazione di tecnologie innovative, quali le reti telematiche e i supporti multimediali e ipermediali nella pratica scolastica, sostenendo un progressivo cambiamento sia nella strutturazione delle attività curricolari che nelle modalità con cui lo studente apprende e si relaziona al mondo esterno. Il progetto si basa su alcune delle linee guida tracciate dalla Commissione dei Saggi per la riforma della scuola, il cui fine è quello di ottenere una corrispondenza funzionale tra metodologie di insegnamento e modalità di fruizione delle tecnologie sopra citate.

[35] Runciman Walter, Trattato di teoria sociale, Einaudi, Torino, 1989 p. 6.

 

 

[37] Può sembrare strano che si proponga ad un allievo di Informatica una lettura, sia pur breve, dell’opera di Platone. Tuttavia va notato che molte delle problematiche, anche connesse con il mondo dell’Informatica,  che un allievo di Scienze della Comunicazione incontra, derivano dalla Filosofia, ed in particolare sono presenti in aspetti delle opere di Platone.  Platone è anche il più antico filosofo la cui opera ci sia pervenuta, è un pensatore poderoso e filosofi antichi e moderni si sono sempre cimentati con i raffrontarsi con le sue idee. Conoscere il suo pensiero è  un sapere di base fondamentale, qui riassunto per voi. Sarei ben contento se alcuni di voi, per diletto e aumento del sapere individuale, provasse a leggere qualcuno dei dialoghi (la cui lista è in appendice) del grande maestro Ateniese.  

 

[38] Lo studente che nella sua preparazione di base ha lacune in questi saperi di base relativi alla nascita e allo sviluppo del teatro greco perde momenti del sapere di profondo contenuto, tuttavia non è impossibile colmare questo aspetto del sapere, magari anche recandosi nella città di Siracusa per assistere alle  rappresentazioni teatrali nel teatro del tempo, ancora operante in quella città, dopo essersi procurati una documentazione su ciò che vedranno ed udiranno.

[39] Eschilo muore a Gela  nel 456 a.C. Autore di 90 tragedie pervase dal senso religioso e dal fato e dal trionfo del bene. Ci sono giunte sette tragedie: Le supplici, I Persiani, I sette a Tebe, Prometeo incatenato, la trilogia Orestiade (Agamennone, Coefore, Eumenidi).

[40] Sofocle era religiosamente ortodosso. Ci sono giunte sette tragedie: Antigone, Aiace, Edipo re, Elettra, Le Trachinie, Filottete, Edipo a Colono.

[41] Euripide è autore di 92 tragedie delle quali ce ne sono pervenute 19.  E’ il primo a rappresentare  sulla scena passioni, sentimenti, ed interessi pinamente umani, perde d’importanza il coro a favore dell’individuo. Ricordiamo le seguenti: Alcesti, Medea, Le Supplici, Elettra, Ifigenia in Tauride, Oreste, Ippolito, Andromaca, Ifigenia in Aulide, Le Baccanti, Ecuba, Elena, Eracle. In particolare nelle Troiane, Euripide protesta contro le barbarie degli ateniesi che la guerra contro Sparta aveva reso crudeli e spietati operato dagli ateniesi, e contro il massacro, avvenuto nel 416 a.C., nella conquistata isola di Melos, alleata di Sparta.

[42] Aristofane è invece il poeta comico, prendeva in giro Socrate, i sofisti e i filosofi, pure appartenendo al loro circolo; nel Simposio Platone lo presenta in rapporti amichevoli con Socrate. Autore di 44 commedie delle quali ce ne sono pervenute 11. Tra queste: Le Nuvole (423) satira della filosofia socratica.

[43] G.Reale, Radici culturali e spirituali dell’Europa, Scienze ed idee, collana diretta da G.Giorello, R.Cortina Ed., Milano 2003.

[44] E’ fondamentale non appiattire l’idea identificando il termine  interpretare  con il verbo osservare, attivo il primo, forse passivo il secondo; l’idea di sfaccettatura come evento osservato e interpretato, chiarisce l’idea di verità  nella sua parte soggettiva, una vera e propria interpretazione (una delle tante naturalmente!). Platone con il suo mondo delle idee forse pensava che si potesse giungere a comprendere la totalità delle sfaccettature di un evento, cogliendone così l’essenza totale. 

[45] cf. trad. in :  Enriques-De Santillana, Storia del Pensiero Scientifico, Milano 1932, pg. 184.

 

[46] In questo aspetto rileviamo una contraddizione tra il suo vedere molteplici le verità umane, come afferma nel Menone (cf. nota 2 ???), e poi ritenere che esista una verità assoluta nel mondo delle idee, purché la si riesca a leggere.

[47] Aristotile riservava ai cosiddetti giudizi il principio del terzo escluso. Così i giudizi erano proposizioni vere o false e solo con essi si costruiva una Scienza Dimostrativa.

[48] L’affermazione è suffragata dalla nota circostanza che Aristotile tenne in gran conto i cosiddetti  futuri contingenti, come ad esempio  “… l’anno venturo ci sarà una battaglia a Lepanto …”. Si tratta del primo incontro con una frase indeterminato temporalmente ma che sarà un giudizio! 

[49] Chi scrive ha avuto varie esperienze in questa direzione cambiando più volte ambiente, interessi di ricerca, se si vuole anche lavoro. Nell’adattarsi ad ambienti e ruoli diversi e riciclandosi in direzioni di ricerca diverse vi è una sorta di “fanciullino” che si riscopre in se, che è contento del nuovo gioco in quel duplice motto che asserisce: “ Il mutamento è vita, la stasi è vicina alla morte!” 

 

[50] Cfr. D.Gillies-G.Giorello, La Filosofia della Scienza nel XX secolo, Laterza,1993./ pg. 281/286

[51] Vale la pena di visionare il film “The Mask” di Charles Russel con Jim Carey e Cameron Diaz, uno dei prototipi del fenomeno effetti speciali, computerizzati, in questo caso decisamente esagerati. Oppure si pensi solamente al film King Kong del ’79, in cui il mostro era animato meccanicamente ed al nuovo film di King Kong di Peter Jackson in cui il maxi gorilla è stato realizzato completamente con il computer

[52] Ilya Prigogine (1917-2003) è nato a Mosca e poi si è trasferito in Belgio, fin dal 1929,  trascorrendovi la  gran parte della sua esistenza. Si laurea nel 1941 a Bruxelles e intraprende il dottorato e l’attività di ricercatore. Come chimico-fisico, ha ottenuto il premio Nobel nel 1977. Si è occupato, come teorico, della stabilità dei sistemi lontani dall’equilibrio termodinamico e dei problemi dissipativi. Ha avuto due grandissime illusioni: far riconoscere alla Fisica l’esistenza della freccia del tempo; racchiudere in una formula l’ordine e la complessità del mondo.  Come sognatore o -se volete- come coltivatore di grandi progetti metafisici, è stato a un passo dall’eresia scientifica. (Cf. [Nota biografica e scheda di Domenico Turco (http://www.mondo3.it/)].  

[53] 17 Cfr. I.Prigogine, La nascita del tempo, Tascabili Bompiani, Milano, 2001. Questo piccolo volumetto, scritto in modo molto semplice, è un ottimo approccio con chi abbia scarsa familiarità con il ragionamento e il linguaggio scientifico.

[54] J. Napier (1550-1617), matematico, inventore dei logaritmi e della trigonometria sferica. Il suo nome e anche noto nella forma italianizzata: Nepero. Dei logaritmi si parlerà nel capitolo dedicato alla storia delle macchine da calcolo.  

[55] G.W. Leibnitz.  filosofo e  matematico tedesco, inventore del calcolo infinitesimale (in contemporanea a Newton). Troveremo varie notizie  nel capitolo dedicato alla storia delle macchine da calcolo, come inventore del calcolo binario e di una macchina da calcolo.   

[56] Carneade di Cirene (214 –129 a.C),fu uno dei  fondatori della Nuova accademia, ispirata alla Accademia di Platone (428-347 a:C.) fondata nel 387 a.C. Carneade critica aspramente lo Stoicismo e la loro  teologia  ed accetta visioni in campo conoscitivo che preludono al probabilismo ed a visioni soggettive del concetto di  verità.

 

[57] Augustus De Morgan (27 giugno 1806 Madura ora Madurai, Tamil Nadu, India, – 18 marzo 1871), nacque in India e divenne un famoso matematico e logico britannico. De Morgan scoprì l’algebra relazionale in una sua pubblicazione del 1860 e getto le basi del calcolo relazione, strumento oggi utilizzato per realizzare le query in un database relazionale. Inoltre De Morgan introdusse per primo il termine induzione matematica rendendone rigoroso il concetto ed inoltre sempre a lui si devono i famosi teoremi di De Morgan, alla base di tutti i sistemi logici elettronici ed informatici.

[58] George Boole (2 novembre 1815 Lincoln – 8 dicembre 1864 Ballintemple) è il fondatore della logica matematica, settore della matematica che studia i sistemi formali al fine di astrarre vere e proprie tecniche di codifica di concetti intuitivi della dimostrazione e della computazione. Autodidatta, i suoi studi si basarono sulle teorie di  Laplace e Lagrange e sviluppò, inoltre, anche i concetti espressi da Leibniz sul sistema binario Nel 1854 pubblicò la sua opera più importante: An Investigation of the Laws of Thought, on Which are founded the Mathematical Theories of Logic and Probabilities nella quale cominciò a prendere forma l’algebra che oggi porta il suo nome: algebra booleana. Infatti in questa pubblicazione Boole riuscì ad identificare delle analogie fra gli oggetti della logica e gli oggetti dell’algebra, riconducendo le composizione di enunciati ad operazioni del tutto formali, per meglio dire algebriche. In pratica Boole definì lo strumento concettuale che oggi si trova alla base di ogni calcolatore e circuito elettrico. L’algebra booleana faceva così il suo ingresso nel panorama scientifico mondiale ed altro non si trattava che di un calcolo su base logica a due valori (anche noti come valori di verità o zero ed uno) regolato su alcune particolari leggi che consentivano, appunto, di operare su delle proposizioni allo stesso modo in cui si opera sull’entità matematiche. Morto a soli 49 anni a causa di un raffreddore mal curato (probabilmente a causa della moglie che soleva bagnarlo ogni giorno per far andare via il raffreddore in quanto questa riteneva che qualsiasi cosa avesse causato una malattia ne forniva anche la cura) durante la sua vita venne ritenuto un “purista” della matematica e quindi le sue idee non furono mai usate in ambito applicativo. Solo nel 1938 un studente del MIT ritenne utilissimo il lavoro di Boole, tant’è che la sua tesi si basò proprio sull’utilizzo dell’algebra booleana. Questo stendete era Claude Shannon, il quale mostrò come la logica simbolica di Boole poteva essere applicata, in pratica, per rappresentare gli stati di funzionamento degli interruttori nei circuiti elettronici. La logica booleana basa principalmente la sua teoria su due valori del dominio di interesse e tre operazioni principali su tale dominio: i valori sono 1 e 0, mentre le operazioni AND, OR e NOT. Di seguito vengono riportati tutti i valori che è possibile calcolare: 0 AND 0 = 0, 1 AND 0 = 0, 0 AND 1 = 0, 1 AND 1 = 1 | 0 OR 0 = 0, 1 OR 0 = 1, 0 OR 1 = 1, 1 OR 1 =  1 | NOT 0 = 1, NOT 1 = 0

[59] C.S. PEIRCE, filosofo fondatore del pragmatismo americano. Fu anche tra i fondatori della logica Matematica.

[60] Frances A. Yates, L’Arte della Memoria, trad, it. Torino 1972.

[61] Agrippa Cornelio, De incertitudine et vanitate scientiarium declamatio invectiva, 1527; Della vanità delle scienze, versione italiana di L. Domenichi, Venezia 1547.

[62] Ignazio di Loyola, Esercizi spirituali, trad. it. di G. Giudici, Milano 1984. (Exercitia Spiritualia Sancti Ignatii de Loyola et eorum directoria- ex autographis vel ex antiquioribus exemplis collecta, Madrid 1919.) Vedi anche quanto concerne il Gesuita Matteo Ricci, citato in una successiva nota. 

[63] Quintiliano, Institutio Oratoria, vol. IV, Loeb Classical Library, New York 1936.

[64] Cicerone, Ad Herennium, Loeb Classical Library, New York 1968. 

[65] Aristotele, “De Anima”.

 

[66] J.D.Spence, Il Palazzo della memoria di Matteo Ricci, Il Saggiatore, Milano, 1987. Ricordiamo varie opere del Ricci: Il «Saggio d’Occidente”, Roma 1965,  Il mappamondo cinese (terza edizione, Pechino 1602) conservato presso la Biblioteca Vaticana, Città del Vaticano 1938, Trattato sull’amicizia, primo libro scritto in cinese da Matteo Ricci S.I. (1595), in «Studia Missionalia», 7 (1952), pp.452-515.

 

[67] Il romanzo di Blake Morrison,  La Confessione di Gutemberg (The Justification of Johannes Gutenberg), TEA, Longanesi, Milano 2000, è un’ipotetica autobiografia dell’inventore tedesco.

 

[68] Copie e materiale originale della produzione Gutemberg sono oggi esposte nel Museo di Maiz (Magonza) e sono di un interesse incredibile. 

 

[69] 31 Alessandria d’Egitto fu fondata da  Alessandro Magno attorno al 332 a.C.

 

[70] Tolomeo I, Sotere, generale macedone, partecipò con Alessandro Magno alla spedizione in Asia. Nel 323, alla morte di Alessandro, diviene satrapo (governatore) d’Egitto e si proclama  Re nel 305. Tolomeo II, il Filadelfo,  suo figlio, condivise il trono e regnò dopo di lui. Seguono altri dodici re tutti di nome Tolomeo. Tolomeo XII (61-47 a.C.), fratello di Cleopatra,  fu sconfitto da Giulio Cesare. Tolomeo XIV, sposò Cleopatra per volere di Cesare, e fu ucciso subito dopo. La satrapià è il nome attribuito ai tempi dell’antica Persia e Dario ad una Provincia amministrativa, delle dimensioni dell’Egitto. Satrapo è invece sinonimo di governatore amministrativo.

[71] Incunabolo – dal latino “cuna” culla, nel senso di prima fase.

 

[72] Nell’ordinamento giuridico italiano le norme che regolano la libertà di stampa sono contenute nell’art. 21 della Costituzione Italiana in cui si legge: “Tutti hanno diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione. La stampa non può essere soggetta ad autorizzazioni o censure……”

 

[73] Termine probabilmente introdotto da J. Mc Carthy, l’organizzatore di un Convegno sulla “Computer Science” tenutosi a Dartmouth nel 1956, durante il quale emerse il termine ed entrò nel vocabolario ufficiale della comunità informatica. 

 

[74] Orwell George, 1984, ed.it. Milano 1950.

 

[75] Wilhelm Leibniz (Lipsia 1 luglio 1646 – Hannover 14 novembre 1716). Compì studi di filosofia, diritto e matematica. Lasciò Lipsia nel 1666 quando gli fu negato un dottorato perché aveva solo venti anni, dottorato che gli fu conferito a Nunberg, dove gli venne offerta anche una cattedra che rifiutò per lavorare al servizio dell’Elettore di Mainz. Nel 1667 si dedicò alla vita diplomatica, prima a Magonza, poi a Brunswick e dal 1676 a Hannover. E’ stato uno dei più grandi tra i filosofi matematici, con una gran produzione di scritti, ma la discontinuità con cui conduceva i suoi studi lo portò a completare solo poche opere. Instaurò rapporti di amicizia con molti intellettuali del suo tempo. Nel 1672, a Parigi, conobbe Huygens, incontro che si rivelò fondamentale e che gli permise di approfondire le sue conoscenze di matematica. Nel 1673 venne a conoscenza dei lavori di Barrow. Sviluppò il Calcolo differenziale e integrale indipendentemente da Newton, perfezionò la macchina calcolatrice di Pascal e gettò i fondamenti della Dinamica. Nel 1684 pubblicò l’articolo Nuovi metodi per trovare i massimi e i minimi sul periodico scientifico ACTA ERUDITORUM, da lui stesso fondato. Nell’articolo introduce il simbolo ancora oggi utilizzato, e le regole per il calcolo della derivata di potenze, prodotti e quozienti. δLa simbologia che Leibnitz introdusse risultò molto potente e contribuì notevolmente allo sviluppo dell’analisi matematica. Al servizio del Duca di Hannover fu anche Ispettore Scolastico e ingegnere minerario, ma continuò però le sue ricerche, descrivendo il Sistema Binario e gettando le fondamenta della Topologia. Entrò in polemica con Newton relativamente alla paternità del calcolo infinitesimale, polemica che lo allontanò dalla comunità scientifica. Fornì contributi importanti anche alla Logica. Progettò di costruire un’algebra della logica, progetto poi ripreso da Boole nel XIX secolo.

[76] Cfr.pg. 10 in, La struttura delle rivoluzioni scientifiche, Torino,1969.

[77] Cfr pg. 97 in Il segno dei tre, Milano, 2004

[78] Cfr. E. Castelnuovo, 1968.

[79] Cfr. pg. 37 in S. Freud, Il Mosè di Michelangelo, torino, 1976.

[80] Cfr pg. 104 in Il segno dei tre, Milano, 1995.

[81] Cfr pg. 102 in Il segno dei tre, Milano, 1995.

[82] Cfr pg. 105 in Il segno dei tre, Milano, 1995.

 

[83] Cfr A. Vesselowsky, 1866.

[84] Cfr. J. Gernet, 1963

[85] Cfr. Ginzburg Spie. Radici di un paradigma indiziario

[86] Cr. J.N. Eritreo (G.V. Rossi), 1692, vol. II, pp. 79-82.

[87] Cfr. pg. 117 in Il segno dei tre, Milano, 1995

[88] Mancini, Considerazioni cit., pg.134.

[89] Ibid.

[90] Cfr pg. 120 in Il segno dei tre, Milano, 1995

[91] Ibid. pg. 122

[92] Cfr. P.G.J. Cabains in La certezza della medicina, Bari, 1974.

[93] Cfr.Ginzburg, 1796 pp. 69-70

[94] CFr J.J. Winckelmann, 1954, pg..316

[95] Cfr. Cerulli, 1975, pg.347 sgg.

[96] Cfr. T. Huxley, 1881, pp. 128-48.

[97] Cfr pg.126 in Il segno dei tre, Milano, 1995.

[98] Cfr. pg. 128 im Il segno dei tre, Milano, 1995.

[99] Cfr. AA.VV. 1977.

[100] Cfr A. Caldera, 1924.

[101] Cfr.L. Lanzi In Storia Pittorica, 1968, vol. I, p. 15.

[102] Cfr. M. Foucault, 1795,.

[103] Cfr. p129 in Il segno dei Tre, 1995, Milano.

[104] Cfr. F. Galton, 1892.

[105] Cfr J.E. Purkynĕ, 1948, pp 29-56

[106] Cfr. Galton, 1892, pp 24 sgg.

[107] Cfr pg. 132 ne Il segno dei Tre, 1995, Milano.

[108] Cfr. Galton, 1892, pp.27-28.

[109] Cfp pg.132 in Il segno dei tre, 1995, Milano.

[110] Cfr Galton, 1892, pp. 17-18.

[111] Cfr. Galton, 1892, p.169.

[112] Cfr. pg.135 ne, Il segno dei tre, 1995, Milano.

[113] Cfr. Stendhal, Ricordi di egotismo,Torino, 1977, p 37.

[114] Cfr p.135 ne Il segno dei tre, Milano, 1995.

[115] Cf. F.Eugeni e Leo Marchetti (a cura di): Sherlock Holmes: il grande Detective di rinomanza internazionale (Raccolta di pastiches, inediti, parodie, cronologie e osservazioni), Vol. I-II editi in occasione del Convegno Nazionale sulla Letteratura popolare, Roseto 2002. (vedi anche in www.apav.it sezione “Sherlock Holmes”).

[116] Consideriamo il seguente problema: dati i due numeri a, b ci si chiede sotto quali condizioni sia possibile trovare un numero incognito X tale che verifichi la seguente equazione esponenziale: ax = b . Si dimostra, ed allora fu ben intuito da Napier, Burgi e Briggs che se e solo se a, b sono positivi ed a è diverso da 1, allora esiste uno ed un solo X che risolve l’equazione. Il problema consiste nel fatto che se anche se ne conosce l’esistenza del numero logaritmo, il più delle volte non si sapeva allora come non si sa oggi, come trovarlo con esattezza. Furono quindi realizzate le tavole, che ci permettevano di trovare X dati a, b. Oggi, lo stesso ufficio è svolto da una buona calcolatrice elettronica, che contenga la funzione logaritmo. Da quanto detto emerge che non siamo in grado di trovare X esattamente, allora si pone: X = lg a b . Così si può dire che: l’incognita da trovare, vale a dire il logaritmo in base a del numero b, è l’esponente X da dare alla base a per avere il numero b.  Fu successiva l’idea di riportare tutti i numeri alla stessa base 10 e quindi riservare il simbolo “lg”, senza l’indice in basso, ai logaritmi in base 10. (Oggi il medesimo simbolo scritto “log” oppure “ln” è riservato ai logaritmi in base “e”). Il riporto era possibile per via della seguente importante proprietà che si chiama “cambiamento di base”:  lg a b =  lg b / lg a . É allora interessante osservare che la validità delle tre proprietà seguenti permettono di ricondurre il calcolo di un prodotto, quoziente e radice a sole somme e sottrazioni. Basta per questo utilizzare le formule: lg (a * b) = lg a + lg b , lg (a / b) = lg a – lg b , n lg a = log an, (1/n) lg a = log a(1/n).

[117] Lo svedese George Scheutz (1785-1873) nacque il 23 Settembre nella cittadina di Jonkoping, vicino al Lago di Vattern a sud-ovest di Stoccolma. Essendo la cittadina sulla via di comunicazione tra Svezia e Danimarca, molti viaggiatori sostavano a Jonkoping, dove la famiglia Sheutz, di origine tedesca, gestiva un fiorente Albergo. La sua famiglia aveva una cultura superiore a quella degli albergatori del tempo e George ebbe l’opportunità di formarsi adeguatamente incitato dalla sua proverbiale curiosità. Si distinguono solitamente tre periodi della vita di George Sheutz. La fase letteraria (1809-1812) nella quale opera essenzialmente per traduzioni e rielaborazioni le quali evidenziano il suo carattere pratico. Molto vasto il suo lavoro che riprenderà a tarda età. La fase politico- giornalistica e la sua attività editoriale dal 1812 al 1822. Questa attività ha inizio con la legge sulla libertà di stampa del 1812 che dava molto spazio a giornalisti aperti a nuove problematiche. Un accordo con Frederick Cedeborgh (1784-1835) rafforzò questa sua attività. Nel 1917 Sheutz acquistò la tipografia Cederborgh a Stoccolma, che mandò avanti come editore di giornali occupandosi sistematicamente di tutto quello che poteva concernere il sociale. La fase tecnologica che dal 1825 (prima pubblicazione tecnica) fino a tutto il 1860, periodo dopo il quale ritorna la sua passione letteraria. Fin dagli anni nei quali si occupò della tipografia Sheutz mostrò la sua capacità ad inventare meccanismi che poi sistematicamente brevettava. Inventò una pressa per la stampa e vari strumenti per l’incisione. Si dedicò a seguire le pubblicazioni straniere traducendo, riassumendo o rimaneggiando tutto quello che poteva essere importante in terra svedese. Venne a conoscenza dei progetti relativi alla macchina di Babbage e si pose l’obiettivo della sua realizzazione. Condivide la sua passione il figlio Edvard Sheutz (1821-1881). Per 20 anni seguì questo obiettivo e quando finalmente l’ebbe raggiunto tornò al genere letterario che riempi da 1861 al 1873 l’ultimo periodo della sua vita.

[118] Konrad ZUSE (1910- 1983) nacque a Berlino nel 1910. Conseguì la Laurea in Ingegneria Civile al Politecnico di Berlino. Fu Zuse a progettare e costruire il primo calcolatore elettromeccanico, lo Z2 nel 1938-39 e quindi lo Z3 nel 1941. Lo Z3 rimane il primo calcolatore ad essere completamente digitale e a funzionare solamente con relè elettromagnetici, senza l’aiuto di congegni meccanici o valvole. Zuse adottò, per questo, anche l’uso della rappresentazione binaria dei numeri anticipando quanto sarebbe avvenuto in un non lontano futuro. Zuse si rivelò un ingegnere originale e poliedrico. Era figlio di un solerte impiegato postale prussiano e questo spirito dell’efficientismo prussiano era in lui. Tuttavia non ebbe grandi stimoli dall’ambiente che frequentava e tutta la sua capacità derivava da grande energia fisica e morale che proveniva dal suo interno. Aveva un obiettivo: il desiderio di migliorare il mondo in cui viveva. La sua poliedricità di interessi coprì quasi tutti i campi dello scibile umano, su ciascuno se Zuse ha detto qualcosa è stato sempre qualcosa di serio ed originale. Più volte nella sua vita ha dichiarato di aver fatte sue le parole dello scrittore a lui preferito Rainer Maria Rilke (cfr. Lettere ad un giovane poeta, Vallecchi, Firenze, 1958, p.12), dove per lui la parola “scrivere “ è intesa nel senso generale di “operare”: “Nessuno vi può consigliare. C’è una sola via. Penetrate in voi stesso. Ricercate la ragione che chiama a scrivere; esaminate che essa estenda le sue radici nel più profondo luogo del vostro cuore, confessatevi (a qualcuno) se sareste costretto a morire, quando vi si negasse di scrivere. Questo anzitutto, domandatevi nell’ora silenziosa della notte: devo io scrivere? Scavate dentro voi stesso per una profonda risposta. E se questa dovesse suonare consenso, se v’è concesso affrontare questa grave domanda con un forte e semplice “debbo”, allora edificate la vostra vita secondo questa necessità. La vostra vita fin dentro la sua più indifferente e minima ora deve farsi segno e testimonio di quest’impulso.” Da studente liceale dopo la proiezione del film Metropolis dell’austriaco Fritz Lang (1890-1856) si butta nel progetto di una città per lui ideale che chiama Metropolis. Giudica il film di Lang un colossale errore di valutazione e propone una sua soluzione. Il mondo sotterraneo di Metropolis, con le macchine che fanno funzionare la città, con operai che lavorano forzatamente 10 ore sulle 20 ore che compongono il giorno artificiale, imposto da J. Fredersen il padrone di Metropolis, mostra un angosciante futuro di schiavitù operaia. Una delle immagini più diffuse nel 1920 fu quella che mostra Freder Fredersen, il figlio del padrone, che sorregge Georgy uno degli operai addetti alle macchine del sottosuolo, che ha avuto un collasso per superlavoro.

[119] William Henry Gates III, noto al mondo con il nome di Bill Gates, (28 ottobre 1955 Seattle, Washington) era figlio di un procuratore e di un’insegnante dell’Università di Washington. Fin da piccolo dimostrò attitudine per l’informatica, infatti presso la scuola privata di Lakeside, a nord di Seattle, Gates coltivò la sua passione per i computer divenendo, alla sola età di 13 anni, programmatore di un DEC PDP-10 della General Electric, computer preso a noleggio dalla scuola. In quel contesto Gates, insieme a Paul Allen e altri studenti, creò un gruppo denominato il “Lakeside Programmers Group” che verrà in seguito completamente assorbito dalla Microsoft. Nel 1972 Gates fondò la sua prima vera società (insieme a Paul Allen, da cui non si dividerà mai) la Traf-O-Data, che progettò un computer per la misurazione del traffico stradale. Nel 1973, anno in cui Gates comincia l’Harvard University in cantiere già vi erano diversi progetti. Il cambio di rotta avvenne nel 1974 quando uscì il Microcomputer Altair8800, infatti in quell’anno Allen e Gates riuscirono a vendere il loro primo vero software direttamente alla MITS, produttrice dell’Altair. Nel 1975 venne così fondata la Microsoft Corporation. Oggi la Microsoft è la più potente società informatica presente nel mondo ed i suoi prodotti (MS-DOS, tutta la famiglia Windows da Windows 1.0 a Windows Vista, la famiglia dei pacchetti Office, considerando anche i mouse o le consolle, prima fra tutte l’X-BOX) sono oramai divenuti uno standard de facto.

[120] L’informazione sulla rete transita suddivisa in pacchetti che viaggiano indipendentemente verso una stessa direzione; questo vale per tutti i tipi di dati, compresi audio e video. La trasmissione diventa problematica quando il flusso audio va da una sorgente a molti ascoltatori e non da un utente ad un altro utente. Utilizzando i protocolli Internet classici, in questo caso l’IP, è necessario stabilire un flusso separato per ogni ascoltatore che si collega a un server multimediale (multicast IP); ciò comporta che un pacchetto IP possa avere diverse destinazioni e venga duplicato e smistato solo all’ultimo momento. Il problema, tutt’altro che semplice fu aggirato da un gruppo di ricercatori del PARC di Xerox, sviluppando Mbone (multicast backbone), una rete virtuale che si appoggiava sull’infrastruttura IP e consentiva una specie di multicast creando dei tunnel logici sulla rete, attraverso cui passavano i flussi audio e video. Questo segnò l’inizio di un forte interesse anche commerciale nella trasmissione di audio e video via Internet.

[121] Chiaramente il metodo dello schiavo oggigiorno non viene più utilizzato, non solo perché non c’è più lo schiavo ma soprattutto perché si lotta con dei tempi connessi ad una velocità di trasmissione del messaggio istantanea.

[122] Con la Riforma nasce così la “spia ideologica”: uomini e donne di ogni ceto sociale divennero traditori della loro patria per servire gli interessi di una delle due fazioni cristiane in lotta.

[123] É bene che i messaggi cifrati sembrino veri

[124] Si tratta anche della tabella additiva delle classi resto modulo 26, quindi un esempio di gruppo finito.

[125] Ovvero la sottrazione modulo 26

[126] Hilbert David Konigsberg (23 gennaio 1862 Gottinga – 14 febbraio 1943). Nel 1885 si laureò presso l’Università di Konigsberg con una tesi sulla Teoria degli Invarianti . Nel 1895 ottenne la cattedra all’Università di Gottinga, dove rimase tutta la vita. Nel 1899, con FONDAMENTI DELLA GEOMETRIA , partendo dalla critica di Euclide, “ridefinisce” la geometria come sistema assiomatico (rigoroso e del tutto indipendente dal contenuto fisico o numerico che possa esprimere), distinguendola così dalla geometria come scienza dell’estensione. Questo suo lavoro sulla geometria ha avuto una grandissima influenza, da esso si determina infatti lo sviluppo della geometria non-euclidea e prende il via il “nuovo corso” della matematica che ha poi caratterizzato il XX secolo. Hilbert ha “iniziato” il formalismo, movimento secondo cui la matematica è definita come un insieme di sistemi formali : le proposizioni si ottengono tutte a partire da un insieme di assiomi di cui vanno provate la coerenza, l’indipendenza e la completezza. Il Programma di Hilbert ha portato allo sviluppo della Teoria della Commutabilità. Una sua raccolta di 23 problemi, indicati ancora oggi con il nome di Problemi di Hilbert, alcuni dei quali ancora senza soluzione, ha influenzato profondamente la matematica del XX secolo. Hilbert ha fornito contributi notevoli anche in altri campi : ha prodotto le basi matematiche alla meccanica quantistica, ha dimostrato risultati di algebra astratta (poi utilizzati dalla Noether nell’algebra degli ideali e degli anelli), ha concepito il primo spazio di funzioni. Nel 1928 fu nominato membro della Royal Society.

 

Questo sito si avvale di cookie tecnici necessari al funzionamento dello stesso ed utili per le finalità illustrate nella cookie policy. Continuando la navigazione o cliccando su "Accetto" acconsenti all’uso dei cookie. Maggiori informazioni...

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi