domenica 21 febbraio 2010

La nascita del significato

WILARD parte sesta. I modelli, il mondo sensibile, la nascita del significato.

In questo excursus che procede a volo radente su temi che fanno tremare i polsi a fior di filosofi ed epistemologi, e che riguardano la definizione di cosa sia la scienza esatta, la funzione dell'esperimento e come questo abbia cambiato la percezione del vero, focalizzandosi sin dai tempi di Galileo sulla descrizione quantitativa dei fenomeni della realtà più che sulla compresione metafisica degli stessi, abbiamo intravisto anche che in alcuni comparti della scienza come nelle scienze umane il ruolo e l'influenza dello sperimentatore non sia un elemento astratto ed estruso dall'esperimento: l'uomo tende ad assegnare significati a priori ai fenomeni e questo è proprio ciò che il metodo sperimentale e la scienza moderna dai tempi di Galileo cercano di escludere. Sono ammesse solo descrizioni fenomenologiche ripetibili misurabili, non sono ammesse interpretazioni non quantitative, per quanto possano essere brillanti, direttamente o indirettamente non osservabili.

Notiamo che dal metodo sperimentale e dalla scienza è nata una filosofia sociale, il materialismo e una corrente di pensiero che prende il nome di positivismo, che ritiene vero solo ciò che è direttamente misurabile. Questo concetto ha permeato talmente la nostra cultura che lo riteniamo un vero "per sè". Nessuno lo mette in discussione, volendo da un lato misurare anche fenomeni che non lo sono, come il destino, l'amore, la psiche, e così via, dall'altro negando dignità a questioni metafisiche come l'esistenza di Dio, l'origine causale del cosmo, l'entelechia dell'anima il significato del nostro destino e la natura metafisica dell'etica.
Tutti temi che fino a Kant ed Hegel trovavano piena dignità nel pensiero umano.

Dalla nascita del metodo sperimentale, che si è affermato con sicurezza nelle scienze esatte e sociali, l'approccio con la realtà che la prassi scientifica moderna ha, ha portato a dover fronteggiare il problema di manipolare l'incertezza di alcune sue manifestazioni: questo ha favorito il fiorire nuove scienze, che non sono matematiche ma autonomamente fondazionali, come la teoria della probabilità (il cui primo e più noto rappresentate è stato Pascal) e la statistica.
Qui il concetto di esperimento inteso come singolo rappresentate, istanza realizzata di un modello puro e perfetto - espressione di una funzione, una equazione descrittiva di un fenomeno - ad un certo punto comincia mutare.
La teoria della probabilità e la statistica nascono quasi come una curiosità, uno strumento descrittivo e manipolativo della teoria dei giochi, ma si approfondiscono sempre più nei secoli fino a raggiungere punti critici della teoria della conoscenza, fino a generare concetti assolutamente nuovi per la filosofia e per la scienza, come il significato di incertezza, il concetto di caso, e la sua natura. Il fenomeno, il dato, non è più inteso come rappresentante di un modello nitido e puro, ma come realizzazione di un disegno più generale descritto dai dati stessi spesso inconoscibile a priori.

E' interessante notare come in questo periodo si è cominciato a parlare di probabilità a posteriori e a posteriori, e come Bayes sia stato in grado di collegarle tra loro. Di fatto Bayes ha stabilito che la probabilità di osservare un fenomeno a posteriori (i.e. avendo osservato specifici dati della realtà) equivale alla verosimiglianza, i.e. alla distribuzione di probabilità dei dati in quello specifico tipo di fenomeno, per la probabilità a priori che avvenga quel tipo di fenomeno, normalizzata per la somma della verosimiglianze di tutti fenomeni (fig. a sinistra).

Notiamo che questa equazione largamente usata in statistica, non è un teorema ma una formula, una affermazione. Questo ci fa intendere quanto negli strati più profondi e riconosciuti della scienza teorica e sperimentale il vero e il falso non siano dei diamanti concettuali, intatti e puri, filosoficamente (e concretamente) inattaccabili, ma siano più pragmaticamente il risultato di una contrattazione sociale considerata vera da un ristretto numero di cultori che chiamiamo, propriamente o impropriamente, scienziati. La scienza non è vera, non fa affermazioni vere, ma parla di concetti considerati veri fino a prova contraria. Il vero in senso scientifico è il meglio che si possa dire secondo le conoscenze attuali, e non è un vero incontrovertibile.

Qualche decennio più tardi i chimici e i fisici formularono la teoria atomica della materia, gli atomi come elementi costitutivi e misurabili della materia all'interno di una teoria. Dalle misurazioni dei fenomeni corpuscolari, capirono in fretta che gli atomi non si comportavano affatto come un insieme di individui governati da leggi uguali, come ad esempio avveniva per i gravi nella teoria del moto galieliano, o i pianeti nella teoria gravitazionale di Newton, ma costituivano fenomeno teorico nuovo e a sè stante. Gli atomi e gli elementi subatomici si presentavano come la realizzazione di un fenomeno casuale (ma non caotico) descritto da una funzione di probabilità. Nasce la meccanica quantistica, che serve a sistematizzare un insieme di precetti assolutamente nuovi come il principio di indeterminazione di Heisenberg, il concetto di posizione probabilistica di una particella, la doppia natura ondulatoria e corpuscolare delle particelle, e così via dicendo.

In questa rivoluzione culturale - iniziata da Einstein, Pauli, e Plank e tuttora in corso di sviluppo e modificazione - si fa strada il concetto che le funzioni probabilistiche non siano pure astrazione matematiche, ma modelli descrittivi dell'infinitamente piccolo e delle forze ultime che regolano l'universo. Senza addentrarci in questioni che richiederebbero più di questo spazio per essere adeguatamente approfondite, diremo che il mondo non appare più binariamente diviso in concetti Aristotelicamente "veri o falsi", le verità non sono più legate ai fenomeni individuali, ma sono descritte dalle realizzazione di milioni di casi singoli, che condividono una formulazione unica, un impronta, la funzione di probabilità del fenomeno, o la sua descrizione collettiva.

Questo concetto inizialmente controverso comincia a influenzare anche altri rami della teoria della scienza, in particolare la teoria dell'informazione, intaccandone e modificandone profondamente il senso. La teoria dell'informazione precede la nascita dei computer, Aristotele ha parlato di logica, semantica e metodi di deduzione già negli analitici secondi, Boole ha fondato quei principi di logica operativa che sono alla base della costruzione dei microchip, l'omonima logica booleana, a metà dell ottocento. E' interessante notare che anche se l'informatica è nata in un periodo bellicoso e disincantato della storia della scienza, i dati in informatica sin dall'inizio sono stati legati ad una interpretazione, una semantica di tipo binario. L'informazione stava in un contesto dal significato sicuro: conforme o difforme al protocollo. Vero o falso. Tutto quello che si poteva dire aderiva ad una logica aristotelica. Esisteva o non esisteva.
Non solo, tutto si rifaceva ad una metodica di scuola Hilbertiana, secondo cui il significato di un simbolo non esiste intrinsecamente, ma solo estrinsencamente, il segno da solo ha significato. Le algebre sono perfettamente in grado di trasformare dati vecchi in dati nuovi seguendo protocolli senza necessità di comprendere i significati dei passaggi intermedi. Come uno scolaro trasforma una espressione algebrica lunga e complessa, fatta di numeri e lettere, radici, frazioni, esponenti, in un dato finale sintetico finale, usando sole poche regole che vengono meccanicamente applicate, così il computer poteva determinare un senso finale corretto (output) da uno iniziale (input) usando metodi finiti di manipolazione di simboli, di natura puramente sintattica. Questa la promessa di Hilbert, logico e matematico dei primi del '900. Questi metodi, oggi lo sappiamo, si chiamano programmi.

In tempi recentissimi questo approccio ha cominciato ad essere radicalmente messo in discussione. Tutti abbiamo sotto gli occhi la legnosa e tetragona concretezza dei nostri computer, formidabili attuatori incapaci di qualsiasi flessibilità interpretativa. Per superare i limiti imposti dal modello classico della computazione intesa come puro strumento sintattico si è voluto introdurre il concetto di interpetazione non binaria del dato, e di semantica (significato contestualizzato) dell'informazione.

Da qui si è fatto largo il concetto di significato del dato anche nella teoria dell'informazione.
I dati hanno un senso, e questo senso non è il risultato di una singola osservazione ma emerge come un pattern, un'impronta da un insieme di osservazioni. E' interessante notare come anche nell'informatica la statistica (ma non solo quella) abbia fatto breccia proprio come strumento valido per assegnare significato ai dati.
In particolare il teorema di Bayes è uno strumento potente, ma non l'unico, negli ambiti dell'intelligenza artificiale che consente di assegnare una semantica, ai dati provenienti dalla realtà.

Ma vedremo questo in seguito.

Nessun commento:

Tip

SM