martedì 28 luglio 2015

Il pensiero computazionale tra Platone e Aristotele

Iacoboni (i neuroni specchio, Bollati Boringhieri) racconta che le scoperte sulla comunanza percettiva e motoria nelle aree F4 e F5 del "macaco nemestrino" compiute negli anni ottanta, le stesse aree dove di lì a poco si sarebbero scoperti i neuroni specchio, fu in qualche modo anticipata da Merleau-Ponty, con un approccio filosofico "fenomenologico". La corrente, a cui aderiva anche Martin Heidegger, proponeva di "tornare alle cose stesse". Iacoboni riconosce in questo atteggiamento filosofico un'attitudine di fatto aristotelica che contrappone a quella platonica del "subire la seduzione del Santo Graal", del voler cioè "scoprire l'essenza ultima dei fenomeni, finendo così con l'impantanarsi nella riflessione astratta".
Nel caso di Feynman per esempio è sempre prevalso l'atteggiamento fenomenologico che nel fisico americano comunque è sempre stato finalizzato a mettere a punto sistemi di descrizioni e spiegazioni alternativi e innovativi, mentre Einstein ha utilizzato entrambi gli approcci: quello fenomenologico per esempio nel caso di tutti i lavori del 1905, ma anche quello platonico nella ricerca della relatività generale e delle teorie di unificazione, dove si è, in effetti, "impantanato".
L'orientamento fenomenologico, prosegue Iacoboni, "suggeriva di concentrare l'attenzione sugli oggetti e sui fenomeni del mondo e sulla nostra esperienza interiore di quegli stessi oggetti e fenomeni." Dunque consiste in pratica nel liberarsi di schemi dominanti anche se questi sembrano molto naturali, come per esempio l'idea che esistano nel cervello compartimenti separati per il movimento, per le percezioni e per le elaborazioni. Il "concentrarsi sulle cose stesse" cioè sulla fenomenologia, effettivamente ci può aiutare a liberarci di paradigmi che spesso agiscono anche "a nostra insaputa". Questo approccio coincide praticamente con il newtoniano "ipotesi non fingo" e, se esso non scivola nello sperimentalismo fine a se stesso, è solo grazie al fatto che la mente umana, la mente del ricercatore, è naturalmente e spontaneamente predisposta ad elaborare spiegazioni a dare un senso ai dati sperimentali ed a costruire teorie. Iacoboni racconta che quel gruppo di ricerca, l'équipe di Rizzolatti, non sprecò anni nel "tentativo di formulare regole computazionali astratte e complesse allo scopo di spiegare le osservazioni apparentemente bizzarre che andavano accumulando".
Questa affermazione ci ricorda invece che i metodi computazionali servono soltanto quando si può confidare su dei meccanismi certi, che in quel caso, essendo costituiti da uno schema preconcetto erroneo, non avrebbero mai potuto approdare a qualcosa di utile. In altre parole i metodi computazionali non possono servire per avere idee nuove su come è fatta la realtà e neppure per rendersi conto che tali idee sono necessarie.
Iacoboni conclude così la narrazione del percorso dal suo punto di vista di filosofo-storico della Natura della Scienza: “furono invece capaci di applicare alla ricerca neurofisiologica un approccio nuovo, indice di una mente aperta, approccio che io definisco «fenomenologia neurofisiologica» solo grazie a questa loro attitudine innovativa fu possibile rendersi conto che nel cervello percezione e azione sono un processo unitario.” Qui la "mente aperta" è consistita essenzialmente nel dare il giusto peso alle evidenze sperimentali e a teorizzare quel tanto che bastasse per avere un quadro coerente dei fenomeni, senza condizionamenti teorici impliciti o espliciti, ossia l'aver "lasciato parlare gli esperimenti" che però, come sappiamo bene, non produce proprio nulla se la mente non è ben aperta e predisposta. D'altra parte il sostenere che percezione e azione sono un processo unitario, più che una teoria vera e propria è una descrizione di come deve essere fatto in grandi linee un dato sistema complesso, il che prelude e prepara ad una ricerca teorica più approfondita che abbia quella forma o caratteristica come precondizione ineliminabile. Possiamo parlare di " forma teorica".
Ciò non dimostra, però, che il metodo platonico che pone l'obiettivo in uno scopo teorico, come forma della teoria desiderata o come metodo generale per costruire spiegazioni, sia sempre scarsamente proficuo se assunto come punto di vista metodologico. Non lo è stato, inutile, né per Einstein né per Vygotskij.
A proposito di quest'ultimo è interessante il paragrafo "spiegazione contro descrizione" da "il processo cognitivo" di Vygotskij, Bollati Boringhieri pag 95, dove si mettono a confronto due approcci della ricerca psicologica: quello fenotipico cioè descrittivo, e quello genotipico, considerato esplicativo, cioè rivolto alla ricerca degli effettivi rapporti dinamico-causali che per Vygotskij coincidono con la prospettiva evolutiva. L'analisi oggettiva per Vygotskij comprende una spiegazione scientifica delle manifestazioni esterne (idiosincrasie fenotipiche) e del processo in esame. Vygotskij dice: «la nostra ricerca sul linguaggio dei bambini piccoli ci porta al principio fondamentale formulato da Lewin: due processi fenotipicamente identici o simili potrebbero essere radicalmente diversi tra loro nei loro aspetti dinamico-causali e viceversa; due processi che sono molto vicini nella loro natura dinamico-causale potrebbero essere molto differenti fenotipicamente. L'approccio fenotipico categorizza i processi secondo le loro somiglianze esteriori. Marx commentò l'approccio fenotipico in una forma più generale quando affermò che "se l'essenza degli oggetti coincidesse con la forma delle loro manifestazioni esterne allora ogni scienza sarebbe superflua".»

Posso concludere che la concezione platonica, che si può trovare estrapolando la corretta visione di Marx, e la concezione aristotelica, esemplificata dalla corrente fenomenologica di Merleau-Ponty, sono entrambe assunzioni metodologiche valide nella ricerca su sistemi particolarmente complessi e rese di fatto coincidenti dall'essenza stessa della scienza, che è la ricerca del senso, cioè di spiegazioni capaci di giustificare, come minimo descrivendo in un quadro unico e coerente, i diversi dati empirici in nostro possesso.

In questo senso il cosiddetto pensiero computazionale si riduce a mero strumento tecnologico, successivo all'ideazione teorica, utile allo sfruttamento pratico delle teorie della natura per risolvere problemi, o alla progettazione combinatoriale degli esperimenti da fare, e nel gestire informazioni " massive". Ma NON a fornire la comprensione della natura e neppure della natura dei problemi che è pur in grado di risolvere. 

Trovo perciò veramente singolare che il " Computational Thinking", oggi pompato da Google come disciplina scolastica, sia subdolamente venduto come surrogato del pensiero critico e creativo scientifico e come tale accettato dalla miope e pessima scuola di Renzi (che ha tra l'altro avallato il taglio alle scienze sperimentali perpetrato dalle riforme precedenti). Si dovrebbe perlomeno considerare la lunga esperienza alla primaria con il LOGO e il secolare sforzo di Casadei dell'università di Bologna di integrare il pensiero computazionale a scuola (es. col prolog) con ben altre motivazioni e modalità (senza tagliare le scienze), competenze regolarmente ignorate dai riformatori occulti paraministeriali. 

Per questa ennesima supposta inflitta dall'alto al sistema educativo italiano esistono solo due spiegazioni possibili: la cecità, oppure il fatto che il calcolo computazionale nella nuvola o col device costa molto meno di laboratori e docenti che facciano praticare agli studenti il vero pensiero critico scientifico e la creatività controllata dalla realtà oggettiva, più difficile di quella virtuale; in più ci saranno già agenzie di formazione con la bava alla bocca, i soliti "amici del ministero", già pronte a guadagnarci, come fu per le LIM. Oppure, più probabilmente, ambedue le cose.