Precedente capitoli di:
Prosegue con
l'inutile idiota (4)
Riesaminando
ciò che abbiamo discusso, si potrebbe osservare:
‘D’accordo su tutte queste speculazioni sul
cervello e sulla mente; ma che cosa si può dire delle sensazioni che
accompagnano la coscienza? Questi simboli hanno un bell’innescarsi l’un
l’altro; ma se non c’è qualcuno che percepisca il tutto, non vi è coscienza’.
Ciò appare
sensato alla nostra intuizione, a un certo livello, ma non ha molto senso sotto
il profilo logico; infatti, se il meccanismo che realizza la percezione di
tutti i simboli attivi non fosse compreso in ciò che abbiamo descritto finora,
saremmo costretti a cercare un altro modo per spiegarlo. Naturalmente per un animista non
sarebbe necessario fare ulteriori ricerche:
egli asserirebbe semplicemente che chi
percepisce tutto questo movimento neuronico è l’anima, che non può essere
descritta in termini fisici; punto e basta. Noi tuttavia tenteremo di dare una
spiegazione “non animista” del luogo in cui si manifesta la coscienza.
La nostra
alternativa alla spiegazione dell’animista (ed oltre tutto è un’alternativa
sconcertante) è di fermarci al livello dei simboli e di dire:
‘Eccola qui: questa è la coscienza. La coscienza
è quella proprietà di un sistema che scaturisce ogniqualvolta esistano in esso
simboli che obbediscono a strutture di attivazione più o meno simili a quelle
descritte nelle pagine precedenti.
Messa in forma così brutale, questa posizione può sembrare inadeguata: come spiega il senso dell’“io”, il senso del sé?
[…]
Un effetto
collaterale importantissimo del sottosistema del sé è che esso può svolgere le
funzioni dell’“anima”, in questo senso: comunicando continuamente con gli altri
sottosistemi e con gli altri simboli del cervello, esso si mantiene al corrente
di quali simboli sono attivi e del modo in cui lo sono. Ciò significa che esso
deve possedere simboli per l’attività mentale o, in altre parole, simboli per i
simboli e simboli per le azioni dei simboli.
Naturalmente
ciò non solleva la coscienza o la consapevolezza a qualche livello “magico” o
non fisico.
Qui la
consapevolezza è una conseguenza diretta della complessità dello hardware e del
software che abbiamo descritto. Eppure, nonostante la sua natura così terrena,
sembra che questo modo di interpretare la consapevolezza (cioè come un
controllo dell’attività cerebrale da parte di un sottosistema dello stesso
cervello) somigli a quella sensazione quasi indescrivibile che tutti conosciamo
e che chiamiamo “coscienza”.
Senza dubbio si può capire che qui la complessità è così grande da poter dar luogo a molti effetti inattesi. Ad esempio, è del tutto plausibile che un programma di calcolatore dotato di questo genere di struttura possa costruire enunciati su se stesso che avrebbero una grande somiglianza con gli enunciati che le persone formulano di solito su se stesse, comprese le asserzioni di possedere il libero arbitrio, di non essere spiegabili come “somma delle proprie parti” e così via. (A questo proposito si veda l’articolo “Matter, Mind, and Models” di M. Minsky nel libro da lui curato Semantic Information Processing).
Che garanzie vi sono che un
sottosistema che rappresenti il sé quale io l’ho postulato qui esista
effettivamente nel nostro cervello?
Potrebbe
svilupparsi un’intera rete di simboli complessa come quella descritta sopra
senza che si sviluppasse anche un simbolo del sé?
Come
potrebbero questi simboli e le loro attività raffigurare eventi mentali
“isomorfi” con gli eventi reali dell’universo circostante, se non esistesse un simbolo
dell’organismo ospite?
Tutti gli stimoli che entrano nel sistema sono concentrati in una massa che occupa un piccolo spazio. La struttura simbolica del cervello presenterebbe una lacuna madornale se non possedesse un simbolo per l’oggetto fisico in cui è alloggiata e che negli eventi che essa rispecchia ha una parte più importante di qualunque altro oggetto. Infatti, a pensarci bene, l’unico modo per poter attribuire un senso al mondo che circonda un oggetto animato circoscritto sembra essere quello di capire la funzione di quell’oggetto in rapporto agli altri oggetti che lo circondano.
Ciò
richiede l’esistenza di un simbolo del sé; e il passaggio dal simbolo al
sottosistema è semplicemente un riflesso dell’importanza del simbolo del sé, e
non è un cambiamento qualitativo.
J. R. Lucas scrisse nel 1961 un articolo memorabile, intitolato ‘Minds, Machines, and Godel’. Le sue opinioni sono del tutto
contrarie alle mie, eppure per raggiungere le sue conclusioni egli adopera in
qualche modo molti degli stessi miei ingredienti. Il passo seguente è molto
pertinente rispetto a ciò che abbiamo discusso sopra:
“Quando per la prima volta e nel modo più semplice si tenta di filosofare, ci si impegola nel problema se, quando si sa una cosa, si sappia di saperla e quale sia l’oggetto di riflessione quando si riflette su se stessi e da che cosa sia condotta questa riflessione. Dopo essere stati a lungo sconcertati e tormentati da questo problema, s’impara a non insistere su tali domande: ci si rende implicitamente conto che il concetto di un essere cosciente è diverso da quello di un oggetto privo di coscienza.
Dicendo che
un essere cosciente sa una cosa, non solo si dice che esso la sa, ma che sa di
saperla e che sa di sapere di saperla, e così via, per tutte le volte che
piaccia porre la domanda: si riconosce di essere di fronte a un’infinità, ma
non si tratta di un regresso all’infinito nel senso negativo, poiché sono le
domande e non le risposte che si esauriscono, dato che sono inutili.
Si sente
che le domande sono inutili perché il concetto contiene in sé l’idea della
capacità di continuare all’infinito a rispondere a siffatte domande. Benché gli
esseri coscienti abbiano la capacità di continuare, non desideriamo che questa
capacità appaia semplicemente come una successione di compiti che essi riescono
ad eseguire e neppure concepiamo la mente come una successione infinita di sé e
di super-sé e di super-super-sé. Anzi, l’accento vien posto sul fatto che
l’essere cosciente è un’unità e, benché si parli di parti della mente, lo si fa
solo metaforicamente e non vorremmo che ciò venisse preso alla lettera.
I
paradossi della coscienza nascono perché un essere cosciente può essere
consapevole di se stesso, come di altre cose, eppure non può essere realmente
interpretato come fosse divisibile in parti.
Ciò
significa che un essere cosciente riesce ad affrontare i problemi gòdeliani in un modo che alla macchina è
precluso, poiché un essere cosciente può prendere in considerazione tanto se
stesso quanto le proprie operazioni e nello stesso tempo non essere diverso da
ciò che ha compiuto quelle operazioni.
Una
macchina può essere costruita, per così dire, in modo da “prendere in
considerazione” le proprie operazioni, ma non può farlo senza diventare con
questo una macchina diversa, cioè la vecchia macchina con in più una “parte
nuova”.
Viceversa,
nell’idea che possediamo di una mente cosciente è implicito che essa può
riflettere su se stessa e criticare le proprie operazioni, e a questo scopo non
ha bisogno di alcuna parte in più: essa è già completa, e non ha nessun tallone
d’Achille.
La tesi
comincia così ad assumere il carattere di un’analisi concettuale più che di una
scoperta matematica. Ciò viene confermato se si considera un’altra
argomentazione di Turing. Finora
abbiamo costruito soltanto artefatti piuttosto semplici e prevedibili; può
darsi che, via via che accresceremo la complessità delle nostre macchine, ci
attendano delle sorprese.
Egli fa un
parallelo con il reattore a fissione: sotto una certa dimensione “critica” non
accade gran che, ma superata la dimensione critica cominciano a sprizzare
faville.
Lo stesso,
forse, accade per i cervelli e per le macchine.
Oggi la
maggior parte dei cervelli e tutte le macchine sono “subcritici”: reagiscono
agli stimoli d’ingresso in modo tedioso e pesante, non hanno alcuna idea
propria e possono fornire soltanto risposte stereotipe; ma già oggi alcuni
cervelli sono supercritici e scintillano spontaneamente, e probabilmente, in
futuro, si verificherà la stessa cosa per alcune macchine, Turing vuol suggerire che è solo una questione di complessità e
che, oltre un certo livello di complessità, compare una differenza qualitativa,
talché le macchine “supercritiche” saranno del tutto diverse da quelle semplici
immaginate finora.
Può darsi.
Spesso la
complessità introduce differenze qualitative. Benché non sembri plausibile,
potrebbe accadere che, oltre un certo livello di complessità, il comportamento
di una macchina non sia più prevedibile, neppure in linea di principio, e che
essa cominci ad agire di propria iniziativa; o, per impiegare un’espressione
molto significativa, essa potrebbe cominciare ad avere una mente propria.
Potrebbe
cominciare ad avere una mente propria.
Comincerebbe
ad avere una mente propria quando non fosse più totalmente prevedibile e
docile, ma fosse capace di fare cose che noi giudicheremmo intelligenti (e non
solo errori o uscite casuali), ma che non avevamo immesso in essa al momento
della programmazione.
Ma
allora essa cesserebbe di essere una macchina, nel significato proprio del
termine.
La
discussione sul meccanicismo non ha per oggetto come nascono, o come potrebbero
nascere le menti, ma come funzionano. Per la tesi meccanicistica è essenziale
che il modello meccanico della mente funzioni secondo “princìpi meccanici”,
cioè che si riesca a capire il funzionamento del tutto in termini del
funzionamento delle sue parti; e che il funzionamento di ciascuna parte sia o
determinato dal suo stato iniziale e da come la macchina è stata costruita,
oppure sia frutto di una scelta casuale tra un numero determinato di
funzionamenti determinati.
Se
il meccanicista fabbrica una macchina tanto complicata che per essa tutto ciò
non valga più, allora, ai fini della nostra discussione, quella non è più una
macchina, indipendentemente da com’è stata costruita. Dovremmo dire piuttosto
che egli ha creato una mente, nello stesso senso in cui oggi procreiamo le
persone.
Allora
vi sarebbero due modi di mettere al mondo menti nuove: quello tradizionale di
far nascere i bambini dalle donne; e un modo nuovo, quello di costruire sistemi
complicatissimi, per esempio, di valvole e di relais. Parlando di questo
secondo modo, dovremmo aver cura di sottolineare che ciò che è stato creato,
benché somigli a una macchina, in realtà non lo è, perché non coincide
semplicemente con la somma delle sue parti.
Non si riuscirebbe a dire ciò che essa farà in base alla sola conoscenza del modo in cui è stata costruita e dello stato iniziale delle sue parti; non si riuscirebbe neppure a definire i limiti di ciò che essa potrebbe fare, perché, anche messa di fronte a una domanda di tipo gòdeliano, fornirebbe la risposta giusta. In poche parole dovremmo dire che, di fatto, qualunque sistema che non sia sconfitto dal problema di Godel eo ipso non è una macchina di Turing, cioè non è una macchina nel senso legittimo del termine".
(D. R. Hofstadter)
Ed ancora,
una società che affida la propria ‘coscienza’ il proprio ‘intelletto’, il
proprio ‘sapere’, la propria ‘socialità’, e la comprensione dei termini stessi
che la stessa regola ed assume nella capacità del ruolo che la delegata funzione artificiale gestisce controlla, e in futuro, ‘pretende autonomamente’
(forse è ciò cui l’uomo veramente aspira
osservando il proprio Frankenstein) all’interno della stessa; nei termini
formali non solo conferiti da valori simbolici per come rivelata e rilevata la
capacità del funzionamento intellettivo corrisposto nella costruzione di una
macchina in grado più o meno fedelmente di riprodurlo, trascurando tutti quei
valori prettamente ‘umani’ che esulano dal calcolo economico conferito dal pil subappaltato e/o delegato ad una I.A.
Ed allora
non potremmo che dichiararci animisti,
ben consapevoli nei termini medesimi dell’astratto indecifrato simbolo delegato
ad un artificioso-artefizio il quale
risorge dall’abisso cui destinato, più o meno consapevolmente alla natura del
proprio Io, retrocede al proprio e primordiale Sé al di fuori di ogni schema e
simbolo prefissato, sino all’Infinito a cui aspira per sua Natura.
E solo
allorquando l’intera operatività per ogni apparato ‘socio-economico’ gestita da
un algoritmo, momentaneamente o a lunga durata, collasserà (o meglio crollerà
come una Torre di Babele) come ogni cosa regolata e/o costruita dall’uomo (e
non dalla Natura), giacché anche la macchina potrebbe soffrire d’un difficile
clima; il mondo non riuscirebbe neppure a prevedere gli esiti della disfatta, e
non solo di natura prettamente economica, ma per ogni parte non meccanica
affidata ad un determinato meccanicismo creato nostro malgrado.
Forse solo allora ci renderemmo conto quanto dalla ‘macchina’ dipendiamo, solo quando questo evento ci farà assumere piena coscienza e consapevole consapevolezza di quanto il nostro sé (animistico) può da lei dipendere per ogni evento più o meno meccanico, che fino a qualche anno fa era gestito in modo assai complesso, ma che apporterebbe nel tutto una paradossale e più difficile situazione a catena da risolvere nella medesima complessità gestita; se per complessità riteniamo una parte posta nell’insieme delle parti a cui alla macchina affidato non solo il controllo del tutto, oltre quello di orwelliana memoria da grande fratello della coscienza del singolo posto entro il tutto mutato suo malgrado).
(Giuliano)