Alfabeta 108 e i fu un periodo in cui si discuteva del sesso degli angeli. Era una discussione paludata e accademica fra filosofi bizantini, passati alla storia - loro e il dibattito - come esempi di cavillosa inutilità. Ma poiché nulla si dù senza una ragione, è evidente che anche il discutere su un argomento palesemente indecidibile come quello doveva avere la sua. Ci diventa più facile accettare questa idea se riflettiamo sul fatto che quell'argomento è palesemente indecidibile per noi, mentre è plausibile che per loro l'imporsi di una qualche soluzione fosse solo questione di tempo - il tempo di cui la verità ha bisogno per farsi strada. E col tempo, infatti, una risposta è venuta, e non a favore di una parte o dell'altra. Tramontati i motivi - politici - della necessità di un simile dibattito, la sua stessa sterilità lo ha ucciso, lo ha fatto mettere da parte. Qualcosa di questo genere incomincia ad accadere forse anche al dibattito sulla cosiddetta Intelligenza Artificiale forte, ovvero al dibattito sulla posizione di quegli studiosi che ritengono che, opportunamente programmato, un computer possa essere nel senso pieno del termine una mente, come lo è quella umana. Questo dibattito ha avuto negli anni scorsi punte polemiche molto accese, culminanti nell'ormai storico articolo di John Searle Menti, cervelli e programmi, con le reazioni da esso provocate ad esempio nell'omonimo volume curato da Graziella Tonfani per la ClupClued nel 1984. Se c'è qualcosa che è stato messo in luce da quel dibattito è infatti proprio l'assenza, da entrambe le parti, di argomenti che si possano considerare conclusivi a favore o contro la AI forte. Due libri mi hanno condotto a riflettere sul profondo malinteso teorico che sta alla base di questo dibattito, un malinteso che è comune tanto ai sostenitori quanto ai detrattori della mente artificiale, John Searle non escluso. Si tratta da una parte di un vecchio libro di Joseph Weizenbaum, uno dei padri della Al, (li potere del computer e la ragione umana, Torino, 1987), da poco tradotto e stampato in Italia, dall'altra della ormai classica raccolta di saggi sulla complessità realizzata da Boechi e Ceruti (La sfida della complessità, Milano, 1985). Questi due libri hanno in realtà poco in comune, e in nessuno dei due si trova il discorso che mi propongo di fare, ma non sarei arrivato a questo discorso se non me li fossi trovati di fronte insieme. Singolare mi è apparso che in due contesti così diversi compaia lo stesso termine, e in entrambi i casi come punto nodale dell'argomentazione. Weizenbaum parla di hybris della intellighenzia artificiale, come ricorrente adesione degli studiosi di AI «alla conclusione di essere vicini a una comprensione teorica generale dell'universo o anche alla conclusione di aver dimostrato, siccome le loro macchine funzionano, la validità del)'idea che le leggi dell'universo siano esprimibili in termini matematici». Ceruti, non molto lontano da questo, parla di hybris dell'onniscenza, ponendo l'accento sulla finitezza della conoscenza umana, e sul fatto che la presa in considerazione della posizione dell'osservatore nella ricerca scientifica rende problematica qualsiasi pretesa di imparziale attività conoscitiva. Del libro di Weizenbaum, in generale interessante e estremamente charificatorio in ogni sua parte, vorrei prendere in considerazione due momenti. Il primo riguarda una distinzione molto importante per gli addetti ai lavori della Al, quella tra regime A più voci di prestazione e regime di simulazione (performance mode e simulation mode). Per chi lavora in regime di prestazione infatti, quello che conta è l'efficienza del programma; poco importa, per esempio, che un programma di traduzione automatica si comporti in un modo riconducibile a quello in cui si comporta un uomo nel compiere la medesima operazione; l'importante è che funzioni, e nel modo più efficiente possibile. In regime di simulazione, d'altra parte, l'efficienza è poco rilevante, e quello che conta è la somiglianza con il processo che si intende simulare. La maggior parte delle persone che si occupano di Al lavora comunque in regime di prestazione. Il secondo momento riguarda il discorso della base fisiologica. Ci dice Weizenbaum - e dal 1976, anno di uscita di questo libro in America, ce lo siamo poi sentiti ripetere spesso - che l'essere umano - ciascun essere umano nel corso della propria storia individuale - è definito dai problemi che incontra, allora tra questi problemi ce ne saranno una grossa parte legati alla sua biologia, al suo essere costituito di materia molle e organizzata in un certo modo. Per quanta intelligenza possiamo fornire a un calcolatore, per quanto accurata possa essere la sua simulazione dei processi neuronali umani, il calcolatore non potrà mai sentire nel medesimo modo in cui un essere umano sente, e questo per ragioni che non vanno a scomodare nessuna mistica dell'irrazionalità (alla quale tuttavia Weizenbaum pare ogni tanto avvicinarsi) e nessuno spiritualismo. Ci sono, sepolte nel nostro inconscio, una serie di conoscenze di base che dipendono profondamente dalla nostra primitiva interazione col mondo in quanto esseri fatti di carne, e, di conseguenza, per quanto insegnamo a un calcolatore ad apprendere, tutto quello che è legato alla sua struttura fisica sarà per lui diverso da quello che è per noi. Partiamo ora dall'idea di base dei teorici della complessità, della fondamentale presenza dell'osservatore nella valutazione dell'osservato. Fondamentale presenza dell'osservatore significa fondamentale presenza dei suoi scopi conoscitivi, significa, come fa notare Ceruti, che noi non possiamo mai uscire dalla dinamica osservatore-osservato, per sorvolare la mappa del sapere; e che di conseguenza l'insieme delle conoscenze che abbiamo del mondo non riguarda una realtà assoluta, conosciuta «per quella che è», ma più semplicemente il nostro rapporto operativo con quella realtà, il nostro bisogno di modificarla per i nostri scopi. Detto in altri termini, conosciamo la realtà in relazione ai nostri scopi, e valutiamo l'efficienza di un modello non tanto in base alla sua somiglianza con la realtà, quanto in base alla sua somiglianza con quegli aspetti della realtà che ci sono utili, trascurando tutti gli altri, somiglianza che potremmo oltretutto definire come una «identità sotto rispetti pertinenti» - e nuovamente la pertinenza è qualcosa che riguarda una finalità. Valutiamo inoltre l'efficienza di un manufatto in base alla sua capacità di aiutarci a risolvere specifici problemi - senza con questo crearcene troppi altri. Insomma, senza una intrinseca finalità non esiste conoscenza e non esiste tecnologia. Non si costruisce nulla se non ci si è chiariti prima a che scopo lo si costruisce, e se ne valuta poi l'efficienza sulla base del suo raggiungere quello scopo. Ma - e qui arriviamo al nodo che ci interessa - a quale scopo della nostra esistenza è legata l'esistenza dell'uomo? A che scopo, per quello che riguarda me stesso, esistono e io percepisco gli altri esseri umani? Nel momento in cui io definissi - per quanto in maniera magari anche estremamente complessa - una finalità dell'uomo in cui poterlo completamente riconoscere, accetterei la possibilità teorica di una sua simulazione artificiale, anzi, di una sua riproduzione artificiale. Il problema, da quel punto in poi, sarebbe solamente tecnico - per quanto certamente di enorme complessità. Ma, nella prospettiva che stiamo esponendo, nel momento in cui io avessi definito una finalità dell'uomo nei cui termini riconoscerlo in toto, avrei anche definito una mia finalità conoscitiva, sulla base della quale avrei potuto dare quella definizione. Di nuovo, non avrei definito l'uomo, ma solo ciò che me ne serve, così come i modelli scientifici non definiscono la natura ma solo ciò che ce ne serve. Il punto è che, mentre è piuttosto pacifico che possiamo conoscere la natura solo in relazione a quanto ce ne serve, non altrettanto si può dire dell'uomo, quando si parla del quale ogni oggetto di conoscenza è a sua volta un soggetto, che può avere opinioni proprie, e quindi finalità conoscitive diverse dalle nostre. L'automobile è un ottimo sostituto del cavallo, se lo scopo è quello di spostarsi; i diamanti artificiali sono ottimi sostituti di quelli naturali per numerosi scopi, probabilmente al momento tutti quelli che abbiamo, ma questo non significa che automobile e cavallo o diamanti artificiali e naturali siano del tutto interscambiabili, come ben sanno i commercianti. Niente è del tutto interscambiabile con qualche cosa, l'interscambiabilità è sempre relativa a qualche scopo. pagina 31 Nei sistemi totalitari l'uomo è davvero ridotto a un insieme di scopi precisi, secondo la finalità conoscitiva di chi detiene il potere. Potremmo definire la democrazia come l'assenza di privilegi degli scopi conoscitivi di ciascuno nei confronti di quelli degli altri. La democrazia è un contratto tra pari, ciascuno dei quali riconosce il di ritto di tutti gli altri. Ma questo contrat to esclude necessariamente «qualcuno», esclude i non uomini. Fino a poco più di un secolo fa in molte democrazie la qualifica di uomo non era riconosciuta a chi aveva la pelle nera, l'esistenza del quale poteva tranquillamente venire ridotta a un insieme di finalità. Lo schiavo esiste infatti in funzione della sua utilità, non ha diritti perché è fuori dal contratto. Nessun ragionamento conclusivo poteva allora dimostrare il diritto all'uguaglianza di coloro che avevano la pelle nera, perché non si può dimostrare di appartenere a un insieme - quello degli uomini - la cui definizione è necessariamente sfuggente. L'unico sistema per entrare nel contratto tra pari era di imporre politicamente il proprio ingresso, costringend_o una collettività a rinunciare alla pretesa della propria finalità conoscitiva nei confronti della comunità sottoposta. Per tornare al dibattito sull'Intelligenza Artificiale, trovo che per certi versi esso ricordi quello del sesso degli angeli, in quanto parte dal presupposto implicito (tanto in chi afferma quanto in chi nega) che sia possibile conoscere o non-conoscere la natura conclusivamente. Contrariamente a quanto la maggior parte di questi studiosi pensano, infatti, il problema della macchina intelligente o meno non è un problema filosofico in senso stretto, che si possa risolvere a tavolino, come non lo era il problema dell'umanità dei negri, o dell'umanità delle donne, o come non lo è il problema dell'umanità di qualsiasi essere umano. Finché le macchine sono utili apparati per simulare caratteristiche specifiche del nostro pensiero, nessun problema si pone, ma nel momento in cui supponiamo che ci possa essere in loro un'intelligenza, ovvero un diritto di entrare nel contratto, il problema diventa politico, diventa il problema del loro imporsi, o del fatto che qualcun altro le imponga, in quanto aventi diritto a una propria finalità conoscitiva che le esenti dal soggiacere totalmente alla finalità conoscitiva degli umani. Detto questo, non ha più nessuna importanza che l'intelligenza di queste macchine abbia qualche somiglianza con quella umana. Il problema dei risultati del regime di prestazione e quello del supporto non biologico sono problemi che non hanno più a che fare con quello del riconoscimento di un'intelligenza, benché continuino ad avere a che fare con lo studio della mente umana. Insomma, costruzione di macchine intelligenti, e loro riconoscimento in quanto tali da una parte, e riproduzione dell'intelligenza umana dall'altra sono problemi diversi, comunicanti ma da non confondere. Se si è discusso tanto una volta sul sesso degli angeli, è forse perché quella discussione richiamava l'attenzione sulla necessità di un approfondimento filosofico su un tema ancora giovane ma molto più vasto, come era allora quello della religione cristiana: ben altri problemi gli stavano dunque alle spalle. E direi che il punto, per quanto riguarda l'Intelligenza Artificiale, sta proprio lì: non è di quello, alla fine, che si sta parlando, ma forse dell'entusiasmo di un nuova disciplina e certamente del rapporto tra conoscenza e potere.
RkJQdWJsaXNoZXIy MTExMDY2NQ==