I testi sull'Intelligenza Artificiale che pubblichiamo qui di seguito documentano una parte del programma «Frontiere della scienza e della tecnologia», svolto nell'ambito del Progetto Cultura Montedison. In particolare: il testo di Daniel Hillis è un estratto della conferenza Architetture parallele per macchine pensanti, tenuta il 10 aprile 1986 presso la sede centrale milanese di Montedison; il testo di Tomaso Poggio è un estratto della conferenza Verso l'Intelligenza Artificiale, tenuta il 17 aprile 1985 presso la stessa sede; le interviste a Marvin Minsky e Valentino Braitenberg e la nota su Karl Pribram si riferiscono a un filmato in preparazione per la videocineteca del Progetto Cultura. I primi due materiali sono a cura di Ottavia Bassetti e Marina BIasi, gli altri tre sono a cura di Ottavia Bassetti, Marina Blasi e Mario Galli. Ringraziamo i responsabili del Progetto Cultura Montedison per la gentile concessione. Intervista a Marvin Minsky Q ual è, secondo lei, la tappa più importante che ha segnato la breve storia dell'intelligenza artificiale? Certamente il «Generai Problem Solver», un programma messo a punto nel 1958-59 da Alan Newell e Herbert Simon. In che cosa consiste? Per prima cosa Newell e Simon si sono posti la domanda: può una macchina volere qualcosa, mettere a fuoco un problema e risolverlo? Ebbene, la risposta è stata positiva perché essi hanno trovato il modo di elaborare un programma che «esprime» dei desideri, che analizza e si impegna ad annullare la differenza tra ciò di cui dispone e ciò che vuole. È un'idea estremamente importante quella di Newell e Simon perché senza di essa non avremmo fatto alcun passo avanti. L'intelligenza artificiale ha bisogno di altre idee come questa. Allora il problema consiste nel formulare una teoria che possa fornire una risposta generale ... Non una, ma molte teorie. Una «piccola teoria» dell'intelligenza non esiste. Occorrono almeno un centinaio di «piccole teorie» che vanno poi cucite insieme. Il cervello umano funziona come cento computer diversi che talvolta cooperano e talvolta sono in conflitto. E ora vince l'uno, ora l'altro: c'è, all'interno del cervello, una gran competizione e un'unica teoria del pensiero non può bastare a spiegarla. È la sua teoria sulla «società delle menti»? Su questa teoria sto scrivendo un libro. Si divide in 300 sezioni, perciò è piuttosto complicato spiegarla in due parole. Ma posso dare un esempio: il ricordare comprende fatti positivi, ma anche negativi, come ricordare gli errori. Di questo compito è incaricata un'altra parte della mente, quella che ricorda cosa non bisogna fare. In realtà, nessuno sa bene come lavora il cervello. Per esempio come svolge la funzione dell'apprendimento. E si può andare avanti per dieci anni a studiare il cervello senza riuscire a rispondere alla domanda, semplicissima: «Che cosa succede quando nella mente scoppia un conflitto? Che cosa cambia quando si ricorda qualcosa?». La scienza del cervello è molto giovane, ha solo cento anni e perciò non ha molte risposte da dare. Se poi pensiamo che la «Computer Science» è nata trent'anni fa, come si può pretendere che risponda a tutte le nostre domande? E pensiamo ancora alla fisica: sono passati trecento anni dalle scoperte di Galileo a quelle di Einstein, eppure ogni anno accadono cose eccitanti. Insomma, la soluzione di un problema complicato ha bisogno di molte teorie e non possiamo davvero aspettarci di trovare tutte le risposte la settimana prossima. Agli inizi degli studi sull'intelligenza artificiale, c'era un'atmosfera straordinaria: la gente guardava a noi con un incredibile scetticismo perché pensava che non saremmo riusciti a combinar nulla di buono. Devo dire che è molto più facile e stimolante lavorare quando la gente pensa che tu sia pazzo. E oggi? Oggi è tutto più difficile perché nessuno si meraviglia più, quando nel nostro campo, qualcosa funziona. Ma le scoperte nel campo dell'intelligenza artificiale derivano dall'applicazione di un metodo o pensa piuttosto che siano frutto del caso? Talvolta, della fortuna. Ma un problema non si affronta mai senza una buona idea da cui partire. Sono decisamente, del parere che non bisogna porsi un problema e poi tentare di risolverlo. Bisogna invece cercare problemi che offrano possibilità di soluzione. Altrimenti è una perdita di tempo. E visto che ci.sono al mondo altri quattro miliardi di persone, lasciamo a loro il compito di occuparsi di problemi che a noi non sono congeniali. Quali sono le sue letture preferite? Sono un appassionato della fantascienza, di autori come H.G. Wells, per esempio. Ho sempre sognato di costruire una macchina del tempo. Così non faticherei più perché mi basterebbe entrare nel futuro e rubare le risposte. E poi? Galileo. Ho scoperto che leggere il libri di testo è quanto di più approssimativo e malinconico si possa fare. Se si vuol leggere un testo di meccanica, allora bisogna leggere Galileo. E se si vuol imparare qualcosa sulla biologia e sui geni, c'è Watson. Devo però confessare che i libri che mi danno più idee sono quelli di fantascienza, quelli scritti dai grandi: Frederick Powell, Isaac Asimov. Evitate i romanzi moderni: non forniscono alcuna idea nuova. E non sprecate il tempo a leggere i best-seller: contengono soltanto ambizione, gelosia e sesso. Ritiene, allora, che nel mondo di oggi le uniche idee vengano dalla scienza? Sì. Se guardiamo alla religione, all'etictl e alla filosofia, si può tranquillamente ritornare a leggere Descartes. Secondo me, oggi i migliori filosofi sono gli scienziati. Fra un millennio saranno loro a essere giudicati i veri filosofi del nostro tempo, mentre coloro che oggi chiamiamo filosofi saranno dimenticati. Il metodo scientifico, che per semplificare chiamiamo riduzionista, può essere considerato ancora come il miglior modo di procedere? Il termine «riduzionista» non significa nulla. Ciò che io chiamo scienza è un'attività che consiste nel formulare buone teorie e nel sottoporle ad esperimento per cercare di migliorarle. È molto importante quando si ha un'idea metterla alla prova per trovare cosa in essa vi sia di sbagliato. Uno scritto di dieci anni fa, che venga giudicato oggi come «una buona reoria». mi mette a disagio perché sono convinto che c'è una teoria migliore e se viene accettata ancora quella di dieci anni fa, vuol dire che non era abbastanza sbagliata. La capacità di ammettere i propri errori è ciò che distingue la scienza dalle altre attività. Non c'è niente di riduzionista o di positivista in ciò. Lei ha sostenuto che le attività intellettuali di solito considerate «superiori» sono in realtà le più facili da riprodurre su una macchina. È vero. La cosa difficile è capire come un bambino di cinque anni impari a fare alcuni semplici ragionamenti, o come un bambino di tre anni impari a parlare: questi sono i grandi misteri. Il modo in cui si impara il calcolo infinitesimale o il gioco degli scacchi è semplice: molti pensano che si tratti di attività molto complicate da riprodurre, ma ormai siamo in grado di costruire macchine che eseguono questi compiti. Non sappiamo ancora come rendere le macchine capaci di apprendere ma, almeno nel campo del- !'intelligenza artificiale, le cose interessanti sono quelle che ognuno può fare e non quelle attribuite soltanto agli specialisti. Se è così, avremo prima un «computer-scienziato» che un «computer-bambino». Credo che avremo prima un «computer-ingegnere». Gli scienziati sono esattamente come bambini: non è facile costruire qualcosa che si comporti come loro. Connection Machine Daniei ·Hillis Lf intelligenza artificiale suscita oggi un'enorme inte- . resse, probabilmente più di quanto lo giustifichino i risultati raggiunti finora, e ciò a causa del suo impatto potenziale. La possibilità di avere computer capaci di comprendere ciò che vogliamo crea certamente le condizioni per una profonda rivoluzione nelle nostre vite. Ma l'aspetto applicativo non è il più affascinante. Il computer modificherà non soltanto il modo in cui l'uomo potrà intervenire nel mondo, ma anche il modo in cui guarderà a se stesso, percepirà la propria immagine. Come il telescopio è stato, ai tempi di Galileo, lo strumento con quale abbiamo scoperto di non essere al centro dell'universo, così il computer è, oggi, lo strumento che permette di cominciare a considerare la nostra mentre come un meccanismo esplicabile, governato dalle stesse leggi che regolano il mondo fisico .. Ma siamo ancora molto lontani dall'aver raggiunto tale grado di comprensione. L'intelligenza artificiale è, infatti, appena agli inizi: la maggior parte dei problemi più interessanti non ha ancora trovato una soluzione, ma lungi dall'essere problemi insolubili, come molti pensano, essi richiedono soltanto un lungo e paziente lavoro di ricerca. All'inizio degli anni '80 si viveva in un clima di diffuso entusiasmo e di grandi aspettative nel!'ambito del!'Al. Avevano fatto la loro comparsa i primi programmi capaci di elaborare le immagini e di comprendere il linguaggio naturale e i programmi che giocavano a scacchi potevano competere, per la prima volta, con i più abili giocatori. Insomma, si aveva l'impressione di essere a un passo dal costruire per davvero una macchina «pensante». Ma guardando ai progressi compiuti, ci si accorse che la difficoltà maggiore consisteva nel realizzare sistemi in grado di trattare una porzione molto ampia di conoscenza. Ad esempio «Shrdlu», il programma di Terry Winograd, possedeva un vocabolario di poche centinaia di parole e poteva parlare soltanto di un mondo fatto di blocchi, piramidi e scatole colorate poste su un tavolo. Qualsiasi tentativo di introdurre altre informazioni che estendessero il suo universo di discorso rendeva il programma più lento, talmente lento da scoraggiare del tutto gli sforzi in questa direzione. Il fenomeno si ripete ogni volta creando una situazione paradossale: se cerchiamo di renderlo più intelligente fornendogli maggiori informazioni, aumentando il tempo necessario per consultarle, il computer diventa enormemente più lento e quindi più stupido, ma d'altra parte, se limitiamo il numero di informazioni al minimo indispensabile, otteniamo una macchina altrettanto stupida. A questo punto due erano le possibili strade che si aprivano alla ricerca. La prima, quella dei cosiddetti «sistemi esperti», consisteva nell'individuare delle aree di applicazione dove la «stupidità» fosse sufficiente, cioè dove una piccola quantità di nozioni estremamente specialistiche potesse essere sfruttata dal punto di vista pratico, ad esempio per effettuare diagnosi mediche, per analizzare i composti chimici o per risolvere in modo eccellente equazioni differenziali. La seconda strada era rappresentata dal tentativo di organizzare la conoscenza in modo tale che, per prendere una decisione, il programma non f asse costretto ogni volta a passare in rassegna tutte le informazioni immagazzinate in memoria. A questo scopo sono stati realizzati molti programmi di Al che rappresentano i dati nella forma di reti semantiche: ogni «nodo» nella rete corrisponde a un'entità (un concetto, un oggetto, un evento) e ogni collegamento tra un nodo e l'altro stabilisce una relazione tra quelle entità. Mediante le reti semantiche siamo in grado di rappresentare domini ristretti di conoscenza, utilizzati dal computer per risolvere i problemi in virtù di semplici ragionamenti condotti sulle informazioni immagazzinate nella rete. Ma se immaginassimo di dover rappresentare tutta la conoscenza necessaria per comprendere il significato delle parole, ciò richiederebbe centinaia di migliaia' o addirittura centinaia di milioni di eventi che esprimano la conoscenza del senso comune che abbiamo riguardo agli oggetti e alle loro relazioni. Inoltre, sarebbero necessarie complesse regole di inferenza, ad esempio, regole per il trattamènto delle eccezioni, delle contraddizioni, delle ambiguità. Il sistema avrebbe bisogno di rappresentare e manipolare informazioni sull'intero e sulle parti, sulle relazioni spaziali e temporali e sulla causalità. Rispondere a una semplice domanda del senso comune come «la mela cadrà se la lascio andare?», cosa che un essere umano fa quasi istantaneamente è, per un computer convenzionale, un compito di una complessità inimmaginabile, perché non esiste alcun modo per determinare a priori quali conoscenze siano rilevanti o meno ai fini della risoluzione del problema. La ragione principale dell'inefficienza dei computer di oggi, al di là della difficoltà di programmarli, risiede nella loro struttura. Il modello delle macchine attuali, il calcolatore di van Neumann, è composto di tre parti: l'unità di elaborazione dei dati (il processore), l'unità di memoria e il canale di comunicazione tra le due unità, il cosiddetto «collo di bottiglia». Un'architettura di q~esto tipo è il frutto della tecnologia degli anni '40. Allora le due unità occupavano lo spazio di un'iniera stanza, oggi sono state ridotte a un unico circuito integrato, ma il modello è rimasto lo stesso: una metà del chip è rappresentato dalla memoria e l'altra metà dal processore. Ciò che limita drasticamente la
RkJQdWJsaXNoZXIy MTExMDY2NQ==