Ingegneria intelligenza artificiale

Ingegneria intelligenza artificiale

 

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

 

 

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

 

 

 

Ingegneria intelligenza artificiale

Luciano Bazzocchi

Intelligenza e intelligenza artificiale

Intenti

Lo scopo principale del presente intervento è quello di discutere la possibilità e il senso di una “intelligenza artificiale”. Inevitabilmente, si finirà per riflettere su ciò che si può intendere per “intelligenza” in generale, a partire da quei processi logico-razionali che anche storicamente sono stati considerati lo zoccolo duro del ragionamento intelligente.  Si è ipotizzato che i procedimenti razionali potessero essere automatizzati, o che comunque fossero sottoposti a regole certe; il passo conseguente è tentare di svolgere ragionamenti “intelligenti” al di fuori del cervello umano: su supporti meccanici, come cerca di fare Babbage, oppure, a partire dal ventesimo secolo, mediante componenti elettromeccanici ed elettronici.  Da questo punto di vista, il computer, che nasce appunto col nome di “cervello elettronico”, costituisce il coronamento di questo sogno millenario; nello stesso tempo, è la base per una evoluzione ancora inimmaginabile, per una simulazione via via pi interessante dei processi intelligenti: una simulazione che potrebbe divenire indistinguibile dal modello naturale, o che potrebbe pi verosimilmente superarlo di varie lunghezze.
Fornendo alcuni elementi storici e tecnici, si intendono indicare riferimenti culturali utili ad una pi consapevole valutazione della rivoluzione in atto.  Si ritiene inoltre che l’attenzione rivolta ai procedimenti “intelligenti” comporti l’approfondimento di tecniche e temi didattici immediatamente spendibili nel quotidiano scolastico, di cui verrà proposta qualche esemplificazione.

Il cappello del signor Veneranda
Il sig. Veneranda, di Carlo Manzoni (1909-1975) [leggere un paio di episodi da Carlo Manzoni, Il signor Veneranda, Rizzoli 1984: “Il cappello non c’entra”, pag.37; “Vuol dire forse che piove”, pag.115;  “Lei è seduto sul mio cappello”, pag.171].
Sono esempi di logica dell’assurdo: Veneranda è indubbiamente “intelligente”; qual è allora il suo difetto? (sempre che il difetto sia il suo, e non sia invece il mondo ordinario a difettare di coerenza e di razionalità).  Si dice che manca di buon senso (o piuttosto di senso comune).  Teniamo da parte questa considerazione e concentriamoci invece sulla componente logico-razionale. Immaginiamo una situazione di questo genere:
Il sig. Veneranda, personaggio decisamente meticoloso, tutti i giorni alle 10 attraversa la piazza del paese. A volte porta il cappello, a volte no; ma quando piove, come è naturale, lo porta immancabilmente.
Tutti noi comprendiamo il contenuto dell’episodio; proviamo però ad esprimerlo in modo univoco, evidenziando i rapporti logici tra gli eventi.  Per semplificare, focalizziamo l’attenzione su due soli elementi: il signor Veneranda porta / non porta il cappello e piove / non piove.  Proviamo a utilizzare il costrutto pi noto della deduzione logica, cioè l’implicazione materiale:

Se  ….   Allora  ….

È possibile esprimere interamente il contenuto di verità della relazione con uno schema di questo tipo?
Per esempio:
Se il signor Veneranda  [non] porta il cappello, allora  [non]  piove           ~ cappello É ~ piove
È la stessa cosa di..?
il signor Veneranda  [non] porta il cappello, solo se  [non]  piove
oppure di … ?
piove solo se  il signor Veneranda  porta il cappello                                    piove É cappello 

Si provi ora ad esprimere lo stesso “valore di verità” con i connettivi “e” , “o”  [[intanto à­ ]]

 

Per esempio:
il signor Veneranda  porta il cappello  oppure non piove                            cappello Ú ~ piove
Ha lo stesso valore di verità della versione precedente?

Non accade mai che piova e il signor Veneranda non porti il cappello      ~ (piove ~ cappello)

C’è un metodo sicuro per non confondersi: le tavole di verità. Si tratta di tecniche molto semplici, che i bambini di solito capiscono ed apprezzano.  Il punto  è: dobbiamo espressamente insegnare l’uso della negazione e dei connettivi logici; l’intelligenza logico-linguistica va allenata e stimolata, con tecniche e giochi.  Per esempio: tradurre un episodio di Veneranda in proposizioni della logica formale.
Proposta per il prossimo anno: un corso di logica proposizionale e dimostrazioni tramite tavole di verità.
La mia tesi non è che abilità logica e intelligenza siano la stessa cosa; se volessi semplificare in uno slogan, direi che la coerenza logica è condizione necessaria per l’intelligenza, ma non sufficiente. A proposito, come esprimere una “condizione necessaria” con la relazione “se… allora…”?
Attenzione: non
Se sono logicamente coerente, allora sono intelligente        (condizione sufficiente!)
bensì
Se sono intelligente, allora sono logicamente coerente        (logica come condizione necessaria)

L’organo del pensiero

Questi test di abilità linguistica possono sembrare di marginale interesse; eppure, per secoli sono stati messi in relazione con le basi stesse del pensiero razionale.  Aristotele, per esempio, dedica la parte propedeutica a tutto il suo lavoro proprio ad aspetti logici di questo genere.  È noto che non usa il termine “logica”, di origine medievale, ma considera tali aspetti come appartenenti all’organo stesso del pensiero, costitutivi della capacità di ragionamento e presupposto di ogni altra scienza e conoscenza. “Organon” è appunto il titolo del libro che dedica all’analisi delle strutture logiche del discorso; in particolere, Aristotele tratta del sillogismo, che corrisponde pi al calcolo delle classi che al calcolo proposizionale; riguarda l’uso della negazione e di termini di quantificazione, come “tutti”, “alcuni”, “nessuno”, oltre che la derivabilità di alcune forme da altre ammesse per ipotesi.  Potremmo proporre esempi, analoghi a quanto abbiamo visto a proposito del cappello di Veneranda.
Il calcolo proposizionale, che abbiamo esemplificato, non tiene conto della forma delle frasi atomiche ma solo del rapporto tra verità delle singole proposizioni e verità di proposizioni composte tramite connettivi logici.  È la scuola stoica, in particolare il gruppo attivo intorno alla città di Megara (IV-II secolo a.c.), a focalizzare l’attenzione sul calcolo proposizionale e a individuare le relative forme di ragionamento deduttivo (modus ponens, modus tollens).  Anche per gli stoici, non si tratta di un calcolo astratto, ma delle basi effettive dell’intelligenza razionale, per esempio della capacità di dedurre coerentemente verità importanti, persino difficili e dolorose, da premesse per altre vie accettate o dimostrate.  La coerenza logica è coessenziale alla coerenza morale.
Attraverso tutto il Medioevo e il Rinascimento, l’identificazione di intelligenza e capacità logico-deduttiva non è stata messa in discussione.  Parimenti, bisognerebbe riflettere meglio sul fatto che persino Spinoza (1632-1677), certamente pi vicino a sensibilità e problematiche politiche, morali e metafisiche piuttosto che matematiche, titola il suo capolavoro “Ethica ordine geometrico demonstrata” (1674), adottando così la forma dimostrativa caratteristica degli Elementi di Euclide; effettivamente, anche le sue proposizioni di etica appaiono strettamente inserite in un impianto logico rigoroso e le considerazioni di supporto terminano preferibilmente con la formula “QED”, “quod erat demonstrandum” (in italiano, “CVD”, “come volevasi dimostrare”). Arriviamo a Leibniz (1646-1716), un punto di riferimento non solo in filosofia, ma anche per la ricerca matematica (v. il calcolo infinitesimale, in antagonismo a Newton): ebbene, il sogno di Leibniz è quello di tradurre tutte le tesi, e non solo quelle della matematica, in un linguaggio rigorosamente ineccepibile (mathesis universalis), in modo che il ragionamento possa essere in linea di principio automatizzato.  Per Leibniz, cioè, tutto il pensiero razionale possiede una struttura logica, e soltanto a causa dei nostri limiti espressivi cadiamo in errori e fraintendimenti.  A fronte di due tesi contrapposte, gli studiosi dovrebbero semplicemente esprimerle in modo logicamente rigoroso e poi, con carta e matita, proporsi: “Calculemus!”. (De arte combinatoria, 1666) L’aspirazione a definire un linguaggio univoco, una “caratteristica universale” in grado di formulare e confrontare in maniera oggettiva qualsiasi fatto o pensiero, rivela la convinzione che la razionalità consista principalmente in capacità logico-deduttive, di cui il nostro apologo su Veneranda è un piccolo esempio.  Tra parentesi: cosa direbbe Leibniz di fronte alla capacità computazionale del moderno elaboratore d’informazione?  Non sarebbe oltremodo interessato alla sua natura e alle sue effettive possibilità?  Ecco un punto su cui varrebbe la pena riflettere con pi pacatezza.

Le leggi del pensiero

Evidentemente, nella tendenza a classificare la logica come un gioco astratto, lontano da problemi reali e quindi marginale rispetto alla nostra intelligenza naturale, è presente il riflesso della logica moderna, da molti identificata col formalismo assiomatico e convenzionalista.  La verifica delle relazioni logiche è diventata effettivamente un calcolo, nel senso che ai valori di verità delle proposizioni elementari, tradotti nei valori numerici 0 e 1, si possono applicare operazioni di matematica binaria associate ai vari connettivi logici.  Il primo a proporre questa traduzione matematica delle espressioni logiche è stato Boole (1815-1864); il suo intervento è risultato talmente radicale che da allora in poi la logica classica, del vero e del falso, è chiamata “logica binaria” o “logica booleiana”.  I contributi tecnici di Boole sono racchiusi nel testo L’analisi matematica della logica (1847), ma sono profondamente relati alle considerazioni svolte nella sua opera fondamentale, Le leggi del pensiero (1854). Curiosamente, proprio nell’investigare i processi reali del pensiero razionale Boole ha avvertito l’esigenza di raffinare alcuni aspetti di matematica binaria e ha aperto il filone “formalista” della logica contemporanea.  In Boole la problematizzazione del pensiero naturale è ancora in primo piano.  In particolare, compare la questione se si possano ipotizzare “leggi del pensiero”, intese non solo come descrittive dei fenomeni, ma prescrittive: che senso ha dire che l’intelligenza consiste nell’azione di regole inesorabili, addirittura irriflesse e inconscie?  Come può il meccanismo razionale, che è appunto “meccanico”, constituire il fondamento dell’intelligenza? Eppure Boole scrive nel 1854: “Le leggi del ragionamento hanno un’esistenza reale come leggi della mente umana”.  D’altro canto, se la razionalità ha costituzionalmente qualcosa di “meccanico”, significa che può essere almeno in parte automatizzata, può essere riprodotta su un supporto artificiale, su una macchina abbastanza ingegnosa e complessa.  A quanto pare, proprio le forme della logica che per secoli sono state identificate con l’essenza del pensiero razionale, o per lo meno con un suo prerequisito imprescindibile, costituiscono il ponte tra intelligenza naturale e la sua riproduzione nel regno dell’artificiale.

Schede e programmi
A questo punto, la riflessione teorica sul pensiero astratto si incontra con un altro processo che ha a sua volta una lunga storia: la costruzione di automi, cioè di meccanismi semoventi che riproducono alcune funzioni animali o, tendenzialmente, umane.  È nota l’esplosione della moda degli automi che nel ‘700 invase le corti europee: artigiani abilissimi si studiavano di stupire i nobili committenti con i loro giocattoli meccanici, costruiti con la tecnologia degli orologi a molla.  A parte qualche tentativo chiaramente fraudolento, tali automi non avevano però alcuna capacità di riprodurre processi logici o decisionali.  L’avvento dell’era industriale, se da un lato indusse un vasto progresso tecnologico, chiuse l’esperienza degli “automi”, che non trovavano una concreta applicazione produttiva.  La tecnologia meccanica fu invece perfezionata in particolare nell’industria tessile, con l’introduzione del telaio automatico.  Fu proprio l’esigenza di rendere pi flessibile la lavorazione a separare l’aspetto esecutivo, che sfruttava l’energia del vapore, dal sistema di controllo, dapprima manuale, poi a sua volta automatizzato.  La rivoluzione concettuale divenne evidente con il telaio Jacquard, in grado di adattarsi a differenti programmi di lavorazione: il tipo di tessitura era rappresentato su schede perforate, interpretate dal sistema di controllo.  Nel 1830, un geniale tecnico inglese, Charles Babbage (1792-1871), intuì le caratteristiche universali del procedimento: costruendo un interprete pi duttile, la macchina avrebbe potuto eseguire qualsiasi compito, a seconda del programma perforato nelle schede.  La prima versione della sua creatura, denominata “macchina alle differenze” (l’unica in realtà finanziata dal governo inglese), era in funzione del calcolo numerico.  Ben presto Babbage concepì un progetto molto pi ambizioso: la “Macchina analitica”, che per esempio poteva essere programmata per giocare a filetto, poi a dama, poi a scacchi.  La continua evoluzione delle ambizioni di Babbage, a fronte di problemi meccanici sempre pi ostici, non gli consentì di portare a termine nessuna versione completa del meccanismo.
La pi convinta sostenitrice, nonché finanziatrice, della macchina analitica fu Ada Byron, figlia del poeta Lord Byron, poi nota come Lady Lovelace, la quale portò il dibattito sul piano culturale e teorico; di fronte però agli eccessivi entusiasmi dei profani o ai timori che la macchina sfuggisse ad ogni controllo, Lady Lovelace amava ribadire: “La macchina analitica non ha alcuna pretesa di creare alcunché. Può fare qualsiasi cosa che si sia in grado di ordinarle di eseguire”.  Questa frase si presta in realtà a due interpretazioni, una riduttiva (può solo eseguire degli ordini), una pi suggestiva: può eseguire tutto ciò che le si ordina di fare, tutto ciò che noi siamo in grado di ordinarle.  La questione diventa di natura logico-linguistica: se riusciamo ad esprimere nel linguaggio delle schede compiti sempre pi complessi e difficili, in linea di principio la macchina li realizzerà.   Siamo al paradosso della programmazione, che non è necessariamente una serie di ordini banali e ripetitivi; se siamo capaci a definire compiti di alto livello, potremmo “ordinare” alle nostre macchine qualsiasi cosa, tipo “cura quel paziente”, “progetta un’automobile ad emissioni zero”, oppure, chissà: “pensa”.  Se sapessimo esattamente cos’è il pensiero, potremmo riprodurre sulla macchina un pensiero artificiale.

Il cervello elettronico

Con la morte di Babbage, il suo grandioso progetto si arenò definitivamente; con la tecnologia dell’epoca non era possibile raggiungere la precisione necessaria.  Oggi è evidente che nessun sistema puramente meccanico, composto cioè di parti in movimento, di incastri e di ruote dentate, può ragionevolmente disporre della resistenza all’usura e dei sistemi di distribuzione dell’energia implicati da strutture così complesse.  Con l’avvento dell’elettronica, l’informazione può essere rappresentata e trattata senza implicare il movimento di parti di massa rilevante, ma attraverso lo spostamento di elettroni; le potenzialità diventano indefinitamente pi grandi.
Per il nostro discorso, c’è un anno emblematico: il 1943.  Nel 1943 Pitts e McCulloch pubblicano un articolo sulla struttura dei neuroni cerebrali. La loro ricerca chiarisce che i neuroni hanno tipicamente due soli stati, e ogni sinapsi semplicemente trasmette o non trasmette il segnale.  Non vi è alcuna modularità nel singolo segnale nervoso, ma semplicemente l’impulso o c’è, o non c’è. Pitts e McCulloch suggeriscono di rappresentare l’elaborazione nervosa mediante un calcolo di tipo logico.  La natura binaria dei segnali nervosi getta una prima luce sul funzionamento del cervello; inevitabilmente, l’aspetto binario richiama le considerazioni di Boole e la sua interpretazione delle “leggi del pensiero”.   Nel 1943, John von Neumann conclude la sua prima revisione dei sistemi di calcolo elettronico e, influenzato anche dal lavoro di Pitts, individua i componenti essenziali dell’elaboratore moderno: l’unità di elaborazione, composto di unità logiche di “and”, “or” e “not”, i registri di lavoro, la memoria, i dispositivi di input e di output.  “Abbastanza curiosamente – si scrive sulla relazione finale – il progetto è in parte basato su ciò che sappiamo sul funzionamento del sistema nervoso centrale nel corpo umano” . Von Neumann adotta una terminologia antropomorfa, che Babbage aveva accuratamente evitato: “elaborazione” e non “calcolo di differenze”, “memoria” e non “magazzino”, “organi di controllo” e non “mulino”, “funzioni di ingresso e di uscita” e non “schede e visore”.
Pur se condizionati dai finanziamenti, essenzialmente militari e governativi, i pionieri della nuova tecnologia non persero di vista la speranza di riprodurre in qualche modo capacità logiche e elaborative tipicamente umane.  Ancora nel 1950, Arthur Samuel, progettatore all’IBM, era principalmente interessato all’analisi dei giochi e ad un progetto per il gioco della dama.  Nella sua analisi, la rappresentazione di una singola mossa richiedeva almeno 36 bit di informazione (32 per rappresentare la scacchiera, gli altri 4 per indicare il colore, il turno di gioco e simili); ebbene, l’IBM 701 uscì appunto con registri di 36 bit, e tra parentesi riusciva ad eseguire ottimamente il programma per la dama.  Anzi, poiché era necessario testare le singole macchine su programmi sufficientemente complessi, prima di essere consegnate gli IBM 701 giocavano interminabili partite in solitario, in modo da garantire il perfetto funzionamento di ogni singolo componente.  La versione successiva, il 702, uscito quando Samuel non era pi all’IBM, adottò ovviamente il registro a 32 bit, a indirizzamento pi efficiente; poiché però non esistevano programmi altrettanto complessi, fu chiesto a Samuel di fornire una versione a 32 bit del suo programma per il test delle macchine in uscita dalla fabbrica.

I limiti del calcolabile

Perché rifarsi alle origini? Cosa hanno a che vedere i primi costosissimi, elefantiaci e fragili elaboratori con un odierno PC, che è un milione di volte pi veloce?  Ebbene, c’è di mezzo un noto teorema, dimostrato da Alan Turing (1912-1954) nel 1936: un qualsiasi elaboratore sequenziale, ovvero che esegue le operazioni una dopo l’altra, seguendo un programma deterministico, è equivalente (purché dotato di una memoria di appoggio di dimensioni adeguate) a qualsiasi altro elaboratore sequenziale, di qualsiasi capacità o velocità.  Qualunque programma, opportunamente tradotto, può essere eseguito indifferentemente sull’uno o sull’altro.   Perciò Turing potè definire un elaboratore sequenziale estremamente semplice, costituito di tre stati, cinque o sei regole base (istruzioni-macchina) ed una unica sequenza di zeri e uno (per esempio perforati su una porzione di un nastro di carta di lunghezza infinita), il quale è equivalente ad ogni altra macchina di von Neumann.  I teoremi di calcolabilità validi per questa “macchina di Turing” valgono anche per i pi moderni computer, e per qualsiasi altro che potrà essere costruito in futuro.
Questa è la vera ragione per cui la distinzione tra software ed hardware non è una questione di parole: indipendentemente dai progressi del supporto fisico, la capacità di rappresentare o realizzare qualsiasi funzione dipende esclusivamente dal programma, risiede totalmente nella capacità del programmatore di inventare nuovi mondi, nuovi interpreti, nuove soluzioni.  I nostri fallimenti, diversamente che per Babbage, non possono trovare scuse nell’errore della macchina.
È quindi comprensibile che i progetti pi complessi e i dubbi pi astratti abbiano fin da subito piena cittadinanza: non parliamo di un futuro imprevedibile, ma di ciò che un genio sconosciuto potrebbe da un momento all’altro escogitare.
Non stupisce allora che proprio Alan Turing si sia dedicato ai programmi pi avanzati e abbia discusso, in un famoso articolo del 1950, la possibilità di riprodurre artificialmente il pensiero umano su un processore di von Neumann. L’articolo merita una lettura pi attenta; lo si può reperire nel testo a cura di Vittorio Somenzi e Roberto Cordeschi, La filosofia degli automi, Boringhieri 1986.
La natura pragmatica e costruttiva del logico Turing lo porta ad una impostazione comportamentista: definire un test che consenta di riconoscere l’eventuale presenza di un “pensiero artificiale”. Il metodo è interessante: Turing propone di indicare a priori le singole prestazioni che ci convincerebbero di colloquiare con un sistema intelligente (a posteriori, si potrebbe sempre ribattere che “non è ancora abbastanza”). Il “test di Turing”, anche se non esattamente formalizzato, è diventato una presenza costante nella eventuale presunzione di intelligenza di un programma di computer.  Turing butta là un previsione: 60 esperti (come Turing?) che lavorassero per 50 anni porterebbero a termine un programma in grado di superare il suo test.  Nel 2000 il termine è dunque scaduto: anche se nessun gruppo organizzato ha lavorato su questo obiettivo, oggi è senz’altro possibile che un programma superi la forma ingenua del test di Turing (“una persona di media cultura viene ingannata al 70% dopo 5 minuti di conversazione”).  Pi difficile forse è ingannare un esperto, magari per un tempo indefinito.

 

“Intelligenza artificiale”

Il termine è proposto nel 1956, nel corso del congresso di Dartmouth; da allora si discute se l’accostamento sia sensato, provocatorio o paradossale.  Il filone principale di ricerca ha contribuito a definire il cosiddetto “cognitivismo”: l’intelligenza tratta con “cognizioni”, elabora idee, intesse relazioni tra concetti.  L’ingegnere della conoscenza favorisce la traduzione del sapere umano in simboli che la macchina è in grado di interpretare; l’elaboratore manipola i simboli fino a produrre risposte operative analoghe a quelle che fornirebbe l’esperto umano.  Una realizzazione tipica è appunto il sistema esperto, tanto pi efficace quanta pi informazione riesce ad assimilare.  L’accento si va spostando dai processi alle loro condizioni logiche; la programmazione ad oggetti e la programmazione logica si focalizzano sulla descrizione della realtà e dei vincoli a cui è sottoposta.
Una differente linea di ricerca preferisce uscire dalla logica di von Neumann: come nel nostro cervello, l’elaborazione è essenzialmente parallela, e il comportamento del sistema dipende dall’interazione di un grande numero di processi; la difficoltà principale risiede nel coordinamento dei vari procedimenti.  Si arriva a modificare la struttura del sistema di elaborazione, a partire dalle stesse componenti fisiche,  Nacono le “reti neurali”, o  “connessionistiche”: anziché i processi di alto livello, si simulano le componenti elementari del meccanismo cerebrale, ovvero i neuroni e le loro innumerevoli sinapsi.  Mediante un procedimento di apprendimento retroattivo, che sostanzialmente premia i flussi informativi che hanno successo e penalizza le conclusioni erronee, progressivamente il sistema connessionistico assume comportamenti sempre pi efficaci.
Le due prospettive, quella cognitivista e quella connessionista, possono essere visualizzate come percorsi orientati in direzioni opposte. Il cognitivismo parte dalla teorizzazione, da concetti e modelli di alto livello, e via via li articola e li disseziona verso il basso, in direzione delle funzioni pi elementari; può quindi essere schematizzato come percorso top-down, “dall’alto verso il basso”.  Viceversa, il connessionismo parte dalla simulazione delle sinapsi e dei neuroni, organizzandoli poi in sottosistemi e sistemi sempre pi complessi: ovvero bottom-up, dal basso “verso l’alto”.  Si può immaginare che le due strategie finiscano per incontrarsi a mezza via; in effetti già oggi i sistemi pi completi trattano mediante sistemi esperti le strategie decisionali, le finalità di fondo, l’orientamento teleologico dell’automa, mentre l’analisi dell’input sensoriale, il riconoscimento vocale o visivo, la simulazione degli stessi processi emozionali sono demandati a reti neurali specifiche.  Non è detto che le due strade siano destinate all’incontro; possono procedere indipendentemente, incrociandosi e sovrapponendosi in tutte le aree intermedie.  Il sistema connessionistico può aspirare a completare il tragitto, arrivando alla scelta delle strategie e alla giustificazione teorica delle scelte compiute; l’automa cognitivista può procedere nell’applicazione della conoscenza, fino ad interpretare e schematizzare immagini, frasi, flussi emotivi.  Siamo solo ai primi passi di un processo che supera di gran lunga la nostra stessa immaginazione.
I termini “top-down” e “bottom-up” derivano dall’informatica applicata: nel costruire una procedura, si può partire dalla struttura di alto livello, richiamando macrofunzioni che verranno definite successivamente, oppure si può partire dalle istruzioni effettivamente disponibili, costruendo con esse funzioni semplici, con le quali fabbricare poi funzioni di alto livello e ottenere alla fine l’intera procedura. Come informatico praticante che predilige il metodo “dall’alto verso il basso”, ho adottato spontaneamente l’interpretazione “top-down” e “bottom-up” in intelligenza artificiale (L.Bazzocchi, Intelligenza artificiale e sistemi esperti, in “Nuova civiltà delle macchine”, n.3-4 del 1987).  Per un riferimento pi autorevole, si veda Jerome Bruner in La ricerca del significato (1990, ed. it. Boringhieri 1992, pag.24), dove in modo analogo connessionismo e cognitivismo vengono associati rispettivamente al procedere “bottom-up” e  “top-down”. Il testo di Bruner è molto indicato per approfondire l’argomento della presente comunicazione, compresa la discussione sulla plausibilità dell’intelligenza artificiale.  Bruner propone una versione modificata di cognitivismo, che non si limita alla asetticità di una psicologia “scientifica” ma intende farsi carico dell’intera semantica della “psicologia popolare” e dei termini mentalistici in essa inevitabili.  Il suo conseguente scetticismo su certe pretese dell’informatica cognitivista potrebbe però dipendere da una scarsa frequentazione delle emulazioni pi avanzate.
La proposta di Bruner fa riferimento esplicito alla crescente attenzione per la cosiddetta “intelligenza emotiva”; se non vi può essere una reale intelligenza dei fenomeni senza una qualche partecipazione emozionale, un approccio cognitivista classico sembra destinato a restare ai margini del problema. È il momento però di tirare fuori la frase di Lady Lovelace: “la macchina può fare qualsiasi cosa che si sia in grado di ordinarle di eseguire”.  Nella misura in cui riusciamo a comprendere il cervello emotivo, possiamo anche emularlo su un sistema artificiale.  A questo proposito, è uscito un articolo interessante di Federico Rampini su “La Repubblica” dell’ 8 maggio (che può essere recuperato sul sito www.larepubblica.it), Il computer che legge l’anima, articolo che illustra le ultime ricerche di Palo Alto (California).  Avendo memorizzato oltre 30.000 visi umani, il programma di computer è in grado di riconoscere lo stato emotivo di un soggetto attraverso l’espressione della faccia, su una scala estremamente precisa di differenti stati d’animo (paura, sorpresa, aggressività, rabbia, depressione, noia, soddisfazione, trionfo, ecc.); anzi, non essendo “disturbato” dall’empatia o dall’antipatia come un esaminatore umano, la macchina risulta molto pi penetrante, e difficile da ingannare.  Se quindi l’interpretazione di un messaggio non può prescindere dalle sfumature emotive, ecco ora la possibilità di una interpretazione automatica estremamente efficace e completa.  Non si tratta evidentemente di una “intelligenza emotiva” nel senso di Goleman (Daniel Goleman, Intelligenza emotiva, 1994, ed. it. Rizzoli 1994), ma, a quanto pare, di qualcosa di ancora pi efficiente.
Tralasciando per il momento il percorso connessionistico, se non per avvertire che potrebbe alla fine emulare in toto il cervello umano, la linea cognitivista si conferma come epigona di tutta la linea di pensiero occidentale a proposito dell’intelligenza logico-linguistica.  Lo stesso Bruner, pur critico verso la versione ingenua del cognitivismo, non rinnega affatto la componente logica: la deriva logico-formale del primo ‘900 è stata un passo obbligato, esaspera fino alle estreme conseguenze un aspetto che resta costitutivo dell’intelligenza, per quanto non esaustivo.  Siamo quindi autorizzati a lavorare sull’aspetto del ragionamento deduttivo e della coerenza formale, perché senza di esso il termine “intelligenza” perde ogni consistenza e non è pi distinguibile da altri concetti, come “autocoscienza”, “pensiero astratto”, “comprensione” ecc.

Deduzione e coerenza

Riportiamo dunque l’attenzione su un’accezione pi circoscritta del termine “intelligenza”, per la quale un soggetto (pur appartenente all’homo sapiens e dunque genericamente “intelligente” per definizione) può apparire pi o meno intelligente a seconda della sua capacità di tenere conto di situazioni complesse, di verificare la loro coerenza, di dedurre conseguenze logiche.
Riprendiamo l’amico Veneranda e aggiungiamo un terzo elemento, oltre il cappello e la pioggia: a volte tira vento.  Supponiamo allora che l’implacabile Veneranda non metta mai il cappello quando c’è vento.  Come abbiamo imparato, questa ulteriore relazione si riassume, per esempio, con l’espressione

Il signor Veneranda porta il cappello solo se non tira vento

 

Si rammenti che, dato il carattere puntiglioso di Veneranda, le nostre due premesse

Il signor Veneranda non porta il cappello solo se non piove
e
Il signor Veneranda porta il cappello solo se non tira vento

sono assolutamente affidabili e vere.  Su tali basi, proponiamo questo quesito: oggi giovedì 23 maggio al paese di Veneranda piove a dirotto; possiamo dedurre qualcosa sul vento, e precisamente che tira vento, oppure possiamo dedurre che non tira vento, oppure non possiamo dedurre alcunché sul vento?  In attesa di risposta, volevo accennare a un recente linguaggio molto utilizzato per realizzare sistemi esperti, il PROLOG (ovvero: PROgrammazione LOGica); l’anagramma non è all’americana perché l’interprete PROLOG è di origine francese (PROgrammation LOGique).  Questo interprete è in grado di utilizzare correttamente i connettivi logici ed assegnare valori di verità alle proposizioni semplici; con poca fatica, gli si può insegnare un minimo di sintassi italiana, in modo da trattare le frasi di cui sopra. Ma teniamo pure la versione base di un PROLOG con connettivi italiani e cominciamo a conversare:

< Se non porta_il_cappello allora non piove

  • OK  [risponde il Prolog, prendendo atto della relazione]

< Se porta_il_cappello allora non tira_vento

  • OK  [risponde il Prolog, prendendo atto della relazione]

< piove

  • OK  [risponde il Prolog, prendendo atto del fatto]

Proviamo ora ad insinuare qualche cosa sul vento, per esempio
< tira_vento

  • NO [risponde prontamente il Prolog, rifiutando il fatto]

Se invece proponiamo la frase in negativo,
< non tira_vento

  • SI’ [risponde il Prolog, rivelando che il fatto è già noto; si noti la differenza tra OK, che inserisce un fatto nuovo, non derivabile dalla base di conoscenza, e il SI’, che conferma la derivabilità del fatto sottoposto al sistema]

Dunque, un interprete nudo, cioè senza nessuna conoscenza di cappelli o di meteorologia, è in grado di rispondere al nostro quesito: se al paese di Veneranda piove, allora certamente non tira vento. Questa relazione è implicita nelle due precedenti, tanto è vero che se la sottoponiamo al PROLOG
< se piove allora non tira_vento

  • SI’ [risponde prontamente il Prolog, deducendo dalle precedenti]

È vero anche l’inverso? Tanto vale chiederlo direttamente al Prolog:
< se tira_vento allora non piove

  • SI’ [risponde prontamente il Prolog, deducendo dalle precedenti]

Nessuno sosterrà che un nudo interprete Prolog è pi intelligente di un essere umano acculturato, anche se è pi rapido nel manipolare quelle relazioni logiche che per millenni l’uomo ha considerato il fondamento del comportamento razionale.  Forse dovremmo deporre un po’ di prosopopea sulla nostra intelligenza innata, allenarci meglio a padroneggiare il ragionamento logico e lavorare con pi considerazione accanto al nostro allievo computer.

 

Bibliografia

Luciano Bazzocchi, Intelligenza artificiale e sistemi esperti, in “Nuova civiltà delle macchine, n.3-4 del 1987
Luciano Bazzocchi, Appunti di intelligenza artificiale, in “Office Automation”, set.1991, ott.1991, dic.1991, gen.1992, feb.1992, mar.1992
Francesco Barone, Logica formale e logica trascendentale, Unicopli, Milano 2000
Edoardo Boncinelli, Cervello, mente e anima, Mondadori 2000
Jerome Bruner, La ricerca del significato, Boringhieri 1992
Pietro Calissano, Mente e cervello: un falso dilemma?, Il Melangolo, Genova, 2001
Antonio Damasio, L’errore di Cartesio, Adelphi 1995
Joseph LeDoux, Il cervello emotivo, Baldini&Castoldi 1998
John Haugeland, Intelligenza artificiale, Boringhieri 1988
Douglas R.Hofstadter, Gödel, Escher, Bach, Adelphi 1984
Bart Kosko, Il fuzzy-pensiero, Baldini&Castoldi 1997
McCorduck Pamela, Storia dell’intelligenza artificiale, Muzzio 1987
Carlo Manzoni, Il signor Veneranda, Rizzoli 1984
Marvin Minsky, La società della mente, Adelphi 1989
Federico Rampini, Il computer che legge l’anima , in “La Repubblica”, 8 maggio 2002
Alan Turing, Macchine calcolatrici e intelligenza, 1950, in Vittorio Somenzi e Roberto Cordeschi (a cura di), La filosofia degli automi, Boringhieri 1986


Per gli scopi della presente comunicazione, non è il caso di premettere una definizione del termine “intelligenza”.  Risulterà evidente che si intende distinguere l’intelligenza da altri aspetti della mente umana, e a maggior ragione dalla mente tout court.  E’ importante invece sottolineare la differenza tra “distinguere” e “separare”.  In nessuna maniera si vuole separare l’intelligenza dalla sensibilità, dal sentimento, dalla emotività ecc.; fondamentale è invece non stancarsi mai di distinguere, discernere, sceverare (chi non distingue, spesso confonde).

 

Fonte: http://www.usprimini.it/~csa_old/didattica/saperi/seminari/progetto_file/Intelligenza%20e%20intelligenza%20artificiale.doc

Sito web da visitare: http://www.usprimini.it/

Autore del testo: sopra indicato nel documento di origine

Il testo è di proprietà dei rispettivi autori che ringraziamo per l'opportunità che ci danno di far conoscere gratuitamente i loro testi per finalità illustrative e didattiche. Se siete gli autori del testo e siete interessati a richiedere la rimozione del testo o l'inserimento di altre informazioni inviateci un e-mail dopo le opportune verifiche soddisferemo la vostra richiesta nel pi breve tempo possibile.

 

Ingegneria intelligenza artificiale

 

 

I riassunti , gli appunti i testi contenuti nel nostro sito sono messi a disposizione gratuitamente con finalità illustrative didattiche, scientifiche, a carattere sociale, civile e culturale a tutti i possibili interessati secondo il concetto del fair use e con l' obiettivo del rispetto della direttiva europea 2001/29/CE e dell' art. 70 della legge 633/1941 sul diritto d'autore

Le informazioni di medicina e salute contenute nel sito sono di natura generale ed a scopo puramente divulgativo e per questo motivo non possono sostituire in alcun caso il consiglio di un medico (ovvero un soggetto abilitato legalmente alla professione).

 

Ingegneria intelligenza artificiale

 

"Ciò che sappiamo è una goccia, ciò che ignoriamo un oceano!" Isaac Newton. Essendo impossibile tenere a mente l'enorme quantità di informazioni, l'importante è sapere dove ritrovare l'informazione quando questa serve. U. Eco

www.riassuntini.com dove ritrovare l'informazione quando questa serve

 

Argomenti

Termini d' uso, cookies e privacy

Contatti

Cerca nel sito

 

 

Ingegneria intelligenza artificiale