Le macchine tradizionali sono concepite per estendere le capacità fisiche umane, mentre le moderne macchine per l'elaborazione delle informazioni, come i computer, le reti di comunicazione e i robot, sono state sviluppate per estendere l'intelligenza, la memoria e la capacità di trattare le informazioni che caratterizzano l'uomo. Pertanto, qualunque macchina che possa attuare anche solo parzialmente comportamenti ed azioni umane nell'elaborazione delle informazioni possiede un certo grado di intelligenza. Ne deriva che uno degli obiettivi fondamentali nell'ambito dell'informatica cognitiva e dell'intelligenza computazionale è quello di cercare una teoria coerente per spiegare la natura e i meccanismi sia dell'intelligenza naturale sia di quella artificiale.P.S.: Su questo blog non ho praticamente mai dato spazio alle nozioni che rappresentano una parte fondamentale del mio bagaglio formativo... ma quest'oggi ho voluto fare un'eccezione, e chissà, magari questo è solo l'inizio! :-)
La storia delle indagini sul cervello e sull'intelligenza naturale è lunga tanto quanto la storia dell'umanità, e può essere fatta risalire all'epoca di Aristotele e anche prima. I primi studi sull'intelligenza sono rappresentati dai lavori di Vygotskij, Spearman e Thurstone. Vygotskij (1896–1934) presenta una visione della comunicazione che percepisce l'intelligenza come la comunicazione inter- e intra-personale in un contesto sociale. Spearman (1863–1945) e Thurstone (1887–1955) hanno proposto la teoria dei fattori, nella quale vengono individuati sette fattori di intelligenza: comprensione verbale, fluidità di parola, abilità coi numeri, visualizzazione spaziale, memoria associativa, rapidità percettiva e ragionamento.
La teoria delle intelligenze multiple di Gardner ha identificato otto forme di intelligenza: linguistica, logico-matematica, musicale, spaziale, corporeo-cinestetica, naturalistica, interpersonale e intrapersonale. Gardner ha intuito che l'intelligenza è la capacità di risolvere un problema o di creare un prodotto all'interno di uno specifico contesto culturale. La teoria di Sternberg modella l'intelligenza in tre dimensioni, note come intelligenza analitica, pratica e creativa. Lefton e i suoi colleghi hanno definito l'intelligenza come la capacità generale dell'individuo di agire intenzionalmente, di pensare razionalmente e di avere efficacemente a che fare con l'ambiente sociale e culturale. Essi hanno intuito che l'intelligenza non è una cosa, bensì un processo che è influenzato dalle esperienze di una persona nell'ambiente.
McCarthy, Minsky, Rochester e Shannon hanno proposto il termine Intelligenza Artificiale (AI) nel 1955. Kleene ha analizzato le relazioni di automi e reti nervose, e negli anni '50 Widrow ha introdotto la tecnologia delle Reti Neurali Artificiali (Artificial Neural Networks, ANN) basata su reti non lineari multilivello, distribuite, dinamiche, interattive ed auto-organizzanti. I concetti di robotica sono stati sviluppati negli anni '70 sulla base di studi di intelligenza artificiale. Quindi i sistemi esperti, i sistemi intelligenti, l'intelligenza computazionale e gli agenti software sono emersi negli anni '80 e '90. Wang [suppongo che si tratti di un'auto-citazione da parte dell'autore, NdG ;-)] e i suoi colleghi hanno sviluppato un modello di riferimento a più livelli del cervello (Layered Reference Model of the Brain, LRMB) il quale rivela che l'intelligenza naturale racchiude 43 processi cognitivi su sette livelli noti come livelli di sensazione, memoria, percezione, azione, meta-cognitivo, meta-inferenza, e livelli cognitivi superiori, dal basso verso l'alto.
Questa visione olistica ha condotto alla teoria dell'intelligenza astratta allo scopo di unificare tutti i paradigmi di intelligenza, come l'intelligenza naturale, artificiale, "machinable" (ossia realizzabile da una macchina) e computazionale.
Definizione 1. L'intelligenza astratta, αI, è una forma di forza motrice che trasferisce le informazioni in comportamenti o azioni.
αI è una ricerca umana sia dell'intelligenza naturale sia di quella artificiale a livello della sua manifestazione neurale, cognitiva, funzionale e logica, dal basso verso l'alto. Pertanto un robot cognitivo è l'incarnazione fisica o entità derivata dell'intelligenza astratta.
Definizione 2. Un robot cognitivo è un robot autonomo che è capace di pensare, percepire ed apprendere basandosi sull'intelligenza computazionale a livello imperativo, autonomo e cognitivo.
mercoledì 2 marzo 2011
About intelligence
L'altro giorno ho cominciato a leggere un articolo scritto da Yingxu Wang e pubblicato sul PALADYN Journal of Behavioral Robotics, dal titolo Abstract intelligence and cognitive robots. L'introduzione l'ho trovata talmente degna di nota, soprattutto per gli interessanti spunti di approfondimento che offre, da decidere di pubblicarne qui di seguito la traduzione corredata degli opportuni link a Wikipedia (quella italiana ove possibile, quella inglese in mancanza di una voce nella nostra lingua), fermo restando che le References dell'articolo rimandano a fonti sicuramente più autorevoli. A dire il vero le sezioni che seguono quella introduttiva non le ho ancora affrontate, perché l'autore si immerge fin da subito in una notazione un tantino ostica e a me poco familiare... ma l'introduzione mi sembra abbastanza discorsiva ed accessibile pure a chi sa poco o nulla di robotica [a proposito, lo sapevi che il termine robot, usato per denotare una qualsiasi macchina in grado di svolgere più o meno indipendentemente un lavoro al posto dell'uomo, deriva dal ceco robota, da tradurre come lavoro pesante, ed è stato usato per la prima volta nel 1920 dallo scrittore ceco Karel Čapek nel 1920 nel suo dramma teatrale R.U.R. (Rossum's Universal Robots)?] e di discipline come l'intelligenza artificiale. Ed ecco qua...
Iscriviti a:
Commenti sul post (Atom)
Forse nella documentazione ci sarebbe da citare anche Alan Turing con il suo articolo Computing machinery and intelligence, che in sostanza ha costituito un punto di svolta per la ricerca sull'intelligenza artificiale.
RispondiEliminaComunque a me sembra che dopo gli entusiasmi degli anni '80, quando sembrava che il progresso delle tecnologie dell'informatica avrebbe portato nel giro di pochi anni a computer intelligenti, il filone sia sostanzialmente su un binario morto.
Abbiamo sviluppato sistemi esperti euristici, ma si tratta pur sempre di applicazioni algoritmiche. Quello che manca per parlare di intelligenza in senso stretto è la capacità che l'uomo ha di intuire. L'approccio dell'intelligenza artificiale è quella di sostituire l'intuizione con algortimi probabilistici, ma è chiaro che non si tratta della stessa cosa.
Io credo che per arrivare a dei robot autonomi - a la Asimov, per intenderci - ci vorrà ancora molto, ma molto tempo.