Articolo dell’ing. Antonio Mattei.
L’Intelligenza artificiale (IA) è nata con l’uomo quando questi, interagendo con l’ambiente e utilizzando la sua intelligenza naturale, ha cercato di potenziare i suoi arti, utilizzando pietre, legno, fibre, per costruire “utensili”, ovvero manufatti utili alla sua sopravvivenza.
L’uomo ha poi cominciato a costruire “artifizi”, ovvero macchine, sempre più complesse, trasferendo in esse le conoscenze e le esperienze, via via sistemate nelle Tecnologie e nella Scienza.
Un passo significativo l’uomo lo ha compiuto quando ha realizzato “macchine semoventi”, ovvero quando ha dotato i suoi artifizi di potenza ed energia: le macchine tipo arco, catapulta, poi le macchine a vapore, poi quelle con motore a scoppio, a reazione, elettrico, etc…
Parallelamente, per migliaia di anni, gli uomini hanno cercato di capire, attraverso la Filosofia, in quale modo essi stessi pensano, ovvero in quale maniera un ammasso di materia biologica può percepire e conoscere un mondo materiale immenso e complicato.
Il mondo della Scienza e quello della Filosofia inizialmente erano uniti in un unico soggetto: nell’uomo sia scienziato, non ancora nell’accezione galileiana, sia filosofo. L’uomo-scienziato cercava di capire il “come” funzionavano le cose del mondo e l’uomo-filosofo cercava di comprendere il “perché” esistevano e con quale fine.
I due mondi hanno poi viaggiato per secoli prima divisi e poi in aperta contrapposizione, divenuta forte a partire dalla seconda metà del 1800, quando l’uomo scienziato, nel senso pieno, era convinto di poter capire tutti i segreti dell’Universo.
Una “nuova alleanza” tra Scienza e Filosofia nasceva un secolo dopo, nella seconda metà del 1900, intorno alla Scienza Cognitiva che aveva, ed ha, come oggetto di studio un sistema pensante, sia esso naturale o artificiale, e al cui interno era collocata l’Intelligenza Artificiale (termine coniato nel 1956) Classica.
L’alleanza tra Scienza e Filosofia fu determinata sia dall’affievolirsi delle certezze della Scienza, all’apparire sulla scena del principio di indeterminazione di Heisenberg, e sia dalla mai sopita pretesa da parte della Filosofia di penetrare nel mondo del come.
La Filosofia, approfittando dell’incertezza della Scienza, metteva pesantemente in campo la sua determinazione a comprendere il funzionamento del cervello e i meccanismi che ne fanno una mente.
La nuova alleanza si rafforzò verso l’ultimo quarto del secolo scorso, intorno alla Epistemologia della Complessità, di cui l’Intelligenza Artificiale Moderna è una branca.
L’IA è nata, di fatto e a prescindere dalle teorie scientifiche e filosofiche, quando ad un certo punto del suo cammino l’uomo, già creatore di “artifizi”, ha cercato di dotare le sue macchine, divenute già da tempo “semoventi”, cioè auto, treni, navi, aerei, lavatrici, sistemi robotizzati, missili, satelliti, etc…, di una qualche forma di Intelligenza. Microchip li troviamo ormai in ogni marchingegno.
L’IA, che dal 1987 si è posta completamente nell’ambito del metodo scientifico, racchiude la logica, la matematica, la percezione, l’apprendimento, l’azione, la memorizzazione di esperienze e dati connessi, l’informatica, la microelettronica, la robotica, la visione e il trattamento di immagini, e non solo.
Per essa lavorano assieme neurobiologi e filosofi, filosofi della mente e informatici, epistemologi e chimici, ingegneri, matematici, e non solo.
A questo punto è necessario definire quello che oggi si intende per IA: essa indica sia la proprietà di una macchina di imitare l’intelligenza biologica, sia l’insieme delle discipline scientifiche, con al centro il computer, che mirano a creare macchine capaci di imitare l’intelligenza biologica.
Questo insieme di varie Scienze è dedito allo studio e alla progettazione dei cosiddetti “agenti intelligenti”, ovvero dei sistemi che percepiscono il loro ambiente e sono in grado di decidere cosa fare e conseguentemente compiere le azioni necessarie.
C’è tutto un enorme sviluppo di complessi modelli matematici e algoritmi computazionali, nell’ambito della Teoria della Complessità e dei Sistemi Complessi Adattativi, che vivono la loro vita scientifica e tecnologica in simbiosi coi computer. Tanto in simbiosi che computer particolari, sia come tecnologia che come architettura, vengono sviluppati per meglio risolvere problemi specifici dell’IA.
Non ultimi, dispositivi che utilizzano biomolecole, come DNA ed enzimi, in grado di interagire direttamente con i sistemi biologici (anche viventi).
I filosofi chiamano IA debole quella secondo la quale le macchine agiscono come se fossero intelligenti, ovvero simulando, a computer, il pensiero. IA forte quella secondo la quale le macchine fanno quello che effettivamente pensano, senza simulare il pensiero.
I successi ottenuti nel campo dell’IA riguardano per ora l’IA debole, ovvero problemi vincolati e ben definiti, ridotti a modelli computazionali trasformati in algoritmi e regole, con annesse banche dati e quindi trasformati in software per computer. Negli anni ’70 del secolo scorso si cominciò coi cosiddetti “sistemi esperti”, ovvero programmi al computer focalizzati su un campo specifico e in grado di simulare il comportamento di un esperto in quel campo. Esempio: fare diagnosi per malattie ematiche infettive (MYCIN – 1976).
Esempi concreti di IA debole sono: la capacità delle macchine di sostenere giochi, la risoluzione di cruciverba e il riconoscimento ottico dei caratteri, e alcuni problemi più generali come quello di veicoli o velivoli autonomi, o quello dei robot che interagiscono con l’ambiente per raggiungere, da soli, determinati obiettivi ristretti, come i robot utilizzati nell’esplorazione spaziale. Altri esempi riguardano il supporto alle decisioni o alla organizzazione di attività umane.
E sin qui abbiamo appena sfiorato il tema IA da un punto di vista cronologico e tecnologico alla stregua di navigatori curiosi in Internet. Cerchiamo ora di entrare in una prospettiva più stimolante per il nostro consesso.
L’IA forte, ovvero la macchina che pensa e agisce, non è ancora realtà, ma è un obiettivo della ricerca a lungo termine.
Tra le caratteristiche che i ricercatori sperano che le macchine possano un giorno esibire, vi sono il ragionamento, la capacità di pianificare, apprendere, percepire, memorizzare, elaborare, comunicare e manipolare oggetti ed anche azionare macchine non intelligenti o con intelligenza debole.
Non vi è attualmente consenso su quanto vicino si possa andare nel simulare il cervello (umano nello specifico) e se si possa pienamente simulare.
Per primo nel 1980 Searle negò la possibilità di una IA forte nel suo famoso articolo “Menti, Cervelli e Programmi”, in cui argomenta sulla “stanza cinese” dimostrando il fatto che il calcolatore non può comprendere, quindi pensare ed essere una mente. Il problema è ancora dibattuto.
Qualche altro scienziato intravvede la possibilità che l’IA forte possa addirittura diventare una rischiosa “singolarità tecnologica”. Lo statistico I. J. Good nel 1965 argomentava: una macchina ultraintelligente è una macchina che può sorpassare di gran lunga le attività intellettuali di qualsiasi uomo.
Potendo una tale macchina progettare a sua volta macchine ancora più intelligenti, si avrebbe una “esplosione di intelligenza” e quella dell’uomo rimarrebbe molto indietro. Quindi, la prima macchina ultraintelligente sarebbe, secondo Good, l’ultima invenzione che l’uomo avrà la necessità di fare.
Se una tale “singolarità tecnologica” potrà accadere è oggetto di acceso dibattito tra gli scienziati.
Quando le macchine dovessero diventare ultraintelligenti ci sarà il rischio dell’estinzione dell’Umanità come la conosciamo oggi, non tanto perché le macchine si potrebbero ribellare, come nei film di fantascienza, ma perché i geni egoisti (The selfish gene di R. Dawkins) potrebbero non avere più bisogno di noi.
I geni potrebbero avere a disposizione, oltre la IA, i derivati della nanotecnologia molecolare. Qualche futurologo ha immaginato il proliferare di esseri, replicanti, capaci di diffondersi nell’Universo.
Secondo la neuroscienza, il numero delle cellule nervose che compone il nostro cervello è circa lo stesso del numero delle stelle presenti nell’Universo (miliardi di miliardi).
Una recente ricerca, pubblicata sulla rivista Nature’s S. R., paragona la struttura e lo sviluppo dell’Universo alle reti neurali di un cervello.
Alcuni scienziati hanno programmato una simulazione al computer, dalla quale emergerebbe che l’espansione dell’Universo ha caratteristiche molto simili a quelle della crescita e dello sviluppo del cervello.
E se l’Universo fosse espressione diretta della Intelligenza del Grande Architetto della quale noi esseri umani possiamo essere, in una qualche misura, partecipi?
VISITATORI TOTALI
- 6.398.986
Libro ed ebook “Introduzione alle dottrine esoteriche” di Giuseppe Merlino
Libro ed Ebook “Gnosticismo, sintesi della Dottrina” di Giuseppe Merlino.:
COOKIES, PRIVACY E GDPR
(Banner nero a piè di pagina) Gli unici dati raccolti da questo Blog sono quelli relativi alle statistiche ed ai contatori visite. Per l’informativa completa o per richiedere la cancellazione dei propri dati cliccare qui:
Se si desidera che questi dati non vengano raccolti, disabilitare i cookies dal browser, oppure uscire dal sito cliccando qui :
COLLEGAMENTI RAPIDI A TUTTI GLI ARTICOLI DEL BLOG
ASTRONOMIA
ASTRONOMIA 2
SCIENZA
RELIGIONI
ESOTERISMO
ESOTERISMO 2
MISTERI
CONTROINFORMAZIONE
FILMATI
TEORIA DEI NUMERI
PAGINA INIZIALE
MISCELLANEA
GNOSTICISMO
CHIMICA
MATEMATICA
FISICA
STORIA
BUDDHISMO
INDUISMO
VULCANISMO E SISMOLOGIA
SCIENZA DELL’ALIMENTAZIONE
BIOLOGIA ED ESOBIOLOGIA
ANIMALI
ECONOMIA
PROFEZIE
ISLAM
FILOSOFIA
ALCHIMIA
CRISTIANESIMO
NAPOLI
SESSUALITA’
LOTTO, PROBABILITA’ E STATISTICA
PROBLEMATICHE SOCIALILICENZA DI PROTEZIONE DEGLI ARTICOLI E DI TUTTO IL BLOG
Progetto Scienza e Conoscenza diGiuseppe Merlino è distribuito con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.Giuseppe Merlino
CERCA NEL SITO