Anche i supercomputer devono fare il “pisolino”

2001: Odissea nello spazio

Non so se abbiate visto il film “2001: Odissea nello spazio” di Stanley Kubrik, ambientato in un futuro prossimo e che tratta di vari argomenti, tra cui l’identità della natura umana, il suo destino, il ruolo della conoscenza e della tecnica.

Per chi l’avesse visto, sa che uno dei protagonisti del film è il supercomputer di bordo, Hal 9000. Hal è uno dei maggiori protagonisti del film, poiché dimostra come già negli anni 60/70, si percepiva l’informatica come una componente fondamentale del nostro futuro, dando al compute anche una sorta di “intelligenza”. Il problema dell’intelligenza affidata ad un computer, rende le decisioni “matematiche” e talvolta pericolose per l’essere umano.

Un film molto più recente, che tratta di un argomento simile, è “Interstellar”, in cui i computer di bordo sono impostati per prendere decisioni critiche anche data la delicatezza della missione per cui stanno lavorando.

Ma questo articolo non deve trattare di film, bensì di informatica e di supercomputer.

Interstellar

Un film molto più recente, che tratta di un argomento simile, è “Interstellar”, in cui i computer di bordo sono impostati per prendere decisioni critiche anche data la delicatezza della missione per cui stanno lavorando.
A Tars infatti vengono affidati compiti delicati, quali la gestione della ibernazione dei cosmonauti, del loro risveglio e della loro sicurezza.
Ma oltre a questi compiti, deve gestire il successo della missione spaziale e proprio questo rende il film un capolavoro che va ben oltre gli effetti speciali.

Ma questo articolo non deve trattare di film, bensì di informatica e di supercomputer.

Supercomputer oggi

Ma lasciando stare quest’opera, resta il fatto che i computer abbiano una componente di derivazione umana. Alla fine sono stati assemblati e progettati da umani e l’intelligenza artificiale si basa su conoscenze pregresse. Allo stesso modo, la progettazione delle reti neurali che stanno alla base dell’intelligenza artificiale, sono soggette a limitazioni derivate dagli input ricevuti.

Chiaro, una rete neurale ha una velocità di calcolo nettamente superiore alla media umana e questo proprio per il fatto di poter unire svariati supercomputer a formare un enorme “cervello” informatico composto da un numero elevato di computer, da cui rete neurale.

Ma c’è un problema. I computer sono considerati instancabili, non provano la noia e sono quindi perfetti per adempiere a compiti ripetitivi e di grande precisione.
A quanto pare però, pur essendo molto potenti e non soggetti a noia, i computer potrebbero essere soggetti alla stanchezza, proprio come sarebbe soggetto un cervello umano dopo una lunga sessione di apprendimento.

Infatti, il Laboratorio Nazionale di Los Alamos degli Stati Uniti, in Nuovo Messico, grazie ad uno studio che verrà presto presentato al prossimo convegno Women in Computer Vision a Seattle, hanno dimostrato la realizzazione di una rete neurale che assomigli il più possibile al cervello umano, imparando da stimoli esterni ed essendo a loro soggetti.

Tuttavia la ricercatrice Yijing Watkins ha osservato, che i computer sottoposti a periodi continui di apprendimento incontrollato, risultassero affaticati e  instabili.