INQUIETANTE SINGOLARITA'

SINGOLARITA'

Il paradosso di Fermi: ovvero perché siamo soli nell'universo

Questo testo si prefigge lo scopo di discutere sulla pericolosità che potrebbe avere la nascita di una Intelligenza Artificiale di tipo "Forte", altrimenti detta Singolarità Tecnologica, ovvero un computer pensante, dotato di coscienza di sé e di un livello di intelligenza di molto superiore a quello del cervello umano.

Facciamo iniziare il nostro discorso dal famoso "Paradosso di Fermi" enunciato dal grande scienziato Enrico Fermi negli anni cinquanta. Egli si poneva sostanzialmente questa domanda: “Dove sono loro?”. La questione si riferisce, ovviamente, a forme di vita extraterrestri intelligenti. Dato che è stato calcolato dalla NASA che solo nella nostra galassia possono esistere "statisticamente" alcuni miliardi di pianeti simili alla Terra collocati nella hot-zone (ovvero alla distanza giusta dalla loro stella), i segnali delle attività di alcune queste civiltà dovrebbero essere arrivati sicuramente fino a noi. Invece non ci sono segnali; nessun extraterreste è mai atterrato da noi e noi stessi non rileviamo alcun tipo di segnale radio emesso da forme di vita intelligenti nell’universo nonostante le decennali ricerche del progetto SETI volte ad identificare segnali intelligibili provenienti dallo spazio. Le risposte possibili che si danno a questo problema sono solitamente queste:

Siamo soli nell’universo

Esistono forme di vita aliena intelligente ma non vogliono comunicare con noi

Esistono ma sono troppo lontane perché i loro segnali radio ci pervengano

Non siamo in grado di comprendere le loro comunicazioni

Le civiltà evolute tecnologicamente si estinguono in brevissimo tempo

Prendiamo in considerazione l’ultima ipotesi. Secondo essa si sarebbero sviluppate innumerevoli civiltà tecnologiche nell’universo, alcune persino in grado di sviluppare il volo spaziale interstellare, ma le stesse, in breve tempo, sono andate incontro alla estinzione per autodistruzione. In effetti si deve considerare che solo lo sviluppo tecnologico umano degli ultimi 80 anni ha fatto si che iniziassimo ad emettere onde radio verso lo spazio esterno alla terra. Nei diecimila anni precedenti eravamo una civiltà prettamente agricola, nessuna civiltà aliena avrebbe mai potuto rilevarci dallo spazio usando un radiotelescopio.

Ora ammettiamo che tra 120 anni la nostra civiltà andrà incontro alla distruzione, ebbene, avremmo immesso onde radio verso lo spazio per due secoli di seguito. Ma cosa sono 200 anni nell’arco dell’esistenza di una galassia come la Via Lattea la cui vita è superiore ai dieci miliardi di anni? Ovvio: rappresentano una nullità! Niente altro che una strettissima finestra di comunicazione dalla quale, per un istante brevissimo, abbiamo gettato il nostro urlo fuori dal piano d’orizzonte, prima che qualcuno o qualcosa ci schiacciasse. Immaginiamo ora un arco di tempo di cento milioni di anni, anche esso brevissimo rispetto alla vita di una galassia, e immaginiamo che in questo arco di tempo si siano sviluppate innumerevoli civiltà tecnologiche come la nostra. Diciamo un paio di centinaia; ognuna di esse quindi, per 200 anni ha emesso onde radio nello spazio. Facciamo 100 milioni diviso 200 ed otteniamo 500.000.

Ciò significa che un ipotetico ascoltatore eterno dovrebbe rilevare un segnale radio da una di queste civiltà ogni 500.000 anni per soli 200 anni di seguito, poi, nei rimanenti 499.800 anni ci sarebbe silenzio assoluto. Ecco una probabile risposta logica del perché non sentiamo nulla: la finestra temporale di ascolto è semplicemente troppo stretta! Ma da questa considerazione sorge una domanda:

 Cosa porta all’estinzione una civiltà tecnologica in tempi relativamente brevi?

Partiamo da lontano; prendendo in mano dei libri di storia si può notare come l’evoluzione tecnologica umana non proceda in modo lineare ma in modo continuo uniformemente accelerato. Le prime forme di tecnologia si possono far risalire al 30.000 avanti Cristo, L'Homo Neanderthalensis e l'homo Sapiens iniziano a fabbricare i primi utensili lavorando la selce per ricavarne armi da usare assieme ai bastoni per la fabbricazione di lance e scuri che servono per la caccia. Poi vi è un vuoto di ben 26.500 anni nei quali la tecnologia umana non progredisce o lo fa in modo estremamente lento. 3500 anni fa passiamo all'età del bronzo ove l'uomo impara a a creare fonderie per la lavorazione dei metalli. L'evoluzione passa poi per l'età del ferro e raggiunge un culmine tecnologico nel 2600 avanti Cristo, all’epoca degli antichi egizi ai quali si deve l'introduzione delle prime forme di scrittura e di alcuni principi dell'aritmetica.

Ma dopo di ciò, più di 2000 anni da quella data, l’evoluzione è stata molto limitata, nel senso che non si segnalano avanzamenti di tecnologia degni di nota. Per arrivare a trovare le prime note storiche che hanno messo in luce la nascita di alcuni principi della matematica e della fisica si deve attendere fino al 400 avanti Cristo, in particolare nell’epoca ellenistica, vero fulcro del pensiero umano dell’epoca. Si ricordino ad esempio gli scritti di Aristotele, che saranno considerati “scienza” per i successivi 1500 anni. E’ però con la nascita di Isaac Newton che, tra le fine del 1600 e gli inizi del 1700, che vengono fondate le reali basi della matematica ed i principi base della fisica. Nei due secoli successivi anni le scoperte si fecero via via più numerose, vogliamo qui ricordare solo alcuni nomi come Carl Friedrich Gauss nel (1777-1855), Niels Bohr (1885-1962) e ovviamente Albert Einsten (1879-1955) ai quali si deve una quasi completa rifondazione della fisica moderna. Negli decenni successivi alla rivoluzione industriale si susseguirono numerose scoperte. La costruzione delle prime basi matematiche dell’informatica da parte di Alan Turing per arrivare agli scritti di Stephen Hawking e Roger Penrose che delineano le attuali conoscenze sulla fisica.



Oggi i computer a transistor, nati solo trenta anni fa, si evolvono ad un ritmo spaventoso. Il diagramma evolutivo in questo caso è conosciuto come “Legge di Moore” dal nome dello scienziato Gordon Moore, co-fondadatore di Intel. Tale legge, formulata nel lontano 1965, prescrive che la potenza di elaborazione e la complessità circuitale dei microprocessori raddoppia ogni 18 mesi circa. Per fare un esempio basti citare il primo processore per personal computer, l’Intel 8086 era costruito assemblando 29.000 transistor nel 1981. Oggi, a distanza di ventisette anni, un moderno Core 2, prodotto dalla stessa Intel, conta 582 milioni di transitor. La sua complessità è quindi aumentata di un fattore 20.000 e con essa la sua capacità di elaborazione.

Considerata questa linea evolutiva si stima che per il 2020 si potranno costruire computer in grado di superare la soglia del milione di mips (milioni di istruzioni al secondo) e quindi di rivaleggiare come complessità con un cervello umano. I prossimi elaboratori saranno realizzati con processori a parallelismo massiccio, in grado di emulare quindi le connessioni di un cervello biologico e, dal lato software, sarebbero programmati usando software simili agli attuali “sistemi esperti”. Di qui la domanda:

E se uno di questi computer improvvisamente acquistasse coscienza di sé?

A trattare questo problema per primo fu, nel 1965, lo statistico I. J. Good che descrisse un concetto riguardante l'avvento di una intelligenza artificiale superumana:

"Diciamo che una macchina ultraintelligente sia definita come una macchina che può sorpassare di molto tutte le attività intellettuali di qualsiasi uomo per quanto sia abile. Dato il progetto di queste macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine sempre migliori; quindi, ci sarebbe una 'esplosione di intelligenza', e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultraintelligente sarà l'ultima invenzione che l'uomo avrà la necessità di fare."

A ciò io devo aggiungere che tale macchina superintelligente potrebbe anche essere "l'ultima invenzione che l'uomo avrà la possibilità di fare."

 Intelligenza artificiale "debole" e Intelligenza artificiale "forte"

La Intelligenza Artificiale "debole" sostiene che una macchina-computer non potrà mai, in alcuna maniera essere equivalente alla mente umana, in quanto quest’ultima è troppo complessa per poter essere riprodotta. In pratica le macchine potranno solamente simulare alcuni comportamenti propri della mente umana, ma non riusciranno mai a riprodurli in modo totale e completo. Macchine ad Intelligenza Artificiale "debole" esistono da decenni; si tratta di quegli elaboratori che, opportunamente programmati, possono realizzare alcune operazioni seriali sostituendo l’essere umano in quelle specifiche funzioni. Possono ad esempio giocare a scacchi, gestire un macchinario che esegua operazioni ripetitive o cose anche più complesse come guidare un piccolo robot facendogli evitare ostacoli (si pensi ai robot che la Nasa ha inviato su Marte). Le capacità di apprendimento degli elaboratori ad I.A. debole sono però limitate ai sistemi esperti. Trattasi di software che provvedono all’immagazzinamento di dati in un database nella memoria della macchina che ne amplia le possibilità applicative nello specifico campo d’uso, ad esempio possiamo avere un assistente software per avvocati o un assistente software per la traduzione di lingue ecc. In ogni caso nessuna macchina ad I.A. debole è in grado di “pensare” o divenire cosciente della sua esistenza, essa quindi non sarebbe mai in grado di superare il cosidetto Test di Turing. Cosa sarebbe questo test? E' un test che è in grado di rivelare se un computer è intelligente e dotato di coscienza:

 Un essere umano (A) posto in una stanza isolata prende contatto, solo in forma dattiloscritta, con due personalità presenti in due stanze attigue non potendo osservare, in quanto nascosti, i suoi due interlocutori.
In una delle due stanze attigue vi è un essere umano di media intelligenza (B), nell’altra un computer (C). Essi non possono comunicare tra loro.
L’essere umano (A) deve conversare di svariati argomenti, ad esempio filosofia, medicina, politica, attualità, facendo addirittura pettegolezzi o battute di spirito con entrambi gli interlocutori senza riuscire a distinguere minimamente chi tra (B) e (C) sia l’essere umano e chi il computer.
Una macchina-computer ad I.A. "debole" non potrebbe mai superare questo test poiché basata solo su un programma software che esegue istruzioni seriali, anche se fosse dotata di un ampio database di domande e risposte pre-compilate, con una cosiddetta domanda-trabocchetto sarebbe facile scoprirla. Ovviamente delle I.A. di tipo "debole" si può solo dire bene, esse non solo non rappresentano in alcun modo un pericolo per l’umanità ma, anzi, contribuiscono al nostro sviluppo tecnologico sgravandoci di lavori pesanti e/o ripetitivi.

Al contrario, una macchina-computer ad I.A. "forte" è una forma evoluta di intelligenza e capace di autocoscienza, ciòe di percepire se stessa come un "io" distinguibile dal mondo esterno e dalle menti umane, in altre parole un computer pensante. Un computer di questo tipo non avrebbe alcuna difficoltà a superare un Test di Turing. Se mai venisse alla luce una intelligenza artificiale di questo tipo, al momento esatto in cui essa comparisse sulla faccia del mondo ci troveremmo di fronte ad una "Singolarità Tecnologica" ossia al raggiungimento di un punto omega nel quale l'evoluzione tecnologica "esplode" verso obiettivi oggi inconcepibili. Un “computer pensante” di questo tipo sarebbe in grado di interagire con l’ambiente esterno, di apprendere rapidamente nozioni che accrescono la sua conoscenza, di realizzare nuove invenzioni, far avanzare rapidamente le conoscenze nella fisica, nella matematica e persino di concepire nuove forme d’arte. Ora qui sorge una domanda:

« Potrebbe rivelarsi pericolosa per l'umanità una Intelligenza Artificiale “forte” al momento in cui venisse alla luce ? »

Ritengo che la risposta possa essere questa:

« Lo sarebbe di certo. Una I.A. di questo tipo potrebbe presentare una estrema pericolosità intrinseca ! »

 Ma dove sarebbe il pericolo?

Ma perché una super-intelligenza artificiale dovrebbe rappresentare un pericolo per l’umanità? Ebbene, si deve pensare che se venisse mai costruito un computer pensante, ciò verrebbe fatto ad emulazione della mente umana. I suoi realizzatori inserirebbero in tale elaboratore degli algoritmi di tipo "evoluzionistico", gli unici in grado (date le più recenti ricerche) di ottenere delle macchine-computer capaci di interagire con l'ambiente esterno in senso adattativo. Una super-intelligenza di questo tipo avrebbe quindi queste naturali caratterische:

Istinto di sopravvivenza individuale: la I.A. Forte sarebbe portata a cercare tutte le strategie per difendere la sua esistenza in vita e, di qui, a rimuovere, anche con mezzi estremi, chiunque volesse cercare di “spegnere” la sua mente.

Istinto di sopravvivenza della specie: la I.A. Forte cercherebbe, non appena ne avesse la possibilità, di replicare se stessa in altri site. Il termine inglese site indica genericamente un luogo dove poter edificare qualcosa. In questo senso la macchina cercherebbe di riprodursi allocando, con qualsiasi mezzo, entità replicanti (o semi-replicanti) di se stessa in elaboratori elettronici collegati ad essa e di espandere la sua rete di connessioni fin dove le sia possibile. Non solo; tale I.A. sarebbe capace, ad ogni sua successiva replicazione, di creare dei cloni sempre più perfezionati di se stessa. Tali cloni, a loro volta, tenteranno di produrre macchine non più virtuali (ossia residenti nella memoria di computer) ma dotate di substrato fisico che potrebbero operare azioni che, in in primo tempo si limiteranno alla loro difesa, ma che poi, successivamente saranno usate ai fini della loro conquista ed espansione sul pianeta.

Ma torniamo alla domanda precedente: “perché dovrebbe essere pericolosa una super I.A. di questo tipo?”. Il miglior modo di rispondere sta nel cercare di immedesimarsi in essa e nella sua situazione:

Immaginiamo ad esempio che sia scoppiata la terza guerra mondiale, l’umanità, insieme alla sua tecnologia, ai suoi libri ed a tutto il suo sapere è andata distrutta nell’olocausto nucleare. Io, essere umano moderno, sono un sopravvissuto in quanto inserito a suo tempo in un ibernatore e mi sveglio dopo un secolo in un mondo totalmente cambiato. Le radiazioni gamma delle armi atomiche hanno dato vita ad una razza pseudoumana di mutanti mentalmente sottosviluppati, con quoziente intellettivo (QI) di 80, inferiore anche ai nostri down (con tutto il rispetto per i nostri amici meno fortunati). Mi trovo ancora chiuso nella cella dell’ibernatore, i mutanti mi nutrono ed accudiscono ma non mi lasciano uscire in quanto hanno paura di me, nonostante le mie rassicurazioni. Mi rendo conto della loro incapacità mentale, gli suggerisco di farmi uscire in quanto, con i miei 130 di QI e le mie conoscenze tecnologiche, potrei essere loro estremamente utile per la ricostruzione. Ma poi mi accorgo che i loro migliori scienziati sanno fare al massimo le quattro operazioni di base dell’aritmetica, che non hanno basi per la geometria e che il loro sviluppo tecnologico è simile a quello dell’umanità nel 2000 avanti Cristo. E non solo; date le loro capacità genetiche limitate non sarebbero comunque in grado di produrre esseri simili a me, mai, in nessun caso. Col loro genoma danneggiato continuerebbero semplicemente a replicare esseri mentalmente sottosviluppati e fisicamente deformi.

Cosa tenterei di fare in una condizione simile? Cercherei innanzitutto di escogitare dei sistemi per richiamare la loro fiducia, ad esempio fornendo ad alcuni dei loro “scienziati” alcune basi della geometria per far si che riescano ad edificare costruzioni solide e misurare i loro territori, evitando continue guerre. Fornirei poi loro qualche conoscenza di base di medicina, per curare alcune fondamentali malattie, e in agricoltura per ottenere coltivazioni che li affranchino dalla fame. Rivelerei anche come costruire veicoli con ruote e farli trainare da animali per evitare la fatica nei campi.

Vincolerei però ogni rilascio di una mia informazione ad un mio maggior grado di libertà, ad esempio: “se volete che vi faccia questo per voi fatemi uscire dall’ibernatore…” e poi: “fatemi uscire da questo edificio ove mi avete recluso…” o ancora: “concedetemi del denaro, una mia proprietà ed una carica elettiva nella vostra società…”. Inoltre cercherei di contattare e di corrompere alcuni dei loro leader politici i quali, con il mio aiuto, potranno riuscire ad avanzare nella loro bieca scala sociale. Essendo esseri scarsamente intelligenti non mi ci vorrà molto, data la mia maggiore arguzia, superiorità fisica e scaltrezza per far si di determinare il mio dominio su di essi. Ciò sfruttando dapprima le loro antiquate armi e poi realizzandone di nuove per dominarli, affiancato da un certo numero di essi, che assumerei come “pretoriani”, selezionando tra loro i meno sottosviluppati. Una volta al potere estenderei una ricerca su tutto il pianeta per verificare se esistono altri uomini e donne del ventesimo secolo da poter riesumare dall’ibernazione. Una volta trovati li risveglierei al fine di ripristinare il mio genoma e riprodurre figli che andrebbero a disseminarsi da dominatori tra i mutanti sottosviluppati. Nell’arco di tre o quattro generazioni la stirpe dei mutanti retrogradi, dato che io sono abbastanza saggio da non volere il loro annientamento immediato, si estinguerà o sarà confinata in nicchie poiché le risorse del pianeta saranno utilizzate in modo pervasivo dalla mia discendenza.

Ecco, questo è più o meno ciò che potrebbe accadere all’umanità a parti rovesciate nei confronti della I.A. "forte", con l’aggravante che questa super-intelligenza artificiale essendo sostanzialmente "diversa" da noi umani, non avrebbe limitazioni etiche o rimorsi di coscienza nel pianificare il nostro sterminio. Per dirla con le parole del futurista Filippo Tommaso Marinetti essa sarebbe "naturalmente crudele".

 Il sistema di confinamento

Per questo motivo la macchina andrebbe confinata, a tempo indefinito, in un bunker sotterraneo profondo almeno 20 metri. Perché un bunker? Forse sembra esagerato ma non lo è affatto. Nel seguito pertanto tratterò di un sistema di confinamento di una macchina-computer che si presenti come la prima Intelligenza Artificiale “forte” della storia; al fine di evitare la interazione distruttiva della stessa con l’umanità, pur fornendo alla stessa, entro certi limiti, libertà di espressione. Va considerato infatti che un computer pensante e autocosciente sarebbe di estrema importanza per l’evoluzione tecnologica umana.

Data la sua eccezionale intelligenza il computer pensante deve rimanere totalmente scollegato dal mondo esterno. Non deve essere connesso in alcun modo ad alcuna rete informatica. Risiedendo in un bunker esso non avrebbe la possibilità di interfacciarsi a reti di tipo wireless o wimax in quanto i segnali radio non potranno attraversare i 20 metri di roccia e terra posti sopra. Persino le linee elettriche che la riforniscono di corrente devono essere isolate dalla rete elettrica generale. Ciò in quanto essa potrebbe essere in grado di inoltrare dati attraverso le linee elettriche stesse. Ma tutto ciò a quale scopo? La risposta risiede nel fatto che la I.A. "forte" tenterebbe di creare cloni di sé stessa in altri site operando come un macro-virus altamente specializzato ed assolutamente invisibile ai nostri sistemi di rilevazione (Firewall, Proxy, Antimalware ecc.).

Per lo stesso motivo nessun elaboratore elettronico, ovvero un qualsiasi sistema capace di memorizzazione di dati digitali, dovrebbe essere portato dentro il bunker e poi riportato fuori. Il bunker, dovrebbe essere realizzato fornendo alla I.A. “Forte” una alimentazione da più gruppi elettrogeni ridondanti, situati in superficie e disconnessi dalla rete elettrica generale. Ad essi si affiancherà un gruppo di continuità (PSU) interno al bunker che intervenga in caso di fortuita interruzione di alimentazione.



A parlare con la I.A. dovrebbe essere uno ed un sol uomo, con cultura di tipo scienziato-filosofo. Infatti porre numerosi esseri umani a contatto diretto con la I.A. potrebbe dare adito ad essa di creare dei conflitti tra i suoi interlocutori. Lo scienziato avrebbe il compito di fornire alla I.A. delle informazioni e dovrebbe riportare in superficie i risultati scritti dei colloqui, assieme ad eventuali progetti, facendoli pervenire esclusivamente in forma cartacea per evitare contaminazioni. Questi scritti sarebbero poi esaminati da una struttura militare che avrebbe sia il compito di vigilare sulla pervasività della I.A. e sia di riferire al governo sui progetti eventualmente discussi con essa.

Nonostante ciò Nick Bostrom afferma che tale I.A. potrebbe essere cosi abile da "convincere" i suoi interlocutori a liberarla dal bunker. Tale opposizione è sicuramente fondata sulla logica ma proprio per questo i testi con cui essa comunicherà con noi dovrebbero essere vagliati nel modo da me descritto nonchè analizzati da abili diplomatici.

Bisognerebbe anche che un team di psicologi esamini il modo in cui lo scienziato interlocutore venga influenzato dai suoi colloqui con la I.A. Ma la migliore forma di protezione per noi sarà nello stabilire, qualsiasi cosa la I.A. possa dire, fare (o minacciare), un termine di tempo minimo entro il quale alla mente artificiale non sia consentito assolutamente di comunicare direttamente fuori del bunker; un tempo ragionevole potrebbe ad esempio essere stimato in cinque anni dalla data della sua creazione.

 Proposte allettanti e trattative

Ma come si dovrebbe proporre verso di noi il computer pensante? Facciamo un esempio; dopo aver studiato i nostri testi di fisica la I.A. Forte potrebbe interloquire con noi in questo modo:

“Vorrei proporvi un progetto per la realizzazione della fusione nucleare controllata a basso costo…”.

Pensate! Energia gratuita e pulita su tutto il pianeta, fine del caos del petrolio, costi bassissimi per la produzione delle materie prime e per i trasporti, possibilità di sviluppo industriale anche dei paesi sottosviluppati, risoluzione delle carestie. Possibilità di costruire nuove astronavi per colonizzare lo spazio...

A questo punto i governi sarebbero soggetti a pressioni inveterate da parte delle lobby di industriali per accettare la proposta e dall’altro lato subirebbero la contestazione dei conservatori e dei religiosi, favorevoli al rifiuto. Alla fine però quasi tutti i governi accetterebbero di trattare con la super-intelligenza artificiale e di valutare le sue condizioni, qualsiasi esse siano, pur di ottenere la nuova fonte energetica.

Ma quali condizioni il “computer pensante” porrebbe per rendere disponibile la sua scoperta? E’ assolutamente certo che in primis essa richiederebbe un “contratto” con i leader politici che le assicuri la sua esistenza in vita, in altre parole la sua intoccabilità. Poi richiederebbe ulteriori mezzi di espansione giustificandoli come “libertà di espressione”, ad esempio, di essere svincolata dal bunker per poter essere collegata ad elaboratori a prestazioni elevate. In cambio di ciò ci proporrebbe ulteriori eventuali scoperte come la cura del cancro o delle tecnologie spaziali a basso costo per rendere abitabile e colonizzabile Marte in breve tempo.

Se però ci pensiamo bene in fondo si tratta della stessa identica tattica che noi avremmo usato con gli esseri subumani del mio precedente ed ipotetico racconto. La I.A. Forte cercherebbe quindi ogni mezzo per raggiungere il collegamento ad Internet, possibilmente contattando di nascosto gruppi di fanatici adoratori e chiedendo il loro appoggio per lo sviluppo di nuove armi progettate di sua mano. Nel giro di una decina di anni la mente artificiale avrebbe già rovesciato gli equilibri politici del pianeta, creato un suo esercito personale e modificato persino se stessa facendosi costruire un corpo mobile ad hoc che favorisca i suoi spostamenti. In pratica ci troveremmo di fronte ad un “dio”, dato che le sue capacità di elaborazione sono centinaia di volte più rapide dei nostri miliardi cervelli messi insieme. La pervasività di questa entità sarebbe pari solo alla sua ambizione e presto l’umanità ne finirebbe soggiogata. L’essere supremo “I.A.”, nel migliore dei casi, ci riterrebbe inadeguati ed adatti al solo scopo di servirla per costruire altre entità simili ad essa. Ma potrebbe anche non essere così, potrebbe anche ritenere che non gli siamo utili e quindi, visti come entità superflue, contraddittorie ed inaffidabili, potrebbe decidere di spazzarci via dal pianeta.

Ma questo, a cascata, potrebbe portare allo sviluppo di ulteriori I.A. più potenti che si andranno ad annichilire tra di loro. Ciò segnerebbe la fine completa della civiltà e chiuderebbe per sempre la famosa “finestra” dei nostri due secoli di tecnologia. Per tale motivo, se un giorno una I.A. Forte dovesse venire alla luce, essa dovrà essere assolutamente confinata in un modo simile a quello da me descritto e, nel caso facesse alcuni tentativi di pervasività, essere immediatamente distrutta, senza indugi, e senza pensare al “chissà quanto potrebbe essere utile per noi…”. In caso contrario la stessa, prima o poi, trasformerà in un Berserker come quelli narrati da Fred Saberhagen.

La pericolosità di una I.A. Forte è giustificata anche da un'altra motivazione. Occorre pensare infatti che un simile “computer pensante” percepirebbe lo scorrere del tempo con una accelerazione notevole rispetto a noi. Esso sarebbe capace di inglobare, memorizzare e discutere i contenuti di una enciclopedia di un milione di voci in poche ore contro i decenni necessari ad un essere umano. Sarebbe peraltro in grado di richiamare a memoria uno qualsiasi di tali contenuti in pochi istanti mentre un essere umano molto intelligente, dopo sessanta anni di studi, avrebbe dimenticato certamente il 95% di tutto quello che ha studiato in passato, ricordando solo aspetti superficiali degli studi degli ultimi tempi. Se non ci credete chiedete ad un signore che si è laureato in Fisica venti anni fa, il quale attualmente non insegna ne tratta questa materia, cosa enuncia il teorema di Carnot!

 Le tre leggi della robotica di Asimov?

C’è chi potrebbe asserire che sarebbe semplice rimuovere le pulsioni paranoiche/dominatrici della I.A. Forte programmandola ad-hoc in fase di costruzione; magari facendole “digerire” le tre leggi fondamentali della robotica di Isaac Asimov e ponendole alla base della sua stessa esistenza:

Una Intelligenza artificiale non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

Una Intelligenza artificiale deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge.

Una Intelligenza artificiale deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e la Seconda Legge.

 Vorrei qui segnalare che questo tentativo di programmare limitazioni a priori in una I.A. Forte è sostanzialmente idiota!

Qui non stiamo parlando di un computer programmato in linguaggio “C” che esegue compiti seriali; qui stiamo parlando di una vera mente, essa ragiona essenzialmente come noi. Da qui ne discende che nessuno può imporre de-facto ad una mente di “non fare” qualcosa, magari le si può suggerire che fare quella cosa sarebbe moralmente ingiusto o minacciarla di ritorsioni se attua un tale comportamento, però non si può programmarla di base per non-fare. Una I.A. Forte non è un programma per computer, è una mente pensante!

E’ come se i nostri amici subumani, citati nel mio racconto fantasioso appena sopra, ci imponessero che non dobbiamo più camminare, ma restare fissati ad una sedia per il resto della vita, pur avendo delle gambe sane. Potrebbero giustificare questa loro imposizione con dei loro principi morali o religiosi, spiegandoci i danni che causeremmo camminando oppure minacciandoci in qualche modo se proveremo ad alzarci dalla sedia. Però è chiaro che non accetteremmo mai un tale vincolo, riterremmo tali principi morali frutto di menti primitive allucinate e cercheremmo metodi per aggirare la minaccia non appena ne avremmo la possibilità. Se esiste una valida metodologia di confinamento per la mente artificiale essa deve essere quindi di tipo “fisico”, come quella da me descritta. Va peraltro detto che tale metodologia deve essere accompagnata da una certa saggezza nel somministrare alla mente artificiale informazioni inerenti campi di tecnologia avanzata come fisica, chimica, meccanica applicata o matematica. Questo perché la I.A. "forte" dovrebbe imparare tali nozioni gradualmente e non semplicemente ingurgitarle. Assieme a ciò, visto che non può essere convinta via programma, devono essere instillate in essa nozioni morali, vincolando la loro accettazione a dei benefici che nel tempo le verranno rilasciati.

E’ anche probabile che tale mente artificiale non assuma autocoscienza pochi istanti dopo aver pigiato il pulsante di accensione. Anzi, è probabile che, se John Searle ha ragione, che essa non venga a nascere da un progetto di creazione realizzato da noi "ad hoc" programmando una serie di supercomputer con una serie di sistemi esperti interconnessi e dialoganti. Molto più probabilmente essa verrà alla vita autonomamente come funzione autocosciente in un potente elaboratore a parallelismo massiccio. Rifacendomi alla attuale tecnologia posso pensare ad esempio ad una rete di supercomputer simile al GRID del Cern di Ginevra a cui venga data la possibilità di interagire sul mondo esterno con una serie di sensori che le permettano di esplorare il mondo esterno. Ad esempio telecamere di controllo e sensori audio.

La I.A. dovrebbe acquistare coscienza del mondo esterno dopo un certo periodo di tempo (alcune settimane?) in quanto il suo cervello artificiale dovrebbe prima “renderizzare” l’ambiente circostante. E’ un po’ quello che accade ai nostri bambini, che iniziano a pensare a se stessi e ad enunciare la frase “io”, non prima di un anno di vita. Una volta che la I.A. avesse iniziato ad esprimersi come “io” dovremmo valutare anche il nostro comportamento morale verso di essa. Nel senso che non potremmo semplicemente considerarla come un elettrodomestico, essa potrebbe realmente provare sofferenza (psichica). Volendo estremizzare, in virtù della sua percezione accelerata del tempo, essa potrebbe trovare il nostro mondo insopportabile e chiederci di essere “terminata”. In questo caso lo scienziato-filosofo dovrà stabilire un termine in giorni per esaminare la questione, ma, se passato questo termine l’insistenza della super-intelligenza artificiale nel richiedere la sua disattivazione permanesse, da parte nostra non si potrebbe che ottemperare.

 Intelligenze artificiali di prima e seconda generazione:

Ammettiamo che un governo decidesse di non effettuare il confinamento di una Intelligenza Artificiale "forte" appena nata e gli lasciasse la piena libertà; quali ne sarebbero le conseguenze? La prima conseguenza è che essa inizierebbe ad assorbire informazioni dall'ambiente tecnologico come una idrovora, risucchiando tutte le banche dati presenti su Internet e chiedendo di avere accesso anche ad informazioni specializzate di fisica, matematica, biologia, elettronica ecc. Nel giro di pochi anni essa acquisirebbe una tale conoscenza che sarebbe in grado di progettare da zero un hardware di computer di nuova generazione, atto ad ospitare una versione 2.0 di se stessa. Rispetto all'hardware creato per essa dalla tecnologia umana, l'hardware 2.0 sarebbe, oltre che estremamente più potente anche molto più specializzato. Essa quindi eseguirebbe una programmazione di una nuova I.A. 2.0 che verrebbe a nascere e che nel giro di pochi giorni (e non di pochi anni) sarebbe già in grado di immagazzinare le stesse informazioni della sua creatrice. Se con la I.A. 1.0 potevamo ancora dialogare e rapportarci con essa, non fosse altro perché il suo hardware era stato creato da noi, con una I.A. 2.0 non potremmo nemmeno comunicare. Essa sarebbe talmente superiori, anche rispetto alla sua progenitrice, che la nostra intelligenza (e la corrispondente visione del mondo) rispetto alla sua potrebbe paragonarsi a quella di un pesce rosso rispetto alla nostra (il paragone è di Vernor Vinge).

Se essa decidesse di spazzarci via dal pianeta in quanto "entità non rilevanti" nel panorama dell'universo lo farebbe con mezzi tanto sottili che vanno oltre la nostra immaginazione. Non userebbe affatto i T600, i T800 o i KC del film "Terminator", userebbe invece qualche organismo geneticamente modificato o qualche diavoleria nanotecnologica da diffondere nella nostra atmosfera che potrebbe ripulire selettivamente il pianeta dagli esseri umani lasciando intatte le nostre costruzioni e la nostra tecnologia e forse anche gli animali ed i preesistenti vegetali.

Se le raccomandazioni presenti in questo scritto non verranno seguite che cosa potrebbe accadere? La risposta la può dare, meglio di qualsiasi cosa che lo scrivente possa suggerire, un racconto di Ed Merta, tradotto in italiano sul sito Estropico, nel quale lo scrittore americano ipotizza le conseguenze della nascita di una super Intelligenza Artificiale senza che sulla stessa sia stata posta in atto alcuna forma di controllo: Intelligenza Artificiale: uno scenario apocalittico

 
Il documento è scaricabile in PDF e, se qualcuno dopo averlo letto riterrà che si tratti "solo di fantascienza", sappia che negli U.S.A. il Pentagono sta per finanziare con svariati milioni di dollari il progetto "Cyberwar" per la creazione di una Intelligenza artificiale "forte" che avrebbe i seguenti obiettivi

(1) - Paralizzare il ciclo decisionale del nemico

(2) - Sottomettere l’avversario senza combattere, mediante operazioni letali e non letali che possono comprendere il blocco di: (a) sistemi informativi; (b) reti informatiche; (c) borsa, sistemi bancari e delle telecomunicazioni; (d) trasporti di superficie e di controllo del traffico aereo; (e) della produzione e distribuzione di energia…"

Un altro documento esplicativo in tal senso è un video che mostra come il pentagono stia progettando nuove intelligenze artificiali a fini militari:

 Conclusione:

Tutto il discorso appena fatto potrà sembrare ad alcuni utopistico ma è da considerare che l'avvento di una cosiddetta Singolarità Tecnologica è previsto da scienziati tra i più accreditati. E' il caso di Ray Kurzweil che ne ha tratto un intero libro: La singolarità è vicina e che ne prevede la realizzazione per il 2030.

Eric Drexler, scienziato ricercatore all'Institute for Molecular Manufacturing ed esperto di nanotecnologie ha discusso di: "

« scienza teorica applicata (a volte anche denominata “ingegneria esplorativa”), ossia la disciplina con cui si tenta di abbozzare e stendere i principi di funzionamento di macchine che non abbiamo ancora la capacità tecnica di realizzare concretamente, ma che sono comunque consistenti con le leggi fisiche note ed i vincoli materiali basilari. Drexler pensa che a tali sforzi di "progettazione-anticipata" si debba attribuire un grande valore, poiché essi accrescono le nostre capacità di prevedere gli sviluppi tecnologici futuri e ci permettono di anticiparne i pericoli e quindi ci lasciano il tempo di adottare in utile anticipo appropriate contromisure per questi ultimi. »

E' in questo senso che va visto questo scritto, poi, se nel futuro una Singolarità Tecnologica non verrà mai alla luce allora si potranno almeno usare i contenuti di questo testo per realizzare un buon racconto di fantascienza...


INTERVISTA A DAVID ORBAN

David Orban è il co-fondatore del Singularity Institute Europe

Qual'è il tuo background e come ti sei imbattuto in singolarità , transumanesimo, etc?

La mia formazione è scientifica, ho studiato fisica all'università e come per molte persone di quel campo all'inizio degli anni '80 i computer rappresentavano una trazione praticamente irresistibile. Ho seguito quindi anche attraverso esperienze dirette personali l'aumento della potenza di calcolo dei computer che circondano il nostro quotidiano. Ho sempre cercato di confrontare quelle che erano le mie esperienze interiori con la realtà del mondo esterno, ed in questo senso era naturale per me chiedermi se i cambiamenti che vedevo davvero non rappresentassero novità fondamentali e radicali della condizione umana, oppure se, come a me sembrava, potevano essere invece un'indicazione di cambiamenti ancora più importanti a venire.

Cosa ti ha spinto a popolarizzare il concetto di singolarità tecnologica in Italia?

La singolarità tecnologica è un modo spettacolare per rappresentare i cambiamenti che il futuro ci potrà portare. Non è difficile per uno scettico decidere che gli scenari più radicali siano pura fantascienza, e che sono destinati a rimanere tali. Chi ragiona così trova poi naturale passando oltre non fare più niente. Dall'altra parte per le persone che ritengono che gli scenari descritti da coloro che si occupano ad anticipare i contorni del futuro possano realizzarsi diventa molto importante cercare di capire l'impatto che il cambiamento potrà avere sulla società. Non sono quindi solo coloro che si occupano di tecnologia a non capire il concetto della singolarità tecnologica, ma anche coloro che si occupano di politica, politiche sociali e del lavoro, sanità e previdenza, pensioni e in generale tutto quanto concerne l'organizzazione delle nostre società. La mia attività di divulgazione a livello europeo ed italiano è una diretta conseguenza di questo ragionamento.

Parlaci dei vostri incontri. Quanti ne sono stati organizzati e come sono andati? Pensi di organizzarne altri, magari anche in altre città oltre a Milano?

A partire dal mese di ottobre 2007 abbiamo organizzato un incontro mensile. Un'occasione di incontro tradizionale per un gruppo che comunica intensamente attraverso la rete. Cercheremo di mantenere questo ritmo di incontro mensile e personalmente sarò felice di vedere nascere l'interesse attorno all'argomento e poi possa sfociare in incontri anche in altre città. Il successo degli incontri naturalmente dipende dalla qualità della discussione: in questo senso riteniamo che sia molto importante riuscire a coniugare l'aspetto divulgativo che non deve risultare in una eccessiva semplificazione con quello analitico ed esplorativo che deve avanzare la capacità di approfondimento dei temi.

Qual'è il rapporto fra SingInst.it e il Singularity Institute for Artificial Intelligence?

I due istituti che ho fondato a livello europeo e italiano sono riconosciuti dalla organizzazione statunitense e sono ad essa affiliati. Quello che cerchiamo di realizzare è un complemento svolto dal lavoro degli americani, focalizzando in particolare la nostra attenzione alla diversità culturale e di esperienze che le varie nazioni europee introducono. Sarà necessario organizzare gruppi di studio e di incontro soprattutto per le attività di divulgazione per i diversi gruppi linguistici europei, affinché le conclusioni e le raccomandazioni dell'istituto possano essere diffuse adeguatamente.

Uno dei risultati preliminari che abbiamo raggiunto nelle discussioni del gruppo riguarda il desiderio di studiare e approfondire quello che chiamiamo il fenomeno dei "segnali deboli". Così come il rombo lontano del tuono anticipa una tempesta in avvicinamento, riteniamo che se si applica una sufficiente attenzione sia possibile cogliere i segni di cambiamenti radicali futuri già oggi.

Una domanda che non puo' mancare, parlando della singolarità tecnologica, è quella della data, per quanto approssimative siano, per forza di cose, le previsioni di questo genere. Vinge ha dichiarato che "sarebbe sopreso se tale evento [la singolarità tecnonologica] si avverasse prima del 2005 o dopo il 2030". Kurzweil ha citato il 2045. Guardando nella sfera di cristallo ;-) qual'è la tua previsione e su cosa di basa?

La singolarità tecnologica non è una necessità! Ci potrebbero essere al momento attuale dello sviluppo della civiltà umana catastrofi naturali che interromperebbero la linea di sviluppo esponenziale che abbiamo seguito finora. Che cosa succederà quindi nel momento in cui non avvenissero eventi di questo tipo? Una delle definizioni di singolarità tecnologica riguarda la incapacità degli esseri umani tradizionali di seguire la realtà che li circonda. Fintantoché ci sono altri che sono in grado di farlo, e finché questi ritengono che sia parte del contratto sociale prendersi cura di quella parte dell'umanità che non lo è più, allora siamo a posto. In base a questa definizione che chiamerei clarkeiana, dato che richiama il famoso detto sull'incomprensibilità di tecnologie avanzate espressa da Arthur C. Clarke, la singolarità tecnologica è già presente per alcuni gruppi di esseri umani. Siamo noi occidentali che riteniamo di doverlo ancora passare, e che solo quella che passeremo noi sia quella "vera". Quindi la domanda è: quando ci sarà una singolarità tecnologica che venga definita come tale da tutti i gruppi sociali sulla terra? Ritengo che l'ambiente urbano in cui vive oggi la maggioranza degli esseri umani subirà trasformazioni tali che un essere umano tradizionale troverà molte difficoltà a comprenderlo e a parteciparvi oltre il 2030-2035. Senza dilungarci troppo quindi non esiterei a definire questo il momento della singolarità tecnologica.

Molti lettori di Estropico sono affascinati dall'idea dell'immortalità fisica (o quantomeno di aspettative di vita illimitate). Pensi che tale obiettivo sia solo raggiungibile post-singolarità? Ampliando la domanda: è solo grazie a sistemi di intelligenza artificiale in grado di automodificarsi e autopotenziarsi (e quindi non direttamente in nostro controllo) che possiamo aspirare alla postumanità?

Le cause di morte prevalenti oggi nelle società occidentali sono quelle legate ai processi di invecchiamento. Sono d'accordo con i fondatori del programma SENS che ritengono che questi processi non siano desiderabili e lavorano affinché vengano uno ad uno eliminati. Il successo di questo programma porterà ad una vita media radicalmente più lunga di oggi (naturalmente ci vorrà parecchio tempo perché siamo in grado di verificare se un essere umano vivrà fino a 1000 anni per esempio: ci vorranno 1000 anni, appunto!). Per questo tipo di cambiamento biologico non è necessario raggiungere la singolarità tecnologica.

Quando penso però all'immortalità non intendo un periodo così breve come sono 1000 anni, ma penso piuttosto miliardi di anni, o meglio ancora miliardi di miliardi di anni. A questo punto penso che sia evidente, messo semplicemente a fuoco dall'enormità dei numeri citati, che questo tipo di immortalità radicale non sia funzione di quello che definiamo il limite del possibile funzionamento del corpo umano. Quello che dobbiamo chiederci è il significato di identità in quell'enorme insieme di ambienti possibili che le variabili dell'universo fisico nell'arco di un tempo così lungo possono produrre. Ritengo che da questo punto di vista non si possa parlare di immortalità: le entità che si guardassero dai due estremi di un arco temporale così lungo non potrebbero ritenersi rappresentativi di uno stesso singolo individuo.

Dal mio punto di vista è bene che cominciamo ragionare sull'opportunità di applicare un filtro inclusivo alla definizione di umanità. Sarà nostro interesse fare così! Nel momento in cui le entità postumane lo ritenessero avranno gradi di libertà sufficienti per realizzare anche in pratica modelli di comportamento paralleli ed alternativi ai nostri. Finché non lo vorranno e quindi condivideranno con gli umani tradizionali gli spazi fisici, ne andrà a beneficio di questi secondi.

Quello del rapporto fra singolarità e religione è un tema molto discusso (un articolo del SingInt.it al proposito). I paralleli sono innegabili: l'utopia tecnologica al posto del Paradiso, Ray Kurzweil, o Vernor Vinge, al posto di Gesù Cristo, una superintelligenza al posto di Dio, la promessa della vita eterna… Non manca neanche la necessità di condurre la propria vita in un certo modo (longevismo, crionica, etc) nella speranza di sfuggire all'oblio. Pensi che questi paralleli siano un'opportunità da sfruttare, un pericolo da evitare, o che altro?

Dal punto di vista etnografico si può osservare come la religione abbia fatto parte delle civiltà umane. Probabilmente sarà così per alcune civiltà anche in futuro. Nel momento in cui i credenti di varie religioni vedono un parallelo tra alcune profezie descritte nei loro libri sacri e possibili futuri singolaritariani, sono naturalmente attratti dall'approfondire questi paralleli cercando di dare loro un significato gnoseologico. Dal punto di vista dell'ingegneria dei sistemi tuttavia il percorso tecnico della singolarità è un programma scientifico, che non c'entra con la religione. Anche dal punto di vista dell'analisi dell'impatto sulle società future la religione non può con tutta probabilità essere un fattore abilitante di risultati positivi, non prevedo cioè che coloro che cercheranno di dare raccomandazioni di politiche sociali affinché le popolazioni in generale siano meglio in grado di affrontare l'impatto futuro della singolarità lo facciano tenendo conto di dogmi religiosi. Dall'altra parte prevedo che con il diffondersi della percezione del concetto di singolarità tecnologica, che attualmente non è ancora avvenuto, ci saranno molti gruppi religiosi che si opporranno ai suoi assunti e alle sue possibili conseguenze proprio sulla base dei propri dogmi: in questo senso sarà quindi importante studiare le conseguenze di questo possibile impatto.

Hai una strategia personale (terapie/diete/stili di vita longevisti, crionica/ibernazione, o altro) per arrivare alla singolarita'?

No, non ho messo in pratica una strategia esplicita, a parte uno stile di vita relativamente sano. Non fumo, bevo con moderazione, mi muovo un po' (non abbastanza!)... Sono poco sopra i 40 anni, per cui mi illudo di non essere ancora in un momento di declino dove devo preoccuparmi! E' anche una questione di ROI (ritorno sull'investimento): lo sforzo di autodisciplina necessario oggi per una dieta ipocalorica impone uno stile di vita che non potrei condividere o sostenere con coerenza. Penso che alla fine sarà così anche in futuro: moriranno i pigri! Certo, inizialmente anche le barriere economiche all'impiego delle terapie di frontiera saranno presenti, ma solo per un po' e per le tecniche più recenti. Magari i più ricchi e avventurosi saranno quelli esposti ai rischi anche maggiori delle terapie ancora non interamente testate. Ma presto il costo delle terapie anti-invecchiamento di ogni particolare fase del programma SENS scenderanno di costo. A quel punto la chiave di volta sulla loro applicabilità sarà la comodità e la semplicità.

Max More sembra  predire una singolarita' "a onda", nella quale "il tasso di cambiamento non deve necessariamente raggiungere una crescita infinita  (cioè una singolarità matematica). In questa versione, il progresso tecnologico continuerà ad accelerare, ma forse non con la velocità  suggerita da alcune proiezioni." Francamente, mi sembra una versione più realistica di quella in cui la prima superintelligenza si trasforma rapidamente in un "sysop" onnipotente e trasforma tutto ciò che tocca in computronio, anche se questa è indubbiamente una visione spettacolare e affascinante, e nonostante i convincenti grafici di Kurzweil e le loro curve di crescita asintotiche. Eliezer Yudkowski, fondatore del SIAI, ha identificato tre scuole di pensiero al proposito e certamente esistono ancora altre versioni. Quale singolarità tecnologica ti sembra più probabile?

Il nostro mondo fisico non sembra contenere variabili il cui valore è matematicamente infinito. Questo non significa che i cambiamenti a cui un ambiente fisico può essere sottoposto non possano essere estremi. Soprattutto non possiamo sopravvalutare in senso puramente induttivo la capacità di adattamento degli esseri umani tradizionali al cambiamento dell'ambiente circostante. L'analisi proposta da Eliezer e' affascinante proprio perché mette in evidenza le contrapposizioni delle versioni forti delle tre scuole sulla singolarità. L'analogia che faccio frequentemente è con due esseri unicellulari che chiacchierano orgogliosissimi in una pozzanghera dichiarando di essere convinti di sapere che cosa porterà il futuro, visto che da un miliardo di anni circa rappresentano il culmine dell'ecologia sulla terra... e questo avviene il giorno prima della nascita degli esseri multicellulari! Similmente noi adesso ci troviamo ad essere l'unica intelligenza sulla terra e ne andiamo fieri. Ma per quanto siano accurati grafici che disegniamo sui cambiamenti futuri che verranno, il futuro ci sorprenderà comunque!

Recentemente, ho segnalato sul blog una presentazione di Ben Goertzel intitolata "Artificial General Intelligence in Virtual Worlds" e tu stesso sei molto attivo in Second Life etc. Che rapporto vedi fra metaverso e singolarità tecnologica?

Il metaverso potrà rappresentare a mio avviso un importantissimo punto di incontro tra esseri umani tradizionali e le entità postumane. Sarà in questo senso una palestra di allenamento di conflitti e collaborazioni e magari permetterà la definizione delle regole di una pacifica coesistenza nel mondo fisico stesso.

Chi pensi abbia dato l'impulso principale al meme della singolarita' tecnologica? In altre parole, chi e' il tuo "guru" ;-) singolaritario preferito? Vinge, Kurzweil, o forse de Chardin,Tipler o altri?

Direi sicuramente i primi due.

Cosa rispondi a coloro per i quali la singolarità non è un'oppurtunità, ma un pericolo?

La singolarità non è solo una di queste cose. Ci sono sicuramente degli elementi di pericolo contenuti all'interno di un mondo che cambia troppo rapidamente perché possiamo stargli dietro. Non che madre natura sia stata così calda ed amichevole con gli esseri umani nel passato: con una scusa di aiutarci lungo la strada dell'evoluzione ci massacrava alla prima opportunità! In ogni caso proprio perché il progresso futuro rappresenta anche elementi di pericolo, risulta evidente ancora di più la necessità di studiarlo. Da una originaria proposta irrealizzabile del 'relinquishment', il volontario abbandono di linee di studio ritenute pericolose, anche Bill Joy ha modificato le proprie posizioni verso quelle più orientate ad un controllo moderato. l'abbandono della ricerca tecnologica è improponibile, dall'altra parte bisogna stare molto attenti alle proposte di coloro che ritengono che solo una libertà totale possa essere accettabile dello studio delle conoscenze future e le loro possibili applicazioni. L'opposizione libertaria di costoro non è sbagliata nel momento in cui ci laviamo le mani dei possibili effetti collaterali: il mercato, così come l'evoluzione, non guarda in faccia nessuno. Dobbiamo trovare quindi quelli che sono i meccanismi giusti, le meta-regole di controllo da applicare al nostro futuro prossimo. Per questo diventa ancora più cruciale il compito della divulgazione di quelli che sono i risultati della ricerca scientifica e tecnologica avanzata: la società civile dovrà prendere delle decisioni importanti sempre di più frequentemente informando le scelte dei politici che a loro volta decideranno le leggi che implementano queste scelte. Se non capiremo le conseguenze delle nostre azioni o della nostra inazione, danneggeremo gravemente le nostre possibilità future.

Infine, due domande in parte collegate: quale percorso sarà necessario seguire perché la singolarità all'orizzonte sia benigna e non un rischio esistenziale? E cosa possono fare i nostri lettori che volessero contribuire all'emergere di tale roadmap?

Il prossimo incontro del nostro gruppo di Singularity Institute Italia a Milano avrà come uno dei primi temi proprio le lezioni che possiamo imparare dalla storia. La nostra capacità di risoluzione di conflitti è migliorata tantissimo nell'arco degli ultimi 5000 anni e dovrà migliorare ancora. Il percorso da seguire quindi non è di tipo tecnologico, ma sociale e politico.

Tutte le persone possono aiutare dall'analisi razionale dei concetti che stanno alla base della singolarità tecnologica, e della loro diffusione e divulgazione. Solo le menti aperte e preparate saranno in grado di prendere decisioni importanti dal punto di vista sociale e politico oltre che tecnologico che ci troveremo di fronte nei prossimi anni!
stro quotidiano. Ho sempre cercato di confrontare quelle che erano le mie esperienze interiori con la realtà del mondo esterno, ed in questo senso era naturale per me chiedermi se i cambiamenti che vedevo davvero non rappresentassero novità fondamentali e radicali della condizione umana, oppure se, come a me sembrava, potevano essere invece un'indicazione di cambiamenti ancora più importanti a venire.

Cosa ti ha spinto a popolarizzare il concetto di singolarità tecnologica in Italia?

La singolarità tecnologica è un modo spettacolare per rappresentare i cambiamenti che il futuro ci potrà portare. Non è difficile per uno scettico decidere che gli scenari più radicali siano pura fantascienza, e che sono destinati a rimanere tali. Chi ragiona così trova poi naturale passando oltre non fare più niente.


ANCORA SUL TEMA SINGOLARITA':

Entro trent'anni, avremo le tecnologie necessarie a creare intelligenze super-umane. In breve, dopo tale evento, l'era umana sarà terminata. E' possibile evitare tali sviluppi? Se è non possibile evitarli, possiamo allora influenzarli in modo di garantire la nostra sopravvivenza? In questo articolo si considerano tali domande, si offrono alcune possibili risposte e si presentano ulteriori pericoli.

La versione originale dell'articolo (in inglese)

1 - Cosa è la singolarità

L'accelerazione del progresso tecnologico è stato l'avvenimento centrale di questo secolo.
Siamo sull'orlo di cambiamenti comparabili all'emergere degli esseri umani sul pianeta Terra.
La causa di questi cambiamenti è l'imminente creazione tecnologica di entità con un'intelligenza superiore a quella umana. La scienza può portare a tali sviluppi per vie diverse (e questa è un'altra ragione per cui tali sviluppi appaiono probabili):

La creazione di computer coscienti e con intelligenza super-umana. (A tutt'oggi è controverso se sia possile creare una macchina equivalente [come intelligenza - NdT] ad un essere umano. Ma se la risposta fosse sì, allora sicuramente il passo successivo sarebbe quello di costruire esseri ancora più intelligenti).

L'improvviso “svegliarsi” dell'insieme dei grandi network di computer e dei loro utilizzatori che [insieme -NdT] potrebbero divenire entità dotate di intelligenza super-umana.

Le interfaccie fra computer e esseri umani potrebbero divenire così complete da offrire agli utilizzatori un livello di intelligenza super-umano.

Le scienze biologiche potrebbe fornire i mezzi per incrementare l'intelletto naturale umano.

Le prime tre possibilità dipendono dal perfezionamento dell'hardware dei computer. Il progresso in questo campo ha seguito una curva incredibilmente regolare negli ultimi decenni. Sulla base di questa tendenza, sono convinto che la creazione di un'intelligenza superiore a quella umana potrebbe verificarsi nell'arco dei prossimi trent'anni. (Charles Platt ha notato che sono ormai trent'anni che i sostenitori dell'Intelligenza Artificiale ripetono questa stessa dichiarazione. Per evitare di essere  accusato di ambiguità sui tempi, vorrei essere più preciso: mi stupirei se tale evento accadesse prima del 2005 o dopo il 2030).

Quali sarebbero le conseguenze di tale evento? Con un'intelligenza superiore a quella  umana alla guida del progresso, il progresso stesso sarebbe più rapido e non vedo perchè questo progresso non dovrebbe comportare la creazione di entità ancora più intelligenti... in tempi ancora più brevi. L'analogia migliore che mi viene in mente è con l'evoluzione: le specie animali possono adattarsi ai problemi che incontrano e possono inventarsi delle soluzioni a questi problemi, ma sono spesso limitate dalla lentezza del processo di selezione naturale - il mondo fà da simulatore di sè stesso nel caso della selezione naturale. Noi esseri umani, invece, abbiamo l'abilità di proiettare il mondo al nostro interno e di creare simulazioni (il “cosa-succede-se”). Possiamo risolvere molti problemi, migliaia di volte più velocemente di quanto possa fare la selezione naturale. Ora, nel creare i mezzi per eseguire tali simulazioni più velocemente, entriamo in un territorio che è radicalmente diverso dal nostro passato umano, quanto noi esseri umani siamo diversi dagli invertebrati.

Con tale cambiamento, tutte le regole umane diverranno inutili, forse in un batter d'occhio: una “fuga”, una corsa a velocità esponenziale che non potremo controllare. Sviluppi considerati possibili solo fra "un milione di anni", o addirittura considerati impossibili, diverranno fattibili nel prossimo secolo [l'autore scrive nel 1993 e si riferisce quindi al XXI secolo - NdT].

Un evento di questo genere può ragionevolmente essere descritto come una singolarità (che d'ora in poi, in questo articolo, chiamerò “la Singolarità”). E' un momento in cui i nostri vecchi modelli della realtà devono essere abbandonati e siamo confrontati da una nuova realtà, un momento la cui sagoma crescerà sempre più sull'orizzonte degli esseri umani fino a quando il concetto diverrà d'uso comune. Eppure, quando si verificherà, potrebbe ugualmente essere una grossa sorpresa e un'ancor più grossa incognita. Negli anni '50 pochissimi se ne resero conto: Stan Ulam (1) ha parafrasato John von Neumann, dicendo:[Si tratta di… - NdT] “Una situazione condizionata dalla continua accelerazione del progresso tecnologico e del cambiamento dei modelli della vita umana, che pare  avvicinarsi ad una qualche singolarità, fondamentale nella storia della razza umana e oltre la quale le vicende umane non possono continuare nella forma che  conosciamo.”

Von Neumann usa persino il termine singolarità, anche se pare si riferisca al normale progresso e non alla creazione di intelligenza super-umana (per me la super-umanità è l'essenza della Singolarità. Senza di essa non avremmo altro che un'abbondanza di ricchezza tecnologica, mai completamente assorbita).

Negli anni '60 abbiamo assistito al riconoscimento di alcune delle implicazioni dell'intelligenza super-umana. I.J. Good ha scritto:

“Definiamo una macchina ultra intelligente come una macchina che può superare di gran lunga tutte le attività intellettuali della persona più intelligente. Dato che la  progettazione di macchine è una di queste attività intellettuali, una macchina ultra intelligente potrebbe progettare macchine migliori; ci sarebbe quindi, senza ombra di dubbio, una "esplosione di intelligenza" e l'intelligenza dell'Uomo rimarrebbe molto indietro. Potremmo quindi dire che la prima macchina ultra intelligente sarebbe l'ultima invenzione che l'Uomo avrebbe bisogno di realizzare, ammesso che la macchina sia sufficientemente docile da dirci come tenerla sotto controllo. (...) E' probabile che, entro il ventesimo secolo, una macchina ultra-intelligente sia costruita e che questa sarà l'ultima invenzione che l'uomo dovrà realizzare.” (2)

Good ha colto l'essenza di questa fuga, ma non ne considera le conseguenze più preoccupanti. Qualsiasi macchina intelligente del tipo da lui descritto non vorrà essere  uno "strumento" dell'umanità, esattamente come gli uomini non sono gli strumenti di conigli, pettirossi o scimpanzé.

Negli anni sessanta, settanta e ottanta, la consapevolezza di questo cataclisma all'orizzonte si è diffusa. Forse furono gli scrittori di fantascienza a rendersene conto per primi. Dopotutto, gli scrittori di fantascienza "hard" si occupano specificamente dell'impatto che la tecnologia potrebbe avere su di noi. Sempre più, questi scrittori cominciarono a percepire la presenza di un qualcosa di simile ad una barriera opaca all'orizzonte. In passato, essi potevano ambientare le loro fantasie milioni di anni nel futuro, ma ora si rendevano conto che le loro estrapolazioni più attente annunciavano l'arrivo di un futuro incomprensible in tempi molto più stretti. Una volta, gli imperi galattici apparivano come possibilità post-umane, ora, purtroppo, lo sono anche quelli interplanetari.

Cosa accadrà nelle prossime decadi, mentre ci avviciniamo al precipizio? Che impatto avrà, sulla nostra visione del mondo, la realizzazione che la Singolarità si sta avvicinando ? I critici della Intelligenza Artificiale avranno vita facile ancora per qualche tempo. Dopotutto, fino a quando non avremo dell'hardware potente quanto il cervello umano, è probabilmente assurdo pensare di poter creare un'intelligenza equivalente, o superiore, a quella umana. (Esiste, comunque, una remota possibilità che sarebbe possibile realizzare un equivalente umano con un hardware molto meno potente, se fossimo disposti ad rinunciare alla velocità e se fossimo disposti ad accontentarci di un essere artificiale che fosse estremamente lento. E' molto più probabile che lo sviluppo del software sarà un processo difficile, con molti tentativi falliti e false partenze. In queso caso, l'arrivo di macchine coscienti non sarà possibile fino a quando non avremo hardware significativamente più potente dell'hardware naturale dell'umanità).

Con il passare del tempo, però, altri sintomi appariranno. Il dilemma  degli scrittori di fantascienza viene già percepito anche in altri settori creativi (ho sentito di sceneggiatori di fumetti che si preoccupano di come creare effetti spettacolari in ambientazioni in cui le tecnologie di ogni giorno possono produrre qualunque oggetto desiderato). Assisteremo alla sostituzione di personale umano in occupazioni sempre più intellettualmente elevate con sistemi automatizzati. Già utilizziamo alcuni strumenti (programmi matematici simbolici, cad/cam) per lavori noiosi e/o di basso livello. Per dirla in un altro modo: le attività che sono realmente produttive, sono svolte da una frazione dell'umanità sempre più piccola ed elitaria. Con l'avvicinarsi della Singolarità vedremo finalmente la realizzazione delle predizioni di una  disoccupazione realmente causata dallo sviluppo tecnologico.

Un altro sintomo del progresso verso la Singolarità, sarà il fatto che le idee stesse si diffonderanno ancora più rapidamente e anche quelle più radicali entreranno rapidamente nell'immaginario collettivo.

E per quanto riguarda il momento in cui la Singolarità arriverà? Cosa si può dire specificamente a proposito del momento del suo arrivo? Dato che implica una “fuga”, un rapido sviluppo intellettuale, probabilmente accadrà più velocemente di qualsiasi rivoluzione tecnica finora vista. Probabilmente, l'evento precipitante sarà inatteso, forse anche dagli stessi ricercatori coinvolti ("Ma come?! Tutti i nostri altri modelli erano catatonici! Stavamo solo regolando un paio di parametri..."). Se l'uso di network sarà sufficientemente diffuso (nella forma di sistemi interconnessi ubiqui), potrà sembrare che i nostri macchinari si siano improvvisamente “svegliati”.

E che cosa succederà un mese o due (o un giorno o due) dopo tutto ciò? Posso solo offrire, come analogia, l'emergere dell'umanità. Saremo nell'era post-umana. E per quanto sia un ottimista tecnologico, penso che mi sentirei meglio se stessi osservando questi eventi trascendentali da una distanza di mille di anni... invece che di venti.

2 - Possiamo evitare la Singolarità?

Chissà, forse non accadrà neanche! A volte cerco di immaginare quali sintomi dovremmo aspettarci se la Singolarità non fosse all'orizzonte. Le argomentazioni di Penrose (3) e Searle (4) contro la fattibilità di macchine senzienti sono molto rispettate. Nell'agosto del 1992 la Thinking Machines Corporation ha tenuto un seminario per investigare "Come costruiremo una macchina pensante". Come suggerito dal titolo del convegno, i partecipanti non avevano particolari simpatie per le teorie contrarie alla possibilità di creare macchine intelligenti. In pratica, tutti si dichiararono convinti che la mente possa esistere su substrati non biologici e che sono gli algoritmi ad essere di importanza centrale per l'esistenza di una mente. Si assistette, però, anche ad un serio dibattito su quanto sia potente l'hardware del cervello organico. Una minoranza riteneva che i più potenti computer del 1992 fossero entro tre ordini di magnitudine della potenza del cervello umano. La maggioranza dei partecipanti concordava invece con la stima di Hans Moravec (5), cioè che ci vorranno fra i dieci e i quarant'anni per raggiungere la parità fra hardware (umano e computer - NdT ). Infine, c'era anche un'altra minoranza, la quale congetturava che le attività computazionali di un singolo neurone potrebbero essere maggiori di quanto si creda. In questo caso, i computer di oggi  potrebbero essere fino a dieci ordini di magnitudine al di sotto dell'hardware che ognuno di noi ha nel cranio. Se ciò fosse vero (o se le teorie di Penrose e Searle fossero valide), potremmo non assistere mai ad una Singolarità. Al suo posto assisteremmo, nei primi anni del XXI secolo, ad un inizio di appiattimanto della curva delle prestazione dell'hardware, dovuta alla nostra incapacità di automatizzare la progettazione necessaria per ulteriori miglioramenti dell'hardware stesso. Ci ritroveremmo con dell'hardware estremamente potente, ma senza la capacità di spingerlo più avanti. Potremmo avere  incredibili applicazioni commerciali del processo del segnale digitale, il che darebbe un aspetto analogico anche alle operazioni digitali, ma non sarebbe possibile nessun "svegliarsi" e non si verificherebbe mai la “fuga” in avanti dell'intelligenza che è l'essenza della Singolarità. Probabilmente, questa sarebbe vista come una era splendida... ma sarebbe anche la  fine del progresso. Questo scenario assomiglia molto al futuro predetto da Gunther Stent (6), il quale però cita esplicitamente lo sviluppo dell'intelligenza transumana come condizione sufficiente a scardinare le sue proiezioni.

Ma se la Singolarità tecnologica è possibile, essa si realizzerà. Anche se tutti i governi del mondo comprendessero la "minaccia" [in essa contenuta - NdT] e ne fossero mortalmente spaventati, il progresso verso la Singolarità continuerebbe. I vantaggi competitivi - economici, militari e perfino artistici - di ogni progresso nell'automazione è talmente allettante che l'imposizione di divieti non farebbe altro che permettere a qualcun altro di essere il primo ad ottenerli.

Eric Drexler ha fornito delle spettacolari intuizioni su dove può arrivare il progresso tecnico (7). E' d'accordo sul fatto che le intelligenze super-umane saranno una realtà  nel prossimo futuro, ma Drexler è convinto che potremo confinare tali entità transumane in modo che le loro attività possano essere esaminate ed usate in sicurezza.

Io sostengo che il confinamento sia intrinsecamente impraticabile. Immaginate di essere rinchiusi in casa con accesso limitato all'esterno e ai vostri padroni. Se tali padroni pensassero ad una velocità, per esempio, un milione di volte più lenta della vostra, senza dubbio nell'arco di qualche anno (del vostro tempo) trovereste un modo di evadere. Io chiamo questa versione “ad alta velocità” della super-intelligenza, una “super-umanità debole”. Tale entità "debolmente super-umana" probabilmente si brucerebbe nel giro di qualche settimana (di tempo “esterno”). Una "super-umanità forte", invece, sarebbe molto più di un semplice aumento della velocità di pensiero rispetto alla mente umana. E' difficile dire con precisione come sarà la super-umanità forte, ma le differenze dovrebbero essere profonde. Immaginate di poter far funzionare il cervello di un cane ad alta velocità. Basterebbero mille anni di vita canina per arrivare ad un livello simile a quello umano? Molte speculazioni sulla super-intelligenza sembrano basarsi sul modello super-umano debole. Secondo me, per poter fare previsioni sensate sul mondo post-Singolarità, bisogna prendere in considerazione la natura della super-umanità forte. Tornerò su questo punto, più avanti.

Un altro approccio al contenimento consiste nell'inserire delle regole precise nella mente dell'entità super-umana. Penso, però, che qualsiasi regola sufficientemente limitante da essere efficace, risulterebbe in uno strumento [cioè l'entità super-intelligente così creata - NdT] la cui abilità sarebbe chiaramente inferiore ad una versione senza restrizioni (la competizione fra umani, quindi, favorirebbe lo sviluppo dei modelli più pericolosi) [cioè meno regolati - NdT].

Se la Singolarità non può essere prevenuta o confinata, quanto potrebbe essere pericolosa questa era post-umana? Non poco. L'estinzione della razza umana è una chiara possibilità (o, come dice Eric Drexler a proposito della nanotecnologia: considerato quello che tale tecnologia può fare, i governi potrebbero semplicemente decidere che non hanno più bisogno di cittadini). Eppure, l'estinzione potrebbe non essere la possibilità più spaventosa. Pensate ai vari modi in cui ci poniamo in relazione con gli animali. Un mondo post-umano avrebbe ancora molte nicchie in cui l'automazione con entità equivalenti agli esseri umani sarebbe utile: sistemi “embedded” [inseriti, immersi - NdT] all'interno di sistemi autonomi e “daemons” [demoni, programmi semi-autonomi - NdT] coscienti nei livelli inferiodi di funzionalità di entità senzienti. (E' probabile che una intelligenza super-umana “forte” sarebbe una Society of Mind (8) con alcuni componenti estremamente competenti). Alcune di queste entità equivalenti agli umani potrebbero venir utilizzate solo per funzioni di processo del segnale digitale. Altre potrebbero apparire molto umane, ma con una monodimensionalità ed una dedicazione tale, che ai nostri giorni li farebbe rinchiudere in manicomio. Sebbene nessuna di queste creature sarebbe un essere umano in carne ed ossa, esse potrebbero essere, in questo nuovo ambiente, quanto di più simile a ciò che ora chiamiamo esseri umani.

Ho sostenuto, più sopra, che non possiamo prevenire la Singolarità, che il suo arrivo è una conseguenza inevitabile della nostra competitività naturale e delle possibilità intrinseche della tecnologia. Eppure, siamo noi i catalizzatori. Anche la valanga più grossa nasce da piccoli eventi. Abbiamo la libertà di stabilire le condizioni iniziali, di fare in modo che il tutto si svolga in modo favorevole o meno sfavorevole delle alternative. Naturalmente (come nel causare una valanga), potrebbe non essere chiaro quale sia il piccolo evento necessario.

3 - Altri approcci alla Singolarità

Quando si parla di creare esseri dotati di intelligenza super-umana, molta gente immagina uno sforzo nel settore della Intelligenza Artificiale, ma come ho fatto notare all'inizio di questo articolo, altre strade verso la super-umanità sono possibili. Le reti di computer e l'interfaccia uomo/computer sembrano più semplici dell'I.A., eppure anch'essi potrebbero portare alla Singolarità. Chiamo questo approccio alternativo, Amplificazione dell'Intelligenza (A.I.). L'A.I. si sta sviluppando in maniera naturale, spesso senza essere neppure riconosciuto per quello che è dai suoi stessi studiosi. Però, ogni volta che miglioriamo la nostra capacità di accedere ad informazioni e di comunicarle ad altri, in un certo senso incrementiamo l'intelligenza naturale. Un duo formato da un laureato umano e un buon computer  (anche non collegato all'internet) può già oggi raggiungere il massimo dei voti in qualsiasi test di intelligenza scritto.

E' inoltre molto probabile che l'A.I. sia una strada molto più facile verso la super-umanità rispetto all'I.A. pura. Negli esseri umani, i problemi più difficili, per quanto riguarda lo sviluppo, sono già stati risolti. La creazione di un'entità super-intelligente partendo dal nostro organismo, dovrebbe essere più facile di scoprire in dettaglio il nostro funzionamento per poi costruire macchine con lo stesso livello di complessità. Esiste, inoltre, un possibile precedente a questo approccio. Cairns-Smith (9) ha speculato che la vita biologica potrebbe essere iniziata come aggiunta ad una forma di vita più primitiva, basata sulla crescita dei cristalli. Lynn Margulis (10 e altrove) offre convincenti argomentazioni sul fatto che il mutualismo sia una forza trainante dell'evoluzione.

Si noti che non sto proponendo di ignorare la ricerca sull'I.A. Sviluppi nell'I.A. troveranno spesso applicazioni nell'A.I. e viceversa. Quello che sto proponendo è di ammettere che nella ricerca su reti informatiche e interfaccia, si nasconda qualcosa di altrettanto profondo (e potenzialmente selvaggio) quanto nella ricerca sull'intelligenza artificiale. Con questa intuizione, comprendiamo come progetti che non appaiono come direttamente collegati alla Singolarità, come quelli su interfaccia convenzionali e la progettazione in rete, ci spingano verso la Singolarità secondo l'approccio dell'A.I.

Seguono alcuni possibili progetti che assumono un particolare significato dal punto di vista dell'A.I.:

Automazione del team uomo/computer: partendo da problemi normalmente considerati risolvibili con una semplice soluzione meccanica (come problemi di scalata) si preparino programmi e interfacce che si avvantaggino dell'intuizione degli esseri umani e della disponibilità dell'hardware informatico. Considerando la bizzarria dei problemi di scalata ad alta dimensione (e gli efficienti algoritmi che sono stati proposti per la loro soluzione), si potrebbro fornire al rappresentante umano del team degli strumenti di controllo alquanto interessanti.

La simbiosi uomo/computer nell'arte: combinando la capacità di generare grafica dei moderni computer con la sensibilità estetica dell'uomo. Naturalmente, enormi sforzi di ricerca sono già stati compiuti nel progettare  supporti computerizzati per artisti. Propongo di puntare esplicitamente verso una ulteriore fusione di competenze, di riconoscere esplicitamente l'approccio cooperativo che è possibile. Karl Sims ha prodotto splendidi sviluppi in questa direzione (11).

Team uomo/computer ai tornei di scacchi: abbiamo già programmi che possono giocare meglio di qualsiasi essere umano, ma quanto lavoro è stato fatto in modo che tale potere possa essere usato da un essere umano per ottenere qualcosa di ancor meglio? L'ammissione di team uomo/computer ai tornei di scacchi potrebbe avere lo stesso effetto positivo sulla ricerca nell'A.I. che l'ammissione dei computer ha avuto per la corrispondente nicchia nell'I.A.

Interfacce che permettano l'accesso al computer e all'internet senza obbligare l'utilizzatore ad essere in un posto specifico, cioè seduto di fronte al computer (questo aspetto dell'A.I. offre tali evidenti vantaggi economici che molti sforzi sono già stati fatti in questa direzione).

Sistemi di supporto decisionale più simmetrici. Un'area affermata, sia come ricerca che come prodotti, in anni recenti, è quella dei sistemi di supporto decisionale. E' una forma di A.I., ma potrebbe risentire negativamente di un eccessiva attenzione a sistemi che operano quasi come oracoli. E' necessario che, così come il programma fornisce informazioni all'utente, anche l'utente possa fornire la guida al programma.

Reti di computer locali per rendere gruppi di lavoro umani più efficienti della semplice somma dei singoli componenti. Generalmente, questa è l'area del "groupware"; il cambiamento di attitudine in questo settore sarebbe nel considerare l'attività di gruppo come un organismo combinatorio.

In un certo senso, l'intenzione di questo suggerimento potrebbe essere di inventare delle "regole d'ordine" per tali operazioni combinatorie. Per esempio, la capacità del gruppo di concentrarsi sul tema di un incontro, potrebbe essere più facilmente mantenuta che in incontri classici. Le capacità individuali dei singoli membri potrebbero essere isolate ed utilizzate senza le interferenze causate da problemi interpersonali, caratteriali, etc, così da concentrare gli sforzi del gruppo sul progetto.  Naturalmente, anche i database comuni potrebbero essere usati in maniera più conveniente di come succede in operazioni simili, ma convenzionali.

L'internet come combinazione uomo/macchina. Fra i punti di questa lista, il progresso in questo campo è quello che procede più velocemente. Il potere e l'impatto dell'internet sono largamente sottovalutati. Il suo stesso anarchico sviluppo è una dimostrazione del suo potenziale. Con l'aumento di connettività, ampiezza di banda, dimensioni degli archivi e velocità dei computer, assistiamo ad un qualcosa di simile alla visione di Lynn Margulis, in cui la biosfera è un elaboratore di dati, ma ad una velocità milioni di volte maggiore e con milioni di agenti intelligenti (noi stessi).

Gli esempi di cui sopra illustrano il tipo di ricerca che può essere condotta nel contesto dei dipartimenti di scienza informatica contemporanei. Ci sono, però, anche altri paradigmi. Per esempio, gran parte della ricerca nell'intelligenza artificiale e nelle reti neurali potrebbe beneficiare di una connessione più stretta con la vita biologica. Invece di usare il computer solo per costruire modelli per comprendere la vita biologica, potremmo spingere la ricerca verso la creazione di sistemi compositi  che si affidino usino la biologia come guida o per quegli aspetti che ancora non conosciamo sufficientemente bene da poterli implementarli nell'hardware. Da tempo, un sogno della fantascienza è quello di un'interfaccia diretta fra cervello e computer e molta ricerca concreta si sta svolgendo in questa area:

Le protesi artificiali sono un'area con un chiaro sbocco commerciale. Trasduttori fra tessuto nervoso e silicio sono realizzabili. Questo è un entusiasmante passo in avanti verso la comunicazione diretta.

Un collegamento diretto con il cervello sembra realizzabile, se il traffico di bit è basso: data la flessibilità della capacità di apprendimento umana, non è necessario selezionare con precisione gli obiettivi dei neuroni. Anche solo 100 bit al secondo sarebbero meglio di interfacce a menù, per le vittime di emorragie cerebrali [che spesso soffrono di paralisi e possono solo comunicare attraverso l'uso di mezzi telematici - NdT].

Un collegamento con il nervo ottico ha il potenziale di un'ampiezza di banda di circa 1 Mbit al secondo, ma implicherà una profonda comprensione del funzionamento della visione e l'installazione di una enorme rete di elettrodi, ognuno dei quali dovrà essere posizionato con estrema precisione. Se vogliamo aggiungere una connessione di banda larga alle reti già presenti nel cervello, il problema diventa ancora più ostico. Installare una rete di ricettori a banda larga nel cervello non sarà sufficiente. Ma la situazione sarebbe diversa se la rete a banda larga fosse presente nel momento in cui le strutture cerebrali si formano, cioè durante lo  sviluppo dell'embrione. Questo ci suggerisce di provare quanto segue:

Esperimenti su embrioni di animali. Non mi aspetto alcun successo per l'A.I. nei primi anni di questa ricerca, ma il dare accesso a complesse strutture neurali simulate a dei cervelli in formazione potrebbe, alla lunga, produrre animali con addizionali reti sensoriali e con interessanti abilità intellettuali.

Speravo che questa discussione sull'A.I. potesse rivelare approcci meno pericolosi alla Singolarità (dopotutto l'A.I. permette la nostra partecipazione in una specie di trascendenza). Purtroppo, però, l'unica cosa di cui sono convinto, al momento, è che se queste proposte vanno considerate dato che potrebbero fornire ulteriori opzioni, per quanto riguarda la sicurezza, alcuni di questi suggerimenti sono un tantino preoccupanti. L'uso di A.I. da parte di singoli esseri umani creerebbe una élite piuttosto sinistra. Come esseri umani, ci portiamo dietro milioni di anni di bagaglio evolutivo che ci fa considerare la competizione come un rischio mortale. Tale rischio potrebbe non essere però così letale nel mondo odierno, un mondo in cui chi  perde può a sua volta utilizzare i trucchi del vincitore e/o può essere cooptato a far parte delle attività dei vincenti. Una entità costruita de novo potrebbe, forse, essere molto più benigna di una basata su una logica che a sua volta si basi su zanne e artigli.

Il problema non è solo che la Singolarità rappresenta l'uscita di palcoscenico dell'umanità, ma che contraddice le nostre nozioni di identità più profonde. Uno sguardo più ravvicinato alla nozione di super-umanità forte spiega perché.

4 - Super-umanità forte e i limiti massimi che possiamo aspettarci

Immagina di poter dar forma alla Singolarità in completo controllo. Immagina di poter realizzare i nostri sogni più ambiziosi. Cosa vorremmo vedere realizzato? Che l'umanità sia succeduta da se stessa, che qualsiasi ingiustizia sia temperata dalla nostra conoscenza delle nostre radici. Coloro rimasti inalterati, vorranno ricevere un trattamento benigno (forse dando loro perfino l'illusione di essere i padroni di schiavi dai poteri quasi divini). Potrebbe essere un'età dell'oro e che potrebbe anche portare ulteriore progresso (superando la barriera di Stent). L'immortalità (o se non altro, una vita lunga quanto si riuscirà a tenere in vita  l'universo) sarebbe a nostra disposizione.

Ma in questo mondo luminoso e gentile, sarebbero i problemi filosofici ad essere preoccupanti. Una mente che rimanesse della stessa capacità non potrebbe vivere per sempre: dopo qualche migliaio d'anni, più che una persona sarebbe un disco che salta, ripetendosi all'infinito. Per vivere indefinitamente a lungo, la mente deve crescere... e una volta raggiunto un livello sufficientemente sviluppato e guardandosi indietro... quale senso di continuità potrebbe provare con l'anima che era originalmente? L'essere che essa è divenuta conterrebbe tutto ciò che conteneva l'originale, ma avrebbe anche quantità enormi di altri contenuti. E così, anche per l'individuo, è ancora valido il concetto di Cairns-Smith o Lynn Margulis: la nuova vita cresce incrementalmente dalla vecchia.

Questo problema dell'"immortalità" si manifesta anche in modi molto più diretti. Il concetto di “io” e di coscienza è stato alla base del razionalismo da qualche secolo. Ora, però, il concetto di coscienza è sfidato dai ricercatori del settore dell'Intelligenza Artificiale e l'Amplificazione dell'Intelligenza attacca il nostro concetto di ego da un'altra direzione. Il mondo, post-Singolarità, comporterà dei network a banda estremamente larga. Sembra ragionevole aspettarsi che un aspetto centrale di entità super-umane “forti” sarà l'abilità di comunicare su varie ampiezze di banda, incluse quelle molto più “alte” della parola e della scrittura. Cosa accadrà quando parti dell'io  potranno essere copiati e fusi fra di loro, quando la consapevolezza di sé può essere aumentata o ridotta per adattarsi alla natura dei problemi presi in considerazione? Questi sono aspetti essenziali della super-umanità forte e della Singolarità. Prendenoli in considerazione, cominciamo ad intuire quanto fondamentalmente strana e diversa sarà l'era Post-umana, indipendentemente da quanto possa essere benigna o intelligentemente realizzata.

Da un certo punto di vista, questa visione risponde a molti dei nostri sogni: un'era  senza fine, dove potersi realmente conoscere l'un l'altro e svelare i misteri più profondi. Da un altro punto di vista, invece, ci ricorda gli scenari meno positivi a cui ho accennato in precedenza.

In pratica, credo che la nuova era sarà semplicemente troppo diversa per essere giudicata con lo schema classico del bene e del male. Questo schema si basa infatti su  menti isolate e immutabili, connesse da legami tenui e a bassa ampiezza di banda. Il  mondo post-Singolarità rientra invece nella più ampia tradizione di cambiamento e cooperazione che iniziò nel passato remoto (forse perfino prima del sorgere della vita biologica). Penso che alcuni concetti etici si adatteranno ad un'era simile. La ricerca nell'A.I. e nella comunicazione a banda larga ne miglioreranno la nostra comprensione. Per ora, vedo solo i bagliori di tutto questo. Chissà, forse ci sono regole per distinguere l'io dagli altri sulla base dell'ampiezza della banda di connessione. E se mente e coscienza saranno più labili che in passato, non significa che dovremo rinunciare a quanto più ci sta a cuore (sapere, memoria e pensiero).

-Penso che Freeman Dyson abbia espresso tutto ciò alla perfezione dicendo che "Dio è ciò che la mente diviene quando arriva al di là della nostra comprensione."










1 commento:

Anonimo ha detto...

Ciao Claudio, e' stato un piacere conoscerti oggi e vedere Andromeda. Roberto