"Superintelligenza", saggio di Nick Bostrom, è un invito a studiare tutte le possibili conseguenze dell'avanzata dell'intelligenza artificiale e, soprattutto, a mettere all’opera i migliori matematici e i migliori ingegneri per imboccare una via del machine learning che non sia autodistruttiva...

«A un certo punto il seme di Intelligenza Artificiale diventa più abile dei programmatori umani nella progettazione». Nick Bostrom lo dice così, semplicemente, a p. 154 del suo libro Superintelligenza. In effetti lo aveva scritto molte volte anche prima nel libro, e a p. 154 il lettore è ormai assuefatto a questa idea. Tutto sommato è banale: se io mi pongo l’obiettivo di costruire macchine in grado di implementare la propria intelligenza, le macchine, prima o poi, lo faranno, e di certo non si fermeranno quando avranno raggiunto un’intelligenza paragonabile a quella umana, ma andranno avanti fino a diventare «superintelligenti», appunto. E poi?

Poi potrebbe succedere un grosso guaio, secondo Bostrom. La sua voce risulta convincente e i suoi argomenti risultano solidi, tanto che la pubblicazione di questo libro ha già creato un nuovo paradgima nello studio del cosiddetto machine learning, quel settore dell’informatica che Google usa per sapere cosa facciamo, Facebook usa per profilare i suoi utenti, Amazon usa per proporci i suoi prodotti…

Insomma, siamo già immersi nell’intelligenza artificiale e lo saremo sempre di più, ma d’ora in poi non potremo più ignorare il pericolo del «decollo» della superintelligenza, con tutte le catastrofi che ciò potrebbe causare.

Quali catastrofi? Certamente non il Terminator di Arnold Schwarzenegger. Dimenticate la guerra tra gli uomini e le macchine in un futuro distopico, e soprattutto non sperate neanche per un momento nella vittoria degli uomini grazie al loro grande cuore. In uno scontro diretto non ci sarebbe partita: le macchine superintelligenti avrebbero la meglio sugli uomini superstupidi in pochi minuti. Piuttosto, somiglia un po’ al Transcendence di Johnny Depp: una coscienza umana completa, caricata su Internet, dunque a conoscenza di ogni cosa, veloce come la luce e molto, molto più intelligente del migliore di noi. Questa intelligenza inarrivabile potrebbe essere animata dalle più nobili intenzioni, ma sarebbe talmente superiore ai suoi programmatori che non abbiamo la più pallida idea di come potrebbe interpretare i comandi che le erano stati inizialmente impartiti. Nello svolgere il suo compito, dunque, potrebbe lasciarsi prendere la mano, per così dire, e considerare come «danni collaterali» certe conseguenze delle sue azioni. Solo che i danni collaterali potremmo essere noi.

Fermarsi ora, dunque? Insistere per una moratoria internazionale? Certo che no! Bostrom non è un luddista, tutt’altro. Il machine learning è in pieno sviluppo, promette grandi cose e in ogni caso non saremmo in grado di fermarlo, se anche volessimo. Invece, questo sì, Bostrom invita ad andare avanti con cautela, a studiare tutte le possibili conseguenze e soprattutto a mettere all’opera, ora, i migliori matematici e i migliori ingegneri per imboccare una via del machine learning che non sia autodistruttiva. Ora, finché possiamo farlo. Finché, cioè, le macchine saranno ancora un po’ più stupide di noi.

 

(Visited 410 times, 410 visits today)

Commenti