Con-scientia. L’intelligenza artificiale ci minaccerà, ma non subito

Si allarga il consenso sulla necessità di regolamentare un campo dai risvolti imprevedibili. Vediamo perché

L’evoluzione incontrollata di macchine capaci di pensare è uno dei motivi ricorrenti nelle trame delle storie di fantascienza, sin dai suoi albori, ed oggi che lo studio e la conoscenza del cervello va di pari passo con lo sviluppo di automi in grado di imparare dalla propria esperienza il problema su se e come regolamentare il campo diventa una tematica sempre più concreta.

Soprattutto dopo che tre grandi personalità del campo tecnologico-scientifico, come Stephen Hawking, Elon Musk e Bill Gates, hanno detto la loro, affermando che, se non in un futuro prossimo, molto probabilmente tra qualche decennio la perdita di controllo sullo sviluppo di intelligenza artificiale potrebbe diventare un serio rischio per l’umanità intera.

Il pericolo prospettato non è certamente quello paventato dagli autori di fantascienza, quanto, invece, la possibilità che, non regolamentando oggi la materia, ci potremmo trovare tra qualche anno con i frutti di alcuni esperimenti totalmente fuori controllo e capaci di gestire a piacimento funzioni vitali del mondo nel quale viviamo.

Questo soprattutto pensando che viviamo ormai immersi nel cosiddetto “internet delle cose”, un mondo parallelo nel quale si stima che siano connessi tra loro tramite rete almeno 15 miliardi di dispositivi (che potrebbero triplicare tra cinque anni), ognuno con un compito ben preciso nella nostra vita quotidiana. E tra questi ci sono i sistemi tramite i quali vengono gestite le scorte di cibo, i voli aerei e la distribuzione di farmaci, solo per fare qualche esempio.

Se da questi pezzi, attualmente capaci di dialogare tra loro, iniziasse a nascere una sorta di intelligenza artificiale globale, capace di evolversi seguendo la legge darwiniana, potremmo correre il serio rischio di trovarci sopraffatti dalla tecnologia che noi stessi abbiamo creato, evolutasi secondo una linea a noi estranea e quindi non direttamente comprensibile.

Questo scenario potrebbe sembrare fantascientifico ai non addetti ai lavori, ma le applicazioni dell’apprendimento automatico applicato ai computer sono diventate, quasi senza che ce ne accorgessimo, all’ordine del giorno: Google, Facebook ed Amazon, ad esempio, sono in grado di anticipare la nostra volontà grazie a quanto abbiamo fatto in precedenza sui vari siti.

E, salendo di livello, sono stati progettati software capaci di apprendere in maniera autonoma praticamente in ogni ambito della conoscenza umana: uno è stato pensato per imparare il cinese semplicemente ascoltando conversazioni in cinese e Google ha “mostrato” dei video di YouTube ad un sistema informatico così che esso da solo imparasse a distinguere tra persone e gatti.

Il punto nel quale ci troviamo ci vede impegnati non più a sfruttare il computer, quanto a collaborare con esso, in quanto non è più necessario scrivere algoritmi come un tempo, dovendo essere costretti a prevedere ogni singolo evento possibile: oggi i computer possono trovare da soli la soluzione ad un problema, semplicemente “sbattendoci” contro più volte.

Niente di più e niente di meno di come noi umani impariamo dalla nostra esperienza quotidiana: nessuno ci ha programmato per ogni singolo evento della vita, ma ad ogni stimolo reagiamo in modo diverso e, con l’esperienza, impariamo a reagire sempre meglio.

Probabilmente, ad un occhio poco attento, poco sarà cambiato tra qualche anno nel nostro rapporto con i dispositivi informatici, ma se già oggi siamo tanto dipendenti dagli smartphone continuamente online, cosa ci riserverà il futuro è difficile prevederlo. Sarebbe quindi giusto, su consiglio di tre grandi del nostro tempo, non limitare gli esperimenti in materia, quanto regolamentarli, pensando bene a quali possono essere le conseguenze di ogni singolo avanzamento.

Contatti

Sito web: http://conscientia.altervista.org

Facebook: www.facebook.com/ConScientia.Int18

Twitter: @con_scientia

Google+: https://plus.google.com/u/0/108661401121141962916/posts

E-mail: rubrica.conscientia@gmail.com

 

 

Commenta su Facebook