Il Future of Life Institute, un organismo internazionale che si occupa di studiare linee guida per difendere la vita e di sviluppare "visioni ottimiste" per la società del futuro, ha pubblicato le sue priorità di ricerca per un'intelligenza artificiale "forte e benefica."
Capitando sulla pagina che racchiude queste indicazioni non ho potuto fare a meno di darci un'occhiata. Timori per l'IA che improvvisamente decide di conquistare il mondo e di rinchiuderci tutti in uno zoo alla Matrix non ce ne sono, non così direttamente. Invece una delle primissime preoccupazioni espresse nel documento si collega perfettamente ad altri timori che ho espresso di recente (le conseguenze sul mondo del lavoro). Ma c'è ovviamente molto di più.
Preoccupazioni per l'effetto che l'IA avrebbe sui mercati e sulla finanza, una legislazione per le future (imminenti) auto che si guidano da sole, armi che funzionano autonomamente (dovrebbero essere bandite? E chi ci assicurerebbe di non vederle comunque in giro, aggiungo io?). I quesiti che ho trovato più interessanti sono due, strettamente collegati: sicurezza e controllo.
La sicurezza del funzionamento di un'intelligenza artificiale concerne il timore che manipolatori non autorizzati ne prendano possesso. Il controllo implica la capacità di dirigere il comportamento della IA dopo che è stata messa in opera. Dal momento che, il giorno in cui ci sarà veramente qualcosa di simile a una intelligenza artificiale a questo mondo, lo dovremo a un costoso sforzo di menti eccelse nonché dotate di un sacco di soldi da spendere, c'è da aspettarsi che creino qualcosa che sia "implicitamente" indirizzato a lavorare per il vantaggio del proprio creatore, anziché uno strano essere potenzialmente malevolo e imprevedibile. Ma resta il rischio di una terza parte che in qualche modo riesca a influenzare il comportamento per il proprio vantaggio, e la possibilità che il comportamento della IA debba essere re-indirizzato dalla stessa organizzazione che l'ha creata. Inoltre, alla IA deve essere insegnata un'etica, e bisognerà decidere quale essa sia.
Mentre io non sono d'accordo sulla possibilità del robot supercattivo che vuole conquistare il mondo (se non gli diamo noi questa mentalità, non c'è motivo per cui debba sviluppare una "libido" per ambizioni di quel genere) la possibilità che una mente-macchina venga in qualche modo hackerata, o che i suoi sistemi di sicurezza presentino dei problemi imprevisti per cui diventi difficile al legittimo controllore darle ordini è plausibile. Sicuramente a una IA si dovrebbe dare un minimo di "istinto di sopravvivenza" per impedirle di mettersi in pericolo o per consentirle di sottrarsi al medesimo, inteso come minaccia che proviene da collegamenti di rete così come da possibile aggressione fisica ai circuiti che le permettono di pensare, quali che siano. Qui potrebbe esserci il punto debole, dove la legittima "preoccupazione" della IA per la propria esistenza potrebbe entrare in conflitto con la necessità di disabilitarla o di dettarle nuovi comportamenti. Ma prima di crearci un vero e proprio pericolo, penso che avremo modo di fare pratica con menti artificiali a cui si potrà, alla peggio, staccare la spina.
Nessun commento:
Posta un commento
Per contrastare in qualche modo gli spammer, ho dovuto introdurre la moderazione dei commenti su post più vecchi di due settimane. Peccato: mi ci hanno proprio obbligato. Inoltre non si può postare anonimamente.