L'altra ragione del ritardo è che ogni volta che guardavo il video di Rishi Sunak, primo ministro di Little Britain, che si sedeva stupefatto ai piedi di Elon Musk e diceva cose come "Dato che lei è noto per essere un così brillante innovatore e tecnologo...", crollavo in una risatina impotente.

Alcuni sostengono che Sunak si sia proposto per un posto di lavoro con Musk una volta perse le elezioni del prossimo anno e defenestrato dal suo stesso partito conservatore, ma non è corretto. Sunak non ha bisogno di un lavoro post-politico; suo suocero possiede mezza India. È solo un nerd impacciato che vorrebbe essere anche lui un fratello tecnologico.

Comunque, l'argomento di Bletchley Park era l'intelligenza artificiale. Tra l'annuncio di Joe Biden di un "Istituto per la sicurezza dell'intelligenza artificiale" negli Stati Uniti e il "Vertice sulla sicurezza dell'intelligenza artificiale" di Sunak (alla presenza del vicepresidente Kamala Harris, di re Carlo III e di Elon Musk), si è parlato molto di intelligenza artificiale. La maggior parte erano sciocchezze.

Demis Hassabis, CEO di Google DeepMind, ha dichiarato che "non sono pessimista riguardo all'IA, ovviamente, altrimenti non ci starei lavorando", ma lo scorso maggio ha avvertito che la minaccia di estinzione umana dovuta all'IA dovrebbe essere trattata come un rischio sociale paragonabile alle pandemie o alle armi nucleari.

Kamala Harris ha puntato sulla profondità: "Così come l'IA ha il potenziale per fare del bene profondo, ha anche il potenziale per fare del male profondo". Questo vale anche per le droghe, il denaro e i coltelli affilati. Non è ancora pronta per la prima serata.

Re Carlo pensava che "La rapida ascesa di una potente intelligenza artificiale non è meno significativa... dell'imbrigliamento del fuoco". A rischio di commettere lèse-majesté, bisogna rispondere: No, non lo è, e inoltre non è ancora successo.

Musk, che non è mai a corto di parole, ha affermato che l'intelligenza artificiale è una "minaccia esistenziale" perché gli esseri umani per la prima volta si trovano di fronte a qualcosa "che sarà molto più intelligente di noi". È stato un tripudio di cose trite e ritrite.

Questi pensatori profondi hanno parlato di rischio esistenziale, ma si tratta di un'eventualità che si verificherebbe solo se le macchine fossero dotate di una cosiddetta "intelligenza artificiale generale ", ossia di capacità cognitive del software paragonabili o superiori all'intelligenza umana.

Tali sistemi AGI avrebbero capacità intellettuali flessibili e complete come quelle degli esseri umani, ma sarebbero più veloci e meglio informati perché potrebbero accedere a enormi quantità di dati ed elaborarli a velocità incredibile. Sarebbero una minaccia potenziale reale, ma non esistono.

Non ci sono nemmeno prove che siamo più vicini alla creazione di un software di questo tipo rispetto a cinque o dieci anni fa. Ci sono stati grandi progressi in forme ristrette di intelligenza artificiale, come i veicoli a guida autonoma e i sistemi legali automatizzati, ma l'unica minaccia che rappresentano, se c'è, è per i posti di lavoro.

Non è una questione secondaria, ma non è certo esistenziale. E nemmeno l'avvento di chatbot in grado di scrivere saggi e compilare domande di lavoro al posto vostro è AGI.

I "grandi modelli linguistici" su cui sono addestrati i chatbot li rendono esperti nello scegliere la parola successiva più plausibile. Questo può occasionalmente produrre frasi casuali contenenti nuovi dati o idee utili, ma non c'è alcuna attività intellettuale coinvolta nel processo, se non nell'umano che riconosce che è utile.

C'è molto da preoccuparsi per il modo in cui i programmi informatici "più intelligenti" distruggeranno i posti di lavoro (compresi quelli altamente qualificati), e anche per la facilità con cui è diventato possibile manipolare l'opinione pubblica con "deepfakes" e simili. Ma tutto ciò non richiedeva una conferenza di alto profilo a Bletchley Park.

Allora perché sono andati tutti lì e hanno finito per parlare di minacce esistenziali? Beh, una possibilità è che i leader dei giganti tecnologici volessero assicurarsi di essere coinvolti nella definizione delle regole fin dall'inizio, perché sicuramente nei prossimi anni verranno emanate nuove regole sull'IA.

La maggior parte di queste regole riguarderanno questioni commerciali banali, non minacce all'esistenza umana. Si potrebbe pensare che non sia opportuno che siano le persone che guadagneranno da queste attività commerciali a stabilire le regole.

D'altra parte, dovrebbero certamente essere coinvolti nelle decisioni su eventuali minacce esistenziali derivanti dalle loro nuove tecnologie, quindi tatticamente ha più senso che siano loro a indirizzare la discussione in quella direzione. Non sono stupidi, si sa.


Author

Gwynne Dyer is an independent journalist whose articles are published in 45 countries.

Gwynne Dyer