Sta facendo il giro del mondo la lettera aperta che alcuni tra i rappresentanti dei principali big tech – e parliamo di Microsoft, Google, Amazon, Meta con Elon Musk e Steve Wozniak (cofondatore di Apple, per intenderci) in testa – hanno firmato chiedendo una sospensione di almeno sei mesi dell’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. E se lo dicono loro…
Ecco cosa scrivono
I sistemi AI dotati di un’intelligenza capace di porsi in competizione con gli esseri umani possono causare profondi rischi alla società e all’umanità, come dimostrato da approfondite ed ampie ricerche e riconosciuto dai maggiori lab AI. Come dichiarano i Pincipi Asilomar che regolano l’Intelligenza Artificiale, ampiamente accettati, “l’Intelligenza Artificiale Avanzata potrebbe rappresentare un radicale cambiamento nella storia della vita sulla Terra e dovrebbe essere progettata e gestita di conseguenza in termini di attenzione e risorse”.
Sfortunatamente, l’attuale livello di progettazione e gestione non è adeguato, laddove negli ultimi mesi abbiamo visto i lab AI incastrati in una gara fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno – neppure i loro creatori – possono comprendere, prevedere o controllare.
Gli attuali sistemi AI stanno entrando in competizione con le persone nei compiti di carattere generale e noi dobbiamo chiederci: Dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e menzogna? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non-umane che potrebbero superarci in numero e in astuzia, renderci obsoleti e rimpiazzarci? Dovremmo rischiare di perdere il controllo sulla nostra civiltà? Simili decisioni non devono essere delegate a leader del tech non eletti da nessuno. Sistemi potenti AI dovrebbero essere sviluppati solo una volta che si sia certi che i loro effetti saranno positivi ed i loro rischi gestibili. Questa certezza deve essere ben fondata e deve aumentare proporzionalmente all’entità degli effetti potenziali del sistema.
La recente dichiarazione di OpenAI in tema di intelligenza generale artificiale recita “Ad un certo punto, potrebbe essere importante avvalersi di una revisione indipendente prima di iniziare ad addestrare sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per la creazione di nuovi modelli”. Siamo d’accordo. Il punto è adesso.
Pertanto, noi chiediamo a tutti i lab AI di sospendere immediatamente e per almeno 6 mesi l’addestramento dei sistemi AI più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile, ed includere tutti gli attori chiave. Qualora tale sospensione non possa essere attivata velocemente, i governi dovrebbero intervenire ed istituire una moratoria.
I lab AI e gli esperti indipendenti dovrebbero usare questo periodo di sospensione per sviluppare ed implementare congiuntamente un seti di protocolli di sicurezza condivisi per il design e lo sviluppo dell’Intelligenza Artificiale avanzata, che siano rigorosamente controllati e revisionati da esperti terzi indipendenti. Questi protocolli dovrebbero garantire che i sistemi aderenti sono sicuri oltre ogni ragionevole dubbio. Questo non significa una pausa nello sviluppo dell’Intelligenza Artificiale in generale, ma esclusivamente un ritiro dalla corsa sfrenata e pericolosa verso modelli sempre più grandi di black-box impredicibili con sempre maggiori capacità.
La ricerca e lo sviluppo AI dovrebbero essere rifocalizzati su una maggiore accuratezza, sicurezza, interpretabilità, trasparenza, solidità, allineamento, affidabilità e lealtà degli attuali sistemi.
In parallelo, gli sviluppatori AI devono lavorare con i regolatori per accelerare fortemente lo sviluppo di robusti sistemi di governance dell’Intelligenza Artificiale. Questi dovrebbero almeno includere: nuove e autorevoli autorità di vigilanza dedicate all’AI; supervisione e tracciatura dei sistemi AI ad alta capacità ed ampia potenza di calcolo; sistemi di individuazione della provenienza e filigranatura per aiutare a distinguere il reale dal sintetico e tracciare perdite nei modelli; un solido ecosistema di audit e certificazione; responsabilità per i danni causati da AI; ingenti finanziamenti pubblici nella ricerca tecnica perla sicurezza AI; ed istituti capienti per far fronte alle drammatiche trasformazioni radicali economiche e politiche (soprattutto a carico della democrazia) che l’Intelligenza Artificiale provocherà.
L’umanità può godere di un futuro fiorente grazie all’Intelligenza Artificiale. Avendo con successo creato potenti sistemi AI, oggi possiamo fruire di una “estate AI”, nella quale raccogliere i frutti, rendere questi sistemi benefici per tutti in maniera trasparente e dare alla società la possibilità di adattarsi. La società ha già sospeso altre tecnologie con effetti potenzialmente catastrofici. Possiamo farlo anche adesso. Godiamoci una lunga estate AI, non corriamo impreparati verso il disastro.
La lettera originale è disponibile a questo link.
