Scopri il team di elite che proteggerà il mondo dai pericoli dell’IA

Scopri il team di elite che proteggerà il mondo dai pericoli dell’IA
AI

OpenAI ha recentemente inaugurato un nuovo e entusiasmante progetto: la formazione del team “Preparedness”, dedicato all’esame e alla difesa contro i pericoli potenzialmente catastrofici legati ai modelli di intelligenza artificiale. Questo team è guidato dal brillante Aleksander Madry, già a capo del prestigioso Center for Deployable Machine Learning del MIT.

Le responsabilità fondamentali del team Preparedness sono la sorveglianza, l’anticipazione e la difesa da possibili minacce rappresentate dai futuri sistemi di intelligenza artificiale. Questi pericoli possono manifestarsi in varie forme, dall’abilità di ingannare le persone, simile agli attacchi di phishing, alla creazione di codici dannosi.

Alcune delle aree di rischio che il team dovrà esaminare sembrano astratte e lontane, ma sono altrettanto importanti. Ad esempio, OpenAI ha sottolineato l’interesse per le minacce “chimiche, biologiche, radiologiche e nucleari” in relazione ai modelli di intelligenza artificiale.

Il CEO di OpenAI, Sam Altman, da tempo esprime preoccupazione riguardo all’intelligenza artificiale e ha suggerito che questa potrebbe portare alla distruzione dell’umanità. La decisione di OpenAI di dedicare risorse all’indagine di situazioni catastrofiche, che sembrano uscite direttamente da un romanzo di fantascienza, ha sorpreso molti.

Parallelamente alla formazione del team Preparedness, OpenAI ha mostrato interesse nel ricevere proposte di ricerca sui rischi legati all’intelligenza artificiale, offrendo un premio di $25.000 e l’opportunità di lavorare nel team Preparedness per i primi dieci progetti selezionati.

Inoltre, l’organizzazione ha comunicato che il team Preparedness sarà responsabile della stesura di una “politica di sviluppo basata sulla conoscenza dei rischi”. Questa politica definirà la metodologia di OpenAI nella creazione di valutazioni e strumenti di controllo per i modelli di intelligenza artificiale, le iniziative per ridurre i rischi e il quadro generale di supervisione durante tutte le fasi di sviluppo del modello.

La creazione di Preparedness è avvenuta durante un importante summit governativo britannico incentrato sulla sicurezza dell’intelligenza artificiale. Questa decisione segue l’annuncio precedente di OpenAI sulla costituzione di un altro team dedicato allo studio di nuove forme di intelligenza artificiale di livello “superintelligente”.

L’accelerazione con cui l’intelligenza artificiale si sviluppa solleva numerose questioni sulla sua sicurezza e sulla potenziale influenza sull’umanità. Le capacità sempre più avanzate dei modelli di intelligenza artificiale potrebbero rappresentare una minaccia se non adeguatamente controllate o se finissero nelle mani sbagliate. Di fronte a queste preoccupazioni, l’iniziativa di OpenAI di creare un team specializzato nella valutazione dei rischi assume un ruolo fondamentale. Non solo conferma le preoccupazioni esistenti sulle potenziali conseguenze negative della tecnologia, ma dimostra anche l’impegno proattivo di una delle principali organizzazioni del settore nel garantire lo sviluppo e l’utilizzo responsabile dell’intelligenza artificiale. La sicurezza dell’IA non riguarda solo questioni tecniche, ma coinvolge anche aspetti etici e sociali che richiedono la massima serietà.