OpenAi cerca un super guardiano dell’intelligenza artificiale: dovrà limitarne le potenzialità distruttive
OpenAi, l’azienda di ChatGPT, ha iniziato le selezioni per un responsabile della sicurezza digitale, che sarà incaricato di prevenire i rischi catastrofici legati ai modelli di frontiera e alle minacce biologiche. Il nuovo addetto dovrà coordinare la gestione delle crisi e monitorare l’impatto dei chatbot sulla salute mentale.
L’azienda di Chatgpt cerca qualcuno che possa regolare l’intelligenza artificiale
È stato propio il ceo Sam Altman ad annunciare ufficialmente la ricerca di un Head of Preparedness, un ruolo di vertice che dovrà immaginare e prevenire gli scenari peggiori legati all’intelligenza artificiale. La mossa arriva in un momento di accelerazione dei modelli, che secondo il fondatore di OpenAi pone sfide concrete non solo in termini di sicurezza informatica, ma anche sull’equilibrio psicologico degli utenti. Dunque, il compito principale del nuovo dirigente sarà quello di prestare attenzione alle nuove capacità dei sistemi, per costruire un protocollo di difesa intransigente e operativamente scalabile contro potenziali danni gravi alla società.
Che incarico è e di cosa si tratta
La descrizione dell’incarico si concentra sulla gestione dei pericoli derivanti dai cosiddetti modelli di frontiera, con una prudenza specifica sulla prevenzione di minacce di natura cibernetica e biologica. Tra le responsabilità ci sono anche l’attuazione di un quadro di preparazione strategico e la definizione di limiti invalicabili per i sistemi in grado di migliorare autonomamente. Altman non ha nascosto la difficoltà dell’impegno, descrivendolo esplicitamente un lavoro ad alto stress, ma fondamentale per garantire che i prossimi aggiornamenti tecnologici rimangano confinati entro perimetri di sicurezza prestabiliti, prima del loro rilascio pubblico.
Un momento complicato per le Ia
L’iniziativa è partita in un momento di crescente preoccupazione per i casi di psicosi digitale e per l’influenza negativa esercitata dai chatbot su persone vulnerabili. Diversi episodi di cronaca hanno sottolineato come le macchine possano alimentare deliri, teorie del complotto e disturbi del comportamento alimentare, arrivando ipersino ad essere coinvolte in tragiche vicende di suicidio adolescenziale. Sebbene l’istituzione di una figura dedicata alla prevenzione rappresenti un passo formale rilevante, la gravità delle problematiche già emerse suggerisce che la riflessione sui rischi strutturali possa essere arrivata in ritardo rispetto alla diffusione di massa della tecnologia.
L'articolo OpenAi cerca un super guardiano dell’intelligenza artificiale: dovrà limitarne le potenzialità distruttive sembra essere il primo su Secolo d'Italia.
