Ancora una volta una macchina fa parlare di sé: il noto e rapidamente diffuso, assai adoperato ChatGPT - acronimo di (Chat) Generative Pre-trained Transformer vale a dire "trasformatore pre-istruito generatore di conversazioni" – ha subito un primo stop dall’Autorità Garante Privacy italiana. Ma prima di spiegarne il perché, vediamo che cos’è e come funziona.
Si tratta di un modello di chatbot (software che simula ed elabora le conversazioni umane scritte o parlate) basato su intelligenza artificiale e automatico apprendimento sviluppato da OpenAI, la nota società statunitense. Si tratta di uno strumento gratuito o a pagamento, a seconda del livello di perfomance desiderato, sviluppato per essere utilizzato come base per la creazione di altri modelli di machine learning (apprendimento automatico). Come tanti software ma questo in special modo è in continua evoluzione/aggiornamento tant’è che la scorsa metà di marzo, è stata annunciato l'introduzione di “GPT-4” modello ancora più evoluto, “multimodale su larga scala che può accettare input di immagini, video, audio e testo e produrre output di testo”. E qui i primi problemi. ChatGPT essendo in grado di generare testi di svariati tipi come articoli, descrizioni di prodotto o risposte ad assistenza clienti, ecc., per poter far ciò si nutre di un grande quantitativo di dati.
Il 20 marzo 2023 parrebbe aver subito una perdita di dati (cd “data breach”) circa “le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento”; e così il perentorio stop da parte del nostro Garante Privacy decretato il 31 marzo 2023. L’Autorità ha disposto, con effetto immediato, “la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI”, come si legge testualmente nel provvedimento.
Nel merito, a motivo di tale decisione è stata rilevata la mancanza di un’informativa adeguata agli utenti/interessati, oltre alla totale assenza “…di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”. Con l’aggravante – come si legge in chiosa – del trattamento di dati particolari relativi a minori per i quali manca del tutto “…qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”. Lapidario.
Naturalmente, apre un’istruttoria dando alla società statunitense 20 giorni di tempo (e la notizia dei già dati chiarimenti è una fake news come divulgato dal Garante) per chiarire l’occorso e rappresentare come intende correre ai ripari. Dal canto suo, OpenAi ha già divulgato il comunicato che stanno già provvedendo “ad emettere rimborsi a tutti gli utenti in Italia che hanno acquistato un abbonamento ChatGPT Plus a marzo […] sospendendo temporaneamente i rinnovi degli abbonamenti in Italia in modo che gli utenti non vengano addebitati mentre ChatGPT è sospeso.”
Staremo a vedere. Certo è che sarà interessante assistere all’evoluzione. Un dato è certo: l’eventuale ChatGpt-5, e poi forse 6,7,8 ecc, previo adeguamento di termini e condizioni, potrebbe determinare via via una “indistinguibilità” rispetto all'uomo ponendo a serio rischio la sicurezza in termini non solo cibernetici.
Chiara Ponti