L’uso di ChatGpt, il software di intelligenza artificiale che simula le conversazioni umane, è stato temporaneamente limitato in Italia dal Garante per la protezione dei dati personali. Questa decisione è stata presa in seguito a una violazione della privacy degli utenti italiani, che ha portato alla perdita di dati riguardanti le loro conversazioni e informazioni relative ai pagamenti degli abbonati al servizio a pagamento.
Secondo il Garante, OpenAi, la società che ha sviluppato e gestisce la piattaforma, non ha fornito una informativa completa agli utenti e agli interessati i cui dati vengono raccolti, e non ha una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali. Inoltre, le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, determinando un trattamento inesatto dei dati personali.
L’assenza di un filtro per verificare l’età degli utenti esporrebbe i minori a risposte inadeguate rispetto al loro grado di sviluppo e autoconsapevolezza. OpenAi, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, dovrà comunicare entro 20 giorni le misure intraprese per rispettare le richieste del Garante. In caso contrario, potrebbe essere sanzionata fino a 20 milioni di euro o fino al 4% del suo fatturato globale annuo.
Questo provvedimento evidenzia l’importanza della tutela della privacy dei dati personali e della necessità di una base giuridica che giustifichi la raccolta e il trattamento di tali dati. Inoltre, sottolinea la responsabilità delle società che gestiscono i dati degli utenti nel garantire la sicurezza e la protezione di tali dati.