Blog

ChatGPT è pericoloso? L’Italia blocca l’intelligenza artificiale

Il Garante per la protezione dei dati personali ha emesso un provvedimento di stop immediato per l’applicazione di intelligenza artificiale ChatGPT, sviluppata dalla società americana OpenAI, poiché la piattaforma non rispetta la disciplina della privacy e non tutela i dati personali né i minori.

Venerdì 31 marzo il Garante della privacy, l’autorità amministrativa indipendente italiana che tutela i diritti e il rispetto della dignità nel trattamento dei dati personali, ha aperto un’istruttoria e ha evidenziato la mancanza di una informativa agli utenti e l’assenza di una base giuridica per la raccolta massiccia di dati personali.

OpenAI ha 20 giorni per adeguarsi alle richieste del Garante, altrimenti rischia una multa fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. Inoltre, il Garante ha evidenziato che i filtri per verificare l’età non sono sufficienti e i minori sono esposti a risposte non adatte alla loro fascia anagrafica.

Il team di Absolut continuerà a seguire gli sviluppi della vicenda. Per approfondire la notizia vi consigliamo di leggere l’articolo de Il Sole 24 Ore: clicca qui
Vi abbiamo già parlato di ChatGPT, il software di intelligenza artificiale che redige testi su qualsiasi argomento, e delle previsioni di marketing digitali per il 2023. Leggi la news: clicca qui

Leave a Reply