Come utilizzare ChatGPT per il business nel rispetto della privacy dei dati

Per i modellilinguistici come ChatGPT la privacy dei dati rappresenta un problema, poichéper migliorare la capacità di apprendimento, devono accedere a grandi quantitàdi dati. Pertanto, alcuni Paesi, tra cui l’Italia, hanno proibito l’uso dimodelli linguistici ospitati su server esterni proprio per i rischi potenzialiche riguardano la privacy.

I modelli linguistici come ChatGPT stanno diventando sempre piùpopolari per automatizzare le attività delle aziende e scrivere contenuti.Tuttavia, poiché tali modelli hanno bisogno di una quantità di dati sostanzialeper poter apprendere e migliorare, vi sono preoccupazioni per la privacy deidati.

Per questo motivo, alcune nazioni, tra cui l’Italia, hanno vietato l’uso dimodelli linguistici ospitati su server di terze parti, in quanto possonorappresentare un rischio per la privacy.

Ma ci sono dei modi grazie ai quali le aziende possonoutilizzare i modelli linguistici senza compromettere la privacy dei dati, adesempio utilizzando API fornite da provider affidabili come OpenAI, modelli dihosting su server cloud sicuri o mediante un hosting autonomo dei modellilinguistici offline.

Cos’è ChatGPT?


ChatGPT è unmodello linguistico capace di elaborare, comprendere e generare testo in unlinguaggio naturale con notevole precisione e fluidità. Può rispondere alledomande usando un linguaggio naturale ed è in grado di imitare differenti stilidi scrittura utilizzando Internet come database. Dal suo lancio, nel novembre2022, ChatGPT è diventato uno dei modelli di linguaggio più diffusi al mondo,con oltre 100 milioni di utenti. (Fonte: Reuters). ChatGPT viene utilizzato dalle aziende permigliorare le interazioni con i clienti e generare contenuti, come chatbot ingrado di comprendere e rispondere a domande e testi in linguaggio naturale perpost su social media e campagne di marketing. Tuttavia, le implicazioni sullaprivacy dovute all’utilizzo di modelli linguistici come ChatGPT sonopreoccupanti, le esamineremo in questo post e diremo cosa possono fare leaziende per mitigarli.

Rischi per la privacy dovuti all’utilizzodi ChatGPT


Una delleprincipali preoccupazioni legate all’utilizzo di modelli linguistici di grandidimensioni come ChatGPT è il potenziale rischio per la privacy. Quando si poneuna domanda a ChatGPT o gli si fornisce un prompt, la società che ha sviluppatoil modello, in questo caso OpenAI, può vedere cosa si sta chiedendo. Leinformazioni possono essere utilizzate per migliorare il modello in futuro,incorporando in esso le domande o i prompt degli utenti.

Così facendo, una domanda con dati sensibili posta a ChatGPT, adesempio con informazioni su dati finanziari, su clienti o su strategieaziendali, potrebbe essere accessibile a terze parti non autorizzate. In questocaso c’è il rischio di violazioni o perdite di dati, con gravi conseguenze qualila compromissione della fiducia dei clienti o persino ripercussioni legali.Inoltre, qualora vengano poste diverse domande sensibili dallo stesso account,c’è il rischio che le informazioni in esse contenute vengano aggregate eutilizzate per identificare l’azienda, con la possibilità di danneggiarne lareputazione o creare uno svantaggio competitivo.

Per proteggere la propria privacy durante l’utilizzo di ChatGPTo di modelli linguistici simili, consigliamo di evitare di porre domandesensibili o inviare prompt che, se resi pubblici, potrebbero rappresentare un problema.

L’Italia blocca ChatGPT perquestioni relative alla privacy dei dati


Recentemente,l’Italia è stato il primo Paese occidentale a bloccare il chatbot avanzatoChatGPT per questioni inerenti alla privacy. Sebbene OpenAI sostenga la suaconformità alle leggi sulla privacy, il Garante italiano ha bloccato ChatGPT“con effetto immediato” e, in parallelo, ha aperto un’istruttoria.

Il Garante, l’autorità italiana preposta alla protezione deidati personali, è un’autorità amministrativa indipendente incaricata digarantire che i dati personali vengano trattati legalmente e siano protetti inconformità al Regolamento generale sulla protezione dei dati (RGPD) e ad altreleggi simili. Inoltre, ha dichiarato che aprirà un’indagine per verificare cheOpenAI sia conforme all’RGPD. Ha indicato che l’applicazione ha subito unaperdita di dati riguardanti le conversazioni degli utenti e informazioni supagamenti. Inoltre, ha rilevato l’assenza di una base giuridica che giustifichila raccolta e la conservazione massiccia di dati personali, allo scopo diaddestrare gli algoritmi sottesi al funzionamento della piattaforma. Infine, haevidenziato l’assenza di filtri per verificare l’età degli utenti, indicandoche l’applicazione “espone i minori a risposte assolutamente inidonee rispettoal loro grado di sviluppo e autoconsapevolezza”.

Attualmente è disponibile Bard, il chatbot di intelligenzaartificiale di Google, concorrente di ChatGPT, ma solo per utenti specifici dietà superiore ai 18 anni, per far fronte alle stesse preoccupazioni. OpenAIdispone di 20 giorni per rispondere alle richieste del Garante, pena unasanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. Almomento, ChatGPT è già bloccato in un certo numero di Paesi, tra cui Cina,Iran, Corea del Nord e Russia.

La commissione irlandese per la protezione dei dati hadichiarato di aver contattato l’autorità di regolamentazione italiana percomprendere il motivo del divieto e che si coordinerà con tutte le autoritàeuropee per la protezione dei dati dell’UE. Intanto, il BEUC, un gruppo didifesa dei consumatori europeo, ha invitato le autorità nazionali e dell’UE aindagare su ChatGPT e su chatbot simili, a seguito della presentazione di unreclamo negli Stati Uniti. Sebbene l’UE attualmente stia lavorando alla primaregolamentazione mondiale sull’intelligenza artificiale, BEUC teme che civogliano anni prima che la legge sull’intelligenza artificiale possa entrare invigore, lasciando i consumatori esposti al rischio di danni dovuti a unatecnologia non sufficientemente regolamentata. Ursula Pachl, vicedirettricegenerale di BEUC, ha dichiarato che l’intelligenza artificiale rappresenta unagrave minaccia per la società e richiede una consapevolezza maggiore da partedell’opinione pubblica e una regolamentazione da parte delle istituzionipubbliche. (Fonte: BBC).

Soluzioni per l’utilizzo degliLLM da parte delle aziende nel rispetto della privacy


Fortunatamente,esistono soluzioni che consentono alle aziende di utilizzare gli LLM nelrispetto della privacy dei dati.
Un’opzione è quella di utilizzare l’API fornita da OpenAI. I termini diservizio indicano chiaramente che, per tutelare le informazioni sensibili, ilcontenuto fornito dall’utente non viene utilizzato per migliorare i servizi.(Fonte: OpenAI).

Un’altra opzione è quella di ospitareChatGPT sui server Azure di Microsoft aziendali, che offrono soluzioni pronteall’uso sicure ed economiche. (Fonte: Microsoft).

Infine, l’hosting autonomo di un LLM può essere una soluzionecostosa, ma consente alle aziende di avere il pieno controllo dei propri dati.Prima di adottare questa opzione, è necessario eseguire una valutazione dellasicurezza e consultare i principi dell’NCSC per la sicurezza dell’apprendimentoautomatico.

Soluzioni semplificate perl’hosting autonomo di LLM grazie all’esperienza di Upsum

Se si sta pensando di implementare una soluzione di LLM conhosting autonomo, Upsum può essere d’aiuto. Il nostro team di esperti fornisceassistenza per trovare la soluzione migliore per la propria azienda, valutare irischi e creare una soluzione LLM offline personalizzata in base alle esigenzespecifiche.

Sappiamo che la configurazione e la manutenzione di unasoluzione LLM con hosting autonomo possono essere complesse e richiedere ancheun anno di tempo. Offriamo quindi servizi di installazione e supporto, nonchéformazione e assistenza, per aiutare il team aziendale a trarre il massimodalla soluzione LLM.
Upsum dà priorità assoluta alla privacy e alla sicurezza dei dati e conosce l’importanzache riveste la privacy delle informazioni sensibili. Per questo adottiamo unrigoroso approccio verso la sicurezza, garantendo che i dati siano sempreprotetti.

Qualora siate interessati a saperne di più sul modo in cui Upsumpuò aiutarvi a implementare una soluzione LLM con hosting autonomo, compilateil modulo di contatto sottostante. Il nostro team sarà lieto di conoscere levostre esigenze e aiutarvi a trovare la soluzione migliore per la vostraazienda.

Potrete avvantaggiarvi della potenza degli LLM senza alcunapreoccupazione per la privacy dei dati. Grazie all’esperienza e all’assistenzadi Upsum, potrete implementare una soluzione LLM con hosting autonomo in gradodi soddisfare le vostre esigenze e tenere i dati al sicuro. Contattateci oggi stesso per cominciare.