L'azienda di sicurezza dei dati nel cloud Sentra ha presentato una nuova funzionalità, Sentra ChatDLP Anonymizer, progettata per estrarre le informazioni di identificazione personale (PII) dai prompt dei modelli linguistici di intelligenza artificiale, come ChatGPT e Google Bard.
Con l'implementazione di questa funzione, Sentra mira a ridurre al minimo le vulnerabilità associate ai dati personali cruciali e ad aiutare le aziende a mantenere la conformità alle normative sulla privacy come il California Consumer Privacy Act (CCPA) e il General Data Protection Regulation (GDPR). Il ChatDLP Anonymizer è già disponibile per ChatGPT e sarà rilasciato per Google Bard nella settimana del 12 giugno.
Secondo Sentra, l'incorporazione di PII nei prompt di ChatGPT o Bard può far sì che i dati entrino a far parte dei set di addestramento per i modelli linguistici di grandi dimensioni. Se da un lato queste tecnologie offrono vantaggi in termini di produttività, dall'altro sollevano preoccupazioni sulla privacy e sulla sicurezza dei dati. ChatDLP Anonymizer offre alle aziende attente alla privacy la possibilità di utilizzare ChatGPT o Bard garantendo al contempo la tutela della privacy.
Per filtrare le informazioni sensibili come nomi, indirizzi e-mail, numeri di carte di credito e numeri di telefono, ChatDLP Anonymizer utilizza un modello NER (Named Entity Recognition). Inoltre, lo strumento offre una versione aziendale in cui il processo di redenzione avviene all'interno dell'infrastruttura cloud del cliente.
Parlando del rilascio di ChatDLP Anonymizer, Ron Reiter, co-fondatore e CTO di Sentra, ha dichiarato: "Nella corsa a capitalizzare la potenza di questa tecnologia emergente, le organizzazioni stanno affrontando nuovi rischi per la sicurezza e la privacy dei dati". E ha continuato: "Negli ultimi mesi, siamo stati incoraggiati da numerosi CISO e professionisti della sicurezza a sviluppare e fornire ChatDLP Anonymizer come logica estensione della nostra piattaforma DSPM. Grazie all'implementazione di questa tecnologia innovativa, le aziende potranno essere sicure che i dipendenti utilizzino i modelli linguistici dell'IA in modo sicuro".
L'integrazione di queste funzionalità nelle applicazioni basate sull'IA è fondamentale per mantenere la sicurezza e la privacy dei dati degli utenti. Le piattaforme No-code, come AppMaster, consentono alle aziende di creare applicazioni web, mobili e backend personalizzate mantenendo la privacy in primo piano. AppMaster La piattaforma no-code aiuta le aziende a creare applicazioni efficienti, scalabili e sicure e l'introduzione di funzioni simili al ChatDLP Anonymizer di Sentra può migliorare ulteriormente la protezione della privacy in queste applicazioni.