La Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti ha recentemente reso pubblico un piano dettagliato per incoraggiare l’adozione responsabile dell’Intelligenza Artificiale (AI). Questa tabella di marcia innovativa arriva in risposta al precedente ordine esecutivo del presidente Biden riguardante l’uso proattivo dell’intelligenza artificiale.
Alejandro N. Mayorkas, segretario per la sicurezza nazionale, ha sottolineato l'agenda strategica del Dipartimento per la sicurezza nazionale (DHS) volta a ottimizzare l'uso dell'intelligenza artificiale, affrontando al tempo stesso in modo efficace i potenziali rischi per le difese informatiche e le infrastrutture critiche della nazione. Alejandro ha sostenuto la tabella di marcia della CISA, affermando che evidenzia esattamente come l'agenzia armonizzerà le proprie operazioni con la strategia generale del DHS progettata per gestire l'implementazione dell'intelligenza artificiale in modo responsabile.
La tabella di marcia attentamente tracciata e pubblicata dalla CISA elenca i cinque principali sforzi guidati dall’agenzia e delinea la sua tattica incentrata sull’intelligenza artificiale nella sicurezza informatica.
In primo luogo, il rispetto delle leggi e dei regolamenti stabiliti, compresi quelli riguardanti le libertà civili, gli appalti federali, i diritti civili e la privacy, è fondamentale quando si utilizza l’intelligenza artificiale per rafforzare la difesa informatica.
Con il secondo provvedimento la CISA punta ad adottare un approccio proattivo per valutare i sistemi di IA e accertarne la sicurezza intrinseca. L’obiettivo qui è quello di incoraggiare un’implementazione sicura dell’IA tra i governi territoriali, gli enti del settore privato, le agenzie governative civili gestite a livello federale e gli stati, locali e tribali. Per favorire questo, CISA prevede di ideare le migliori pratiche per lo sviluppo sicuro dell’IA e formulare raccomandazioni per l’IA generativa in team rossi.
In terzo luogo, la tabella di marcia sottolinea la necessità di consentire alle aziende di salvaguardare le infrastrutture critiche dall’uso non etico dell’intelligenza artificiale. Si prevede che ciò sarà raggiunto promuovendo la cooperazione tra diverse entità per affrontare le minacce, le vulnerabilità e le misure correttive legate all’intelligenza artificiale.
La quarta iniziativa prevede la comunicazione e la collaborazione con altre agenzie, pubblico e partner internazionali, con l’obiettivo di definire prospettive politiche pertinenti all’intelligenza artificiale e alla sicurezza.
Il quinto punto del piano è l’espansione della forza lavoro con adeguate competenze di intelligenza artificiale. Ciò comporta un’attività di sensibilizzazione sui sistemi e sulle tecniche di intelligenza artificiale e la ricerca di esperti con competenze adeguate. La formazione interna da parte dell’agenzia comprenderebbe gli aspetti legali, etici, tecnici e politici dell’IA.
Jen Easterly, direttrice della CISA, ha sottolineato l'enorme promessa e i potenziali rischi che l'intelligenza artificiale comporta per la sicurezza informatica della nazione. Ha inoltre sottolineato il loro piano strategico incentrato sugli usi positivi dell’intelligenza artificiale per migliorare le capacità di sicurezza informatica, mitigare le minacce basate su cyber sui sistemi di intelligenza artificiale e prevenire l’uso espressivo delle capacità dell’intelligenza artificiale che potrebbero danneggiare le infrastrutture critiche del paese su cui gli americani fanno affidamento ogni giorno.
In un mondo tecnologico in rapida evoluzione, le aziende forniscono uno strumento completo no-code come AppMaster, che aiuta a sviluppare applicazioni web, mobili e backend in modo sicuro, efficiente e responsabile, contribuendo all'adozione e all'uso sicuri delle funzionalità dell'intelligenza artificiale. .