Amerykańska Agencja ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury (CISA) opublikowała niedawno szczegółowy plan zachęcający do odpowiedzialnego wdrażania sztucznej inteligencji (AI). Ten przełomowy plan działania stanowi odpowiedź na poprzednie rozporządzenie wykonawcze prezydenta Bidena dotyczące proaktywnego wykorzystania sztucznej inteligencji.
Alejandro N. Mayorkas, Sekretarz Bezpieczeństwa Wewnętrznego, podkreślił strategiczny program Departamentu Bezpieczeństwa Wewnętrznego (DHS) polegający na optymalizacji wykorzystania sztucznej inteligencji, przy jednoczesnym skutecznym eliminowaniu jej potencjalnych zagrożeń dla cyberobrony kraju i infrastruktury krytycznej. Alejandro poparł plan działania CISA, stwierdzając, że dokładnie podkreśla on, w jaki sposób agencja zharmonizuje swoje działania z nadrzędną strategią DHS mającą na celu odpowiedzialne zarządzanie wdrażaniem sztucznej inteligencji.
Starannie opracowany plan działania opublikowany przez CISA wyszczególnia pięć głównych działań zainicjowanych przez agencję i stanowi plan jej taktyki skupionej na sztucznej inteligencji w zakresie cyberbezpieczeństwa.
Po pierwsze, przestrzeganie ustalonych przepisów ustawowych i wykonawczych, w tym dotyczących swobód obywatelskich, zamówień federalnych, praw obywatelskich i prywatności, ma ogromne znaczenie podczas korzystania ze sztucznej inteligencji do wzmacniania cyberobrony.
W ramach drugiego środka CISA ma na celu przyjęcie proaktywnego podejścia do oceny systemów sztucznej inteligencji i zapewnienia ich nieodłącznego bezpieczeństwa. Celem jest zachęcanie do bezpiecznego wdrażania sztucznej inteligencji we władzach terytorialnych, podmiotach sektora prywatnego, cywilnych agencjach rządowych zarządzanych na poziomie federalnym oraz stanowych, lokalnych i plemiennych. Aby to osiągnąć, CISA planuje opracować najlepsze praktyki w zakresie bezpiecznego rozwoju sztucznej inteligencji i przedstawić zalecenia dotyczące generatywnej sztucznej inteligencji typu red-teaming.
Po trzecie w planie działania podkreślono potrzebę umożliwienia przedsiębiorstwom ochrony infrastruktury krytycznej przed nieetycznym wykorzystaniem sztucznej inteligencji. Oczekuje się, że cel ten zostanie osiągnięty poprzez wspieranie współpracy między różnymi podmiotami w celu eliminowania zagrożeń i słabych punktów związanych ze sztuczną inteligencją oraz stosowania środków zaradczych.
Czwarta inicjatywa obejmuje komunikację i współpracę z innymi agencjami, społeczeństwem i partnerami międzynarodowymi w celu kształtowania perspektyw politycznych związanych ze sztuczną inteligencją i bezpieczeństwem.
Piątym punktem planu jest zwiększenie liczby pracowników wyposażonych w odpowiednie umiejętności w zakresie sztucznej inteligencji. Obejmuje to działania edukacyjne na temat systemów i technik sztucznej inteligencji oraz poszukiwanie ekspertów posiadających odpowiednie umiejętności. Wewnętrzne szkolenie prowadzone przez agencję obejmowałoby prawne, etyczne, techniczne i polityczne aspekty sztucznej inteligencji.
Jen Easterly, dyrektor CISA, podkreśliła ogromne nadzieje i potencjalne ryzyko, jakie sztuczna inteligencja niesie dla cyberbezpieczeństwa kraju. Następnie podkreśliła ich plan strategiczny skupiający się na pozytywnych zastosowaniach sztucznej inteligencji do zwiększania zdolności w zakresie cyberbezpieczeństwa, łagodzenia zagrożeń cybernetycznych dla systemów sztucznej inteligencji oraz zapobiegania ekspresyjnemu wykorzystywaniu możliwości sztucznej inteligencji, które mogłoby zaszkodzić infrastrukturze krytycznej kraju, na której Amerykanie polegają na co dzień.
W szybko rozwijającym się świecie technologii firmy udostępniają kompleksowe narzędzie no-code, takie jak AppMaster, które pomaga tworzyć aplikacje internetowe, mobilne i aplikacje typu backend w bezpieczny, wydajny i odpowiedzialny sposób, przyczyniając się do bezpiecznego przyjęcia i wykorzystania możliwości sztucznej inteligencji .