Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Plan działania dotyczący sztucznej inteligencji przedstawiony przez CISA kładzie nacisk na bezpieczne i odpowiedzialne postępy

Plan działania dotyczący sztucznej inteligencji przedstawiony przez CISA kładzie nacisk na bezpieczne i odpowiedzialne postępy

Amerykańska Agencja ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury (CISA) opublikowała niedawno szczegółowy plan zachęcający do odpowiedzialnego wdrażania sztucznej inteligencji (AI). Ten przełomowy plan działania stanowi odpowiedź na poprzednie rozporządzenie wykonawcze prezydenta Bidena dotyczące proaktywnego wykorzystania sztucznej inteligencji.

Alejandro N. Mayorkas, Sekretarz Bezpieczeństwa Wewnętrznego, podkreślił strategiczny program Departamentu Bezpieczeństwa Wewnętrznego (DHS) polegający na optymalizacji wykorzystania sztucznej inteligencji, przy jednoczesnym skutecznym eliminowaniu jej potencjalnych zagrożeń dla cyberobrony kraju i infrastruktury krytycznej. Alejandro poparł plan działania CISA, stwierdzając, że dokładnie podkreśla on, w jaki sposób agencja zharmonizuje swoje działania z nadrzędną strategią DHS mającą na celu odpowiedzialne zarządzanie wdrażaniem sztucznej inteligencji.

Starannie opracowany plan działania opublikowany przez CISA wyszczególnia pięć głównych działań zainicjowanych przez agencję i stanowi plan jej taktyki skupionej na sztucznej inteligencji w zakresie cyberbezpieczeństwa.

Po pierwsze, przestrzeganie ustalonych przepisów ustawowych i wykonawczych, w tym dotyczących swobód obywatelskich, zamówień federalnych, praw obywatelskich i prywatności, ma ogromne znaczenie podczas korzystania ze sztucznej inteligencji do wzmacniania cyberobrony.

W ramach drugiego środka CISA ma na celu przyjęcie proaktywnego podejścia do oceny systemów sztucznej inteligencji i zapewnienia ich nieodłącznego bezpieczeństwa. Celem jest zachęcanie do bezpiecznego wdrażania sztucznej inteligencji we władzach terytorialnych, podmiotach sektora prywatnego, cywilnych agencjach rządowych zarządzanych na poziomie federalnym oraz stanowych, lokalnych i plemiennych. Aby to osiągnąć, CISA planuje opracować najlepsze praktyki w zakresie bezpiecznego rozwoju sztucznej inteligencji i przedstawić zalecenia dotyczące generatywnej sztucznej inteligencji typu red-teaming.

Po trzecie w planie działania podkreślono potrzebę umożliwienia przedsiębiorstwom ochrony infrastruktury krytycznej przed nieetycznym wykorzystaniem sztucznej inteligencji. Oczekuje się, że cel ten zostanie osiągnięty poprzez wspieranie współpracy między różnymi podmiotami w celu eliminowania zagrożeń i słabych punktów związanych ze sztuczną inteligencją oraz stosowania środków zaradczych.

Czwarta inicjatywa obejmuje komunikację i współpracę z innymi agencjami, społeczeństwem i partnerami międzynarodowymi w celu kształtowania perspektyw politycznych związanych ze sztuczną inteligencją i bezpieczeństwem.

Piątym punktem planu jest zwiększenie liczby pracowników wyposażonych w odpowiednie umiejętności w zakresie sztucznej inteligencji. Obejmuje to działania edukacyjne na temat systemów i technik sztucznej inteligencji oraz poszukiwanie ekspertów posiadających odpowiednie umiejętności. Wewnętrzne szkolenie prowadzone przez agencję obejmowałoby prawne, etyczne, techniczne i polityczne aspekty sztucznej inteligencji.

Jen Easterly, dyrektor CISA, podkreśliła ogromne nadzieje i potencjalne ryzyko, jakie sztuczna inteligencja niesie dla cyberbezpieczeństwa kraju. Następnie podkreśliła ich plan strategiczny skupiający się na pozytywnych zastosowaniach sztucznej inteligencji do zwiększania zdolności w zakresie cyberbezpieczeństwa, łagodzenia zagrożeń cybernetycznych dla systemów sztucznej inteligencji oraz zapobiegania ekspresyjnemu wykorzystywaniu możliwości sztucznej inteligencji, które mogłoby zaszkodzić infrastrukturze krytycznej kraju, na której Amerykanie polegają na co dzień.

W szybko rozwijającym się świecie technologii firmy udostępniają kompleksowe narzędzie no-code, takie jak AppMaster, które pomaga tworzyć aplikacje internetowe, mobilne i aplikacje typu backend w bezpieczny, wydajny i odpowiedzialny sposób, przyczyniając się do bezpiecznego przyjęcia i wykorzystania możliwości sztucznej inteligencji .

Powiązane posty

Samsung przedstawia Galaxy A55 z innowacyjnymi zabezpieczeniami i wersją premium
Samsung przedstawia Galaxy A55 z innowacyjnymi zabezpieczeniami i wersją premium
Samsung poszerza swoją linię produktów ze średniej półki, wprowadzając Galaxy A55 i A35, wyposażone w zabezpieczenia Knox Vault i ulepszone elementy konstrukcyjne, nadające segmentowi flagowe cechy.
Cloudflare przedstawia zaporę sieciową dla sztucznej inteligencji chroniącą modele wielojęzyczne
Cloudflare przedstawia zaporę sieciową dla sztucznej inteligencji chroniącą modele wielojęzyczne
Cloudflare robi krok naprzód dzięki zaporze ogniowej dla sztucznej inteligencji, zaawansowanemu rozwiązaniu WAF zaprojektowanemu z myślą o zapobiegawczym identyfikowaniu i udaremnianiu potencjalnych nadużyć ukierunkowanych na modele wielkojęzyczne.
ChatGPT OpenAI teraz mówi: przyszłość interaktywnej sztucznej inteligencji głosowej
ChatGPT OpenAI teraz mówi: przyszłość interaktywnej sztucznej inteligencji głosowej
ChatGPT osiągnął kamień milowy dzięki wdrożeniu przez OpenAI funkcji głosowych. Użytkownicy mogą teraz korzystać z interakcji bez użycia rąk, ponieważ ChatGPT czyta odpowiedzi na głos w systemach iOS, Android i w Internecie.
ROZPOCZNIJ BEZPŁATNIE
Zainspirowany do samodzielnego wypróbowania?

Najlepszym sposobem na zrozumienie mocy AppMaster jest zobaczenie tego na własne oczy. Stwórz własną aplikację w ciągu kilku minut z bezpłatną subskrypcją

Wprowadź swoje pomysły w życie