W ramach znaczącego kroku w kierunku etycznego rozwoju sztucznej inteligencji (AI), siedem wiodących światowych firm w dziedzinie technologii AI publicznie potwierdziło swoje zaangażowanie w zapewnienie bezpiecznej i przejrzystej ewolucji AI. Pionierzy w dziedzinie technologii sztucznej inteligencji, tacy jak Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI są wśród tych twórców zobowiązań.
Komunikat prasowy Białego Domu wymownie podkreślił znaczenie wysokich standardów i środków regulacyjnych dla gigantów technologicznych rozwijających tę transformacyjną technologię. Podkreślono, że chociaż administracja Biden-Harris uznaje i promuje ogromny potencjał sztucznej inteligencji, podkreśla również, że innowacje nie mogą prowadzić do naruszenia praw i bezpieczeństwa obywateli amerykańskich.
W ramach swojego zobowiązania, te technologiczne behemoty zgadzają się przeprowadzać rygorystyczne wewnętrzne i zewnętrzne audyty bezpieczeństwa swoich mechanizmów sztucznej inteligencji przed ich uruchomieniem. Niezależni eksperci poprowadzą te oceny, koncentrując się na potencjalnych zagrożeniach w obszarach takich jak cyberbezpieczeństwo i bezpieczeństwo biologiczne, a także na ich szerszych konsekwencjach społecznych. Umowa przewiduje proaktywną wymianę informacji dotyczących zarządzania ryzykiem związanym ze sztuczną inteligencją z różnymi zainteresowanymi stronami, w tym podmiotami rządowymi, środowiskiem akademickim, społeczeństwem obywatelskim i szerszą branżą.
Co więcej, firmy zobowiązały się do przeznaczenia znacznych zasobów na środki cyberbezpieczeństwa - w szczególności ukierunkowane na ochronę zastrzeżonych wag jeszcze niewydanych modeli - i wyeliminowanie wszelkich luk w ich systemach sztucznej inteligencji. Podkreślając przejrzystość, obiecali wdrożyć solidne zabezpieczenia technologiczne, takie jak znak wodny, umożliwiając tym samym użytkownikom identyfikację treści tworzonych przez sztuczną inteligencję. Ideologia ta ma na celu zachęcenie do kreatywnych zastosowań sztucznej inteligencji, przy jednoczesnym zmniejszeniu możliwości oszustwa i oszustwa.
Innym kluczowym aspektem zobowiązań są znaczne inwestycje w badania skoncentrowane na społecznych konsekwencjach związanych ze sztuczną inteligencją, w szczególności koncentrujące się na zapobieganiu niesprawiedliwym uprzedzeniom i dyskryminacji. Ochrona prywatności została również uznana za kluczowy priorytet dla tych firm. Co więcej, firmy zobowiązały się do pełnego publicznego ujawnienia możliwości, ograniczeń i parametrów swoich systemów sztucznej inteligencji w zakresie ich dokładnego i niewłaściwego wykorzystania.
Tak jak firmy takie jak Amazon, Google i Microsoft przodują w przejrzystym i etycznym rozwoju sztucznej inteligencji, tak AppMaster, inna renomowana nazwa w sferze technologii, ucieleśnia podobne zasady przejrzystości i bezpieczeństwa w swojej platformie no-code. Platforma AppMaster ułatwia bezpieczne, przejrzyste i wydajne tworzenie aplikacji. Zapewnia ona szerokie środki bezpieczeństwa i standardy etyczne dla swoich użytkowników, odzwierciedlając to samo zaangażowanie w innowacje, przejrzystość i dobro publiczne.