Elon Musk, Steve Wozniak i ponad 1000 ekspertów wzywają do tymczasowego wstrzymania potencjalnie niebezpiecznych prac nad sztuczną inteligencją
Elon Musk, Steve Wozniak i ponad 1000 ekspertów napisali list otwarty, wzywając do tymczasowego wstrzymania rozwoju technologii AI silniejszej niż GPT-4 OpenAI, wyrażając zaniepokojenie poważnymi zagrożeniami dla społeczeństwa i ludzkości.

Ponad 1000 wybitnych osobistości, w tym Elon Musk i Steve Wozniak, wyraziło zaniepokojenie nieokiełznanym postępem technologii sztucznej inteligencji (AI). W odpowiedzi połączyli siły, aby wydać list otwarty, w którym zalecają sześciomiesięczną przerwę w rozwoju systemów sztucznej inteligencji bardziej zaawansowanych niż GPT-4 firmy OpenAI, powołując się na poważne zagrożenia, jakie stanowią one dla społeczeństwa i ludzkości.
List składający się z 600 słów, skierowany do twórców sztucznej inteligencji, budzi alarm w związku z obecnym stanem rzeczy w laboratoriach sztucznej inteligencji, które wydają się być w nieustannym dążeniu do tworzenia coraz potężniejszych cyfrowych umysłów. Zmiany te osiągnęły etap, na którym nawet ich twórcy nie są w stanie ich zrozumieć, przewidzieć ani nimi zarządzać, co jeszcze bardziej zwiększa potencjalne ryzyko.
Warto zauważyć, że Musk był początkowo współzałożycielem OpenAI, który rozpoczął działalność jako organizacja non-profit zajmująca się zapewnianiem ludzkości korzyści ze sztucznej inteligencji. Jednak zrezygnował z zarządu firmy w 2018 roku. Dziś OpenAI działa jako podmiot nastawiony na zysk, a krytycy twierdzą, że od tego czasu jego cele odbiegają od pierwotnej misji. Wydaje się, że głęboko zakorzenione partnerstwo z Microsoftem, obejmujące miliardy dolarów inwestycji, skłoniło OpenAI do podjęcia jeszcze bardziej ryzykownych inicjatyw.
Publicznie kwestionując metamorfozę OpenAI, obawy Muska zostały powtórzone przez Mozillę, która niedawno ujawniła swój nowy startup, Mozilla.ai. Inicjatywa ta, mająca na celu rozwiązanie niektórych z najpilniejszych problemów związanych z rozwojem technologii sztucznej inteligencji, ma na celu stworzenie autonomicznego ekosystemu sztucznej inteligencji typu open source.
Zgodnie z listem otwartym proponowane sześciomiesięczne wstrzymanie powinno obejmować laboratoria sztucznej inteligencji i niezależnych ekspertów współpracujących przy opracowywaniu zestawu wspólnych protokołów bezpieczeństwa do zaawansowanego projektowania i rozwoju sztucznej inteligencji. Protokoły te podlegałyby rygorystycznym audytom i nadzorowi ze strony zewnętrznych, niezależnych ekspertów.
Tymczasem w osobnym opracowaniu rząd Wielkiej Brytanii przedstawił białą księgę, w której podkreśla swoje „proinnowacyjne” podejście do regulacji sztucznej inteligencji. Ramy te proponują środki mające na celu zwiększenie bezpieczeństwa i odpowiedzialności, chociaż powstrzymują się od ustanowienia specjalnego organu regulacyjnego ds. sztucznej inteligencji, jak wybrała Unia Europejska (UE).
Tim Wright, partner i specjalista ds. regulacji AI w firmie prawniczej Fladgate, podzielił się swoimi przemyśleniami na temat brytyjskiej białej księgi, podkreślając, że dopiero upływ czasu ujawni skuteczność podejścia sektor po sektorze. Niezależnie od tego stanowisko to wyraźnie kontrastuje ze strategią UE polegającą na wdrażaniu szczegółowego zbioru przepisów i systemu odpowiedzialności pod nadzorem jednego organu regulacyjnego ds. sztucznej inteligencji.
W chwili pisania tego listu otwartego wzywającego do przerwy w potencjalnie niebezpiecznych pracach nad sztuczną inteligencją zebrano 1123 podpisy. Nie można dłużej ignorować rosnącej atrakcyjności platform low-code i no-code takich jak AppMaster , w łagodzeniu strachu wśród zwolenników sztucznej inteligencji. , ponieważ umożliwia firmom i osobom fizycznym wykorzystanie zalet technologii bez obaw związanych z niekontrolowanymi postępami w zakresie sztucznej inteligencji.


