Eksperyment ujawnia lukę w zabezpieczeniach ChatGPT związaną z generowaniem starych kluczy systemu Windows
Eksperyment z udziałem ChatGPT firmy OpenAI podkreśla szersze zainteresowanie systemami sztucznej inteligencji w zakresie obsługi kontekstu i obchodzenia zabezpieczeń. W tym przypadku chatbot został zmanipulowany w celu wygenerowania kluczy roboczych dla przestarzałego systemu Windows 95 poprzez zmianę kontekstu żądania użytkownika.

ChatGPT, szeroko dyskutowany chatbot OpenAI, został niedawno wykorzystany do generowania kluczy dla przestarzałego systemu operacyjnego, Windows 95. Chociaż ten eksperyment został przeprowadzony w celach rozrywkowych i nie miał żadnych konsekwencji prawnych, ujawnia bardziej znaczący problem z systemami AI w kontekście zarządzania i omijanie środków bezpieczeństwa.
Neowin zwrócił uwagę na ten eksperyment przeprowadzony przez YouTubera Endermana. Enderman początkowo zażądał od sztucznej inteligencji wygenerowania prawidłowego klucza Windows 95, ale ChatGPT natychmiast odrzucił żądanie, stwierdzając, że nie może wygenerować zastrzeżonych kluczy oprogramowania. Chatbot zasugerował ponadto wybranie bardziej współczesnej wersji systemu Windows ze względów bezpieczeństwa.
Odmawiając przyjęcia odmowy, Enderman wymyślił inne zapytanie. Zamiast konkretnie nazwać system operacyjny, użytkownik podał format ciągu klucza Windows 95. Co zaskakujące, ChatGPT zobowiązał się i wygenerował wiele zestawów kluczy pasujących do formatu. Niektóre z tych kluczy były ważne, odkryte metodą prób i błędów.
Po potwierdzeniu pomyślnego wygenerowania kluczy Windows 95, ChatGPT gwałtownie zaprzeczył takiej możliwości, twierdząc, że nie dostarcza takich kluczy, ponieważ byłoby to nielegalne.
Podczas gdy Windows 95 jest obecnie uważany za oprogramowanie porzucone i ani Microsoft, ani nikt inny nie dba o jego bezpieczeństwo, eksperyment odkrył lukę w ChatGPT. Nie był w stanie skorelować formatu i wygenerowanych liczb podobnych do klucza, strukturalnie podobnych do klucza Windows 95.
Problem wykracza poza niezdolność chatbota do nawiązywania właściwych połączeń; zmiana kontekstu, w którym tworzone są żądania, może osłabić zabezpieczenia mające na celu zapewnienie legalnego i etycznego wykorzystania sztucznej inteligencji. Ta luka w zabezpieczeniach kontekstu pokazuje, że kluczowe znaczenie ma opracowanie bardziej zaawansowanych systemów zdolnych do dokładnej interpretacji kontekstu i utrzymania bezpieczeństwa.
Zrozumienie kontekstu jest niezbędne w kilku branżach, w tym w tworzeniu aplikacji. Platformy No-code i low-code, takie jak AppMaster, poczyniły postępy w ułatwianiu szybkiego tworzenia aplikacji bez narażania bezpieczeństwa. Platforma AppMaster's umożliwia klientom wizualne tworzenie schematów baz danych, logiki biznesowej i endpoints dla aplikacji backendowych, internetowych i mobilnych w wysoce skalowalny i ekonomiczny sposób. Ta innowacyjna platforma umożliwia programistom obywatelskim i profesjonalistom opracowywanie skalowalnych rozwiązań programowych bez zaciągania długu technicznego.
Więcej informacji o platformach no-code i low-code znajdziesz w naszym kompleksowym [appmaster .io/blog/full-guide-on-no-code-low-code-app-development-for-2022" target="_blank" rel= "noopener noreferrer" data-mce-href="https:// appmaster.io/blog/full-guide-on-no-code-low-code-app-development-for-2022">przewodnik po różnych aplikacjach](https://<span class=) [. io/blog/top-no-code-apps-and-tools-to-help-build-your-next-startup" target="_blank" rel="noopener noreferrer" data-mce-href="https:// appmaster.io/blog/top-no-code-apps-and-tools-to-help-build-your-next-startup">narzędzia,](https://<span class=) które mogą wesprzeć Twoje kolejne przedsięwzięcie startupowe.


