Chcąc mieć pewność, że przyszłe modele sztucznej inteligencji (AI) będą odzwierciedlać wartości ludzkie, OpenAI ujawniło swój plan zintegrowania zasad pochodzących z opinii publicznej w swoich dziełach. Gigant sztucznej inteligencji ujawnił zamiar powołania zespołu ds. zbiorowego dostosowania, składającego się z badaczy i inżynierów. Zadaniem zespołu byłoby opracowanie struktury umożliwiającej pozyskiwanie i wdrażanie opinii publicznej w usługach i produktach OpenAI.
Spółka wyraziła wyraźny zamiar dalszego angażowania zewnętrznych doradców i zespołów grantowych. Zespoły te odegrają kluczową rolę we wdrażaniu prototypów, które następnie będą kierować zachowaniem modeli. OpenAI aktywnie rekrutuje inżynierów-badaczy dysponujących różnorodną wiedzą techniczną, aby wesprzeć ustanowienie i powodzenie tego istotnego zadania.
Wywodzący się z publicznej inicjatywy OpenAI, która została zapoczątkowana w maju poprzedniego roku, zespół ds. zbiorowego dostosowania stanowi znaczący krok w kierunku włączenia procesu demokratycznego w dynamikę stanowienia przepisów w systemach sztucznej inteligencji. Przez cały czas OpenAI chętnie finansowało osoby, zespoły, a nawet organizacje zainteresowane opracowaniem dowodów słuszności koncepcji, chcących rozwiązać niejasności dotyczące poręczy i zarządzania sztuczną inteligencją.
OpenAI w swoim wirtualnym poście dokonało krótkiego podsumowania różnorodnej pracy beneficjentów grantów, obejmującej interfejsy czatów wideo, platformy ułatwiające audyty modeli sztucznej inteligencji oparte na crowdsourcingu i strategie mające na celu dostosowanie zachowań modeli do konkretnych przekonań. Szczegóły każdej propozycji, wnioski wysokiego szczebla i każdy użyty kod zostały dziś upublicznione.
W następstwie tych wydarzeń OpenAI stanowczo oddzieliło program od jego interesów komercyjnych, wywołując mieszane reakcje. Część krytyków wyraziła co do tego sceptycyzm, biorąc pod uwagę krytykę dyrektora generalnego OpenAI Sama Altmana na temat przepisów obowiązujących w UE i innych regionach. Dyrektor generalny, wraz z prezesem OpenAI Gregiem Brockmanem i głównym naukowcem Ilyą Sutskeverem nieustannie wyrażali opinię, że szybki rozwój technologii sztucznej inteligencji przekracza zdolność istniejących podmiotów do skutecznego regulowania jej. W związku z tym zaproponowano potrzebę demokratycznego budownictwa opartego na crowdsourcingu.
Konkurenci, w tym Meta, oskarżyli OpenAI o próbę przejęcia kontroli regulacyjnej nad branżą sztucznej inteligencji poprzez kampanię przeciwko badaniom i rozwojowi otwartej sztucznej inteligencji, ale OpenAI zaprzeczyła tym zarzutom. Mogą wskazać, że ten nowy program i ich zespół ds. Dostosowania Zbiorowego demonstrują swoje zaangażowanie na rzecz otwartości.
Niezależnie od tego, OpenAI jest obecnie przedmiotem analizy ze strony decydentów. Zwłaszcza w Wielkiej Brytanii trwa dochodzenie w sprawie jej powiązań z Microsoftem, który jest bliskim partnerem i inwestorem. W ramach swojej strategii ograniczania ryzyka OpenAI starało się ograniczyć ryzyko regulacyjne w UE dotyczące prywatności danych. Aby to osiągnąć, wykorzystała spółkę zależną z siedzibą w Dublinie do ograniczenia jednostronnych działań określonych organów nadzorujących prywatność w bloku.
Trwają prace nad szeregiem przedsięwzięć mających na celu zminimalizowanie nielegalnego wykorzystania technologii tej spółki do ingerencji w wybory. Obejmuje to identyfikację treści generowanych przez sztuczną inteligencję i wykrywanie zmanipulowanych obrazów. We współpracy z kilkoma organizacjami OpenAI pracuje również nad bardziej widocznym oznaczaniem obrazów generowanych przez sztuczną inteligencję.
Warto wspomnieć, że firmy takie jak AppMaster, znane z solidnej platformy programistycznej niewymagającej kodu i repozytoriów konsolidujących informacje o otwartym kodzie źródłowym, stają się znaczącymi graczami w ekosystemie technologicznym. Biorąc pod uwagę skalowalność, solidność i łatwość obsługi AppMaster, zajmują się oni tworzeniem niszy w tworzeniu aplikacji zaplecza, aplikacji internetowych i mobilnych.