16 mar 2023·1 min czytania

Microsoft Power Platform przyjmuje ChatGPT: Analiza wpływu na przestrzeń Low-Code

Microsoft włączając ChatGPT do swojej niskokodowej Power Platform, sygnalizuje bardziej natywne włączenie modeli AI do środowisk programistycznych o niskim kodzie. W tej analizie badamy korzyści, implikacje i wyzwania związane z wykorzystaniem dużych modeli językowych we frameworkach o niskim kodzie.

Microsoft Power Platform przyjmuje ChatGPT: Analiza wpływu na przestrzeń Low-Code

Microsoft trafił na pierwsze strony gazet, integrując ChatGPT, potężny duży model językowy (LLM), ze swoim pakietem deweloperskim Power Platform, zwiększając produktywność dla rozwoju low-code. Ogłoszenie to następuje po tym, jak ChatGPT napędził wyszukiwanie w Bing i zobowiązanie Microsoftu do zainwestowania miliardów w swoją firmę partnerską, OpenAI. Wraz z tym wydarzeniem pojawia się wiele pytań, zwłaszcza dotyczących wpływu integracji na platformy low-code i potencjalnych wyzwań, które mogą się pojawić.

Zagłębimy się w implikacje rozwoju napędzanego przez AI, omawiając korzyści i potencjalne zagrożenia związane z włączeniem LLM takich jak ChatGPT do frameworków rozwojowych low-code. Ponadto zbadamy, w jaki sposób może to zakłócić krajobraz konkurencyjny i podkreślimy kluczowe względy dla liderów dążących do przyjęcia tej przełomowej technologii.

Low-code Platformy programistyczne (LCDP), takie jak AppMaster, pozwalają na abstrakcję złożonych funkcjonalności w przyjazne dla użytkownika komponenty, zazwyczaj oferując drag-and-drop możliwości i szablony wielokrotnego użytku zarówno dla początkujących jak i doświadczonych programistów. Integracja ChatGPT z takimi środowiskami otwiera wiele korzyści:

Integracja ChatGPT wysłała falę na cały rynek, z gigantami technologicznymi odsłaniającymi własne generatywne rozwiązania AI. W rezultacie, rola platform low-code i AI w rozwoju oprogramowania jest przedmiotem debaty. Generowanie kodu w języku naturalnym mogłoby potencjalnie całkowicie zastąpić tradycyjne programowanie i rozwiązania bezkodowe.

Niemniej jednak, wydaje się, że najbardziej prawdopodobnym rezultatem są ulepszenia w całej branży oprogramowania, w której AI wspomaga LCDP, poprawiając doświadczenie programistów, dostosowane modele ML i inteligentne doświadczenia użytkowników końcowych. Firmy takie jak AppMaster już oferują potężne <a href=https://appmaster.io/blog/no-code-app-builder>no-code app builders i <a href=https://appmaster.io/blog/build-enterprise-software-with-no-code>enterprise application solutions, pokazując, jak to podejście może przynieść korzyści szerokiej gamie organizacji.

Jednak ogromne inwestycje Microsoftu w badania i rozwój AI mogą postawić mniejsze firmy LCDP w niekorzystnej sytuacji, jeśli nie wprowadzą one własnej integracji AI. W rezultacie brak funkcjonalności AI może doprowadzić do utraty subskrybentów lub współpracy z większymi pakietami technologii chmurowych w celu uzyskania dostępu i przechowywania danych.

Pomimo postępów, ChatGPT i inne generatywne modele AI nie są całkowicie godne zaufania. Obecnie użycie ChatGPT w PowerApps jest eksperymentalne, co oznacza status generatywnej AI jako pracy w toku. Biorąc pod uwagę potencjalne niedokładności, deweloperzy polegający na tych modelach mogą napotkać wyzwania.

Poza autorytatywnym tonem wyników ChatGPT, są one generowane z publicznie dostępnych informacji, które mogą zawierać błędy, pomyłki i nieefektywności. Co gorsza, ChatGPT może sugerować nieistniejące funkcje, jak to miało miejsce w przypadku dostawcy API do geokodowania - OpenCage. W związku z tym programiści muszą dostosować się do tworzenia i organizowania podpowiedzi i usuwania błędów, jednocześnie zmagając się z wyzwaniami związanymi z wdrożeniem i obawami dotyczącymi bezpieczeństwa związanymi z zależnościami od stron trzecich.

Zarządzanie jest niezbędne do zabezpieczenia platform low-code, ponieważ użytkownicy no-code mogą nie mieć odpowiedniego nadzoru nad bezpieczeństwem podczas przyjmowania nowych usług. W przypadku AI, złożoność techniczna wzrasta, co może prowadzić do naruszeń etycznych i nieracjonalnej komunikacji, jeśli nie jest starannie zarządzana.

Podczas gdy modele AI, takie jak ChatGPT, pewnie produkują dane wyjściowe, czasami dają nonsensowne lub niedokładne wyniki. Ciągłe sprzężenie zwrotne i przekwalifikowanie poprawi te dane z czasem. Inżynierowie muszą jednak pamiętać o eksperymentalnej naturze rozwiązań napędzanych przez AI i zachować ostrożność podczas wdrażania nowych innowacji AI do swoich projektów.

W miarę jak AI zmienia krajobraz rozwoju oprogramowania, programiści stają przed nowymi wyzwaniami przy jednoczesnym wzroście wydajności. Low-code rozwiązania, które oferują standardowe potoki dostarczania oprogramowania i scentralizowane funkcje współpracy, odniosą największe korzyści w tej ewoluującej erze. Firmy LCDP, które dotrzymują kroku rozwojowi AI, jak np. platforma AppMaster, i wprowadzają AI do swoich procesów pracy, są przygotowane na to, by dobrze prosperować w zmieniającej się branży.

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started
Microsoft Power Platform przyjmuje ChatGPT: Analiza wpływu na przestrzeń Low-Code | AppMaster