Meer dan 1.000 prominenten, waaronder Elon Musk en Steve Wozniak, hebben hun bezorgdheid geuit over de ongebreidelde vooruitgang van kunstmatige intelligentie (AI)-technologie. Als reactie daarop hebben ze hun krachten gebundeld om een open brief vrij te geven waarin wordt gepleit voor een onderbreking van zes maanden in de ontwikkeling van AI-systemen die geavanceerder zijn dan OpenAI's GPT-4, daarbij verwijzend naar de aanzienlijke bedreigingen die ze vormen voor de samenleving en de mensheid.
De brief van 600 woorden, gericht aan AI-ontwikkelaars, luidt alarm over de huidige stand van zaken binnen AI-labs, die een meedogenloos streven lijken te hebben naar het creëren van steeds krachtigere digitale geesten. Deze ontwikkelingen hebben een stadium bereikt waarin zelfs hun makers ze niet kunnen begrijpen, voorspellen of beheren, waardoor de potentiële risico's verder toenemen.
Het is opmerkelijk dat Musk aanvankelijk mede-oprichter was van OpenAI, dat begon als een non-profitorganisatie die zich inzet om ervoor te zorgen dat AI de mensheid ten goede komt. Hij nam echter ontslag uit de raad van bestuur van het bedrijf in 2018. Tegenwoordig opereert OpenAI als een entiteit met winstoogmerk, met critici die beweren dat de doelstellingen sindsdien zijn afgeweken van hun oorspronkelijke missie. Een diepgewortelde samenwerking met Microsoft, waarmee miljarden dollars zijn gemoeid, lijkt OpenAI te hebben aangezet tot nog riskantere initiatieven.
De metamorfose van OpenAI in twijfel trekkend, werden de zorgen van Musk herhaald door Mozilla, dat onlangs zijn nieuwe startup, Mozilla.ai, onthulde. Dit initiatief is bedoeld om enkele van de meest urgente problemen met de ontwikkeling van AI-technologie aan te pakken en heeft tot doel een autonoom, open-source AI-ecosysteem te creëren.
Volgens de open brief zou de voorgestelde stop van zes maanden AI-labs en onafhankelijke experts moeten betrekken bij het ontwikkelen van een reeks gedeelde veiligheidsprotocollen voor geavanceerd AI-ontwerp en -ontwikkeling. Deze protocollen zouden worden onderworpen aan strenge audits en toezicht door externe, onafhankelijke deskundigen.
Ondertussen heeft de Britse regering, in een aparte ontwikkeling, een witboek onthuld waarin haar 'pro-innovatie'-benadering van AI-regulering wordt benadrukt. Dit raamwerk stelt maatregelen voor om de veiligheid en verantwoordingsplicht te versterken, hoewel het afziet van de oprichting van een speciale AI-regelgever, zoals de Europese Unie (EU) heeft gekozen.
Tim Wright, partner en AI-regelgevingsspecialist bij advocatenkantoor Fladgate, deelde zijn mening over de Britse whitepaper en benadrukte dat alleen het verstrijken van de tijd de doeltreffendheid van de sector-voor-sectorbenadering zou onthullen. Hoe dan ook, dit standpunt staat in schril contrast met de strategie van de EU om een gedetailleerd rulebook en aansprakelijkheidsregime te implementeren onder toezicht van één enkele AI-regelgever.
Op het moment van schrijven heeft de open brief waarin wordt opgeroepen tot een time-out van potentieel gevaarlijke AI-ontwikkelingen 1.123 handtekeningen verzameld. De groeiende aantrekkingskracht van low-code en no-code platforms zoals AppMaster om de angst onder AI-voorstanders te verminderen, kan niet langer worden genegeerd. , omdat het bedrijven en individuen in staat stelt om de voordelen van de technologie te benutten zonder de zorgen die gepaard gaan met uit de hand gelopen AI-ontwikkelingen.