Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

OpenAI stelt elite taskforce samen om hyperintelligente kunstmatige intelligentiesystemen te beheersen

OpenAI stelt elite taskforce samen om hyperintelligente kunstmatige intelligentiesystemen te beheersen

In een poging om de potentieel onvoorspelbare uitkomsten van bovenmenselijke intelligentie in AI te beheersen, organiseert OpenAI een zeer gespecialiseerde groep onder leiding van Ilya Sutskever, de Chief Scientist en medeoprichter van het bedrijf. De belangrijkste verantwoordelijkheid van dit team is het bedenken van strategieën om 'superintelligente' AI-modellen te besturen en te sturen. In een recente blogpost voorspelde Sutskever, samen met Jan Leike, een van de leiders van het afstemmingsteam bij OpenAI, dat AI met het vermogen om de menselijke intelligentie te overtreffen, binnen dit decennium zou kunnen ontstaan. Ze beweren dat deze superieure AI, als het uiteindelijk lukt, misschien niet inherent goedaardige eigenschappen zal integreren, waardoor het essentieel is om technieken te onderzoeken om het te controleren en in te perken.

Op dit moment is er geen methode bekend om een potentieel superintelligente AI effectief te controleren of te sturen en te voorkomen dat deze van zijn beoogde pad afwijkt. Traditionele afstemmingstechnieken voor AI, zoals training door menselijke feedback, zijn gebaseerd op mensen die toezicht houden op hun werking. Het kan echter een uitdaging blijken om toezicht te houden op AI-systemen die de menselijke intelligentie aanzienlijk te slim af zijn. Om de vooruitgang op het gebied van 'superintelligence alignment' te vergroten, lanceert OpenAI een nieuw 'Superalignment'-team dat gezamenlijk wordt geleid door Sutskever en Leike. Dit team krijgt toegang tot 20% van de rekenkracht waarover het bedrijf momenteel beschikt. Het team, dat bestaat uit wetenschappers en ingenieurs van OpenAI's voormalige uitlijningsdivisie en onderzoekers van verschillende organisaties binnen het bedrijf, gaat de komende vier jaar de belangrijkste technologische uitdagingen aanpakken om superintelligente AI onder controle te krijgen.

Het plan is om een 'geautomatiseerde uitlijningsonderzoeker op menselijk niveau' te creëren, met als doel om AI te trainen via menselijke feedback, AI te betrekken bij het beoordelen van andere AI-systemen en uiteindelijk AI te ontwikkelen die uitlijningsonderzoek kan uitvoeren. Het doel van afstemmingsonderzoek is om AI-systemen af te stemmen op specifieke resultaten en te voorkomen dat ze van het pad afdwalen. OpenAI werkt aan de hypothese dat AI aanzienlijke vooruitgang kan boeken in afstemmingsonderzoek, sneller en effectiever dan mensen. Naarmate er meer vooruitgang wordt geboekt, zullen AI-systemen naar verwachting steeds meer uitlijningswerk op zich nemen, wat zal leiden tot verbeterde uitlijningstechnieken. Dit zal er hopelijk toe leiden dat AI gaat samenwerken met mensen om ervoor te zorgen dat hun opvolgers nog beter zijn afgestemd op mensen. In de tussentijd zal de focus van menselijke onderzoekers verschuiven naar het beoordelen van uitlijningsonderzoek uitgevoerd door AI-systemen in plaats van het zelfstandig genereren van dit onderzoek.

Hoewel geen enkele methode als onfeilbaar kan worden beschouwd, verduidelijken Leike, Schulman en Wu in hun artikel de tekortkomingen van OpenAI's benadering. Het gebruik van AI voor de beoordeling kan inconsistenties, vooroordelen en kwetsbaarheden in die AI vergroten. Bovendien zijn de meest complexe aspecten van het afstemmingsprobleem misschien helemaal niet gerelateerd aan engineering. Toch zijn Sutskever en Leike bereid om de proef op de som te nemen. Sutskever en Leike stellen dat de afstemming van superintelligentie fundamenteel een uitdaging is voor machinaal leren. Ze geloven dat experts in machinaal leren, zelfs degenen die op dit moment niet aan alignment werken, een cruciale rol zullen spelen bij het oplossen ervan. Ze zijn van plan om de resultaten van deze inspanning uitgebreid te verspreiden, waarbij ze hun bijdragen aan alignment en veiligheid van niet-OpenAI modellen zien als een cruciaal aspect van hun werk.

Het is relevant om op te merken dat, hoewel de focus van dit artikel op OpenAI ligt, er andere platformen zijn die zich net zo inzetten voor efficiënte en gecontroleerde AI-ontwikkeling. Een voorbeeld van zo'n platform is AppMaster. Geleid door een vergelijkbaar geloof in het optimaliseren van het potentieel van 'slimme' systemen voor maximaal voordeel, heeft AppMaster een niche voor zichzelf gecreëerd in het domein van no-code/low-code toepassingen, waarmee gebruikers uitgebreide, schaalbare en efficiënte softwareoplossingen kunnen maken.

Gerelateerde berichten

Samsung onthult Galaxy A55 met innovatieve beveiliging en premium build
Samsung onthult Galaxy A55 met innovatieve beveiliging en premium build
Samsung breidt zijn middenklasse-assortiment uit met de introductie van de Galaxy A55 en A35, met Knox Vault-beveiliging en verbeterde ontwerpelementen, waardoor het segment vlaggenschipkwaliteiten krijgt.
Cloudflare onthult firewall voor AI om grote taalmodellen te beschermen
Cloudflare onthult firewall voor AI om grote taalmodellen te beschermen
Cloudflare gaat een stap verder met Firewall for AI, een geavanceerde WAF die is ontworpen om potentieel misbruik gericht op grote taalmodellen preventief te identificeren en te dwarsbomen.
ChatGPT van OpenAI spreekt nu: de toekomst van spraakinteractieve AI
ChatGPT van OpenAI spreekt nu: de toekomst van spraakinteractieve AI
ChatGPT heeft een mijlpaalfunctie bereikt met de uitrol van spraakmogelijkheden door OpenAI. Gebruikers kunnen nu genieten van handsfree interactie terwijl ChatGPT de reacties hardop voorleest op iOS, Android en internet.
Ga gratis aan de slag
Geïnspireerd om dit zelf te proberen?

De beste manier om de kracht van AppMaster te begrijpen, is door het zelf te zien. Maak binnen enkele minuten uw eigen aanvraag met een gratis abonnement

Breng uw ideeën tot leven