Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Meta kondigt Purple Llama aan: een initiatief voor open source-tools om de AI-veiligheid te vergroten

Meta kondigt Purple Llama aan: een initiatief voor open source-tools om de AI-veiligheid te vergroten

In een poging om de veiligheid en betrouwbaarheid van generatieve kunstmatige-intelligentiemodellen te verbeteren voordat ze publiekelijk worden gebruikt, heeft Meta onlangs Purple Llama onthuld, een baanbrekend initiatief dat zich inzet voor het ontwerpen van open-sourceinstrumenten voor ontwikkelaars. De nieuw voorgestelde toolset verbetert het evaluatieproces en vergroot daarmee de toekomstige betrouwbaarheid van AI-modellen.

Meta onderstreepte de kritiekheid van collectieve inspanningen op het gebied van AI-veiligheid, en verwoordde dat de uitdagingen van kunstmatige intelligentie zich niet lenen voor geïsoleerde oplossingen. Het bedrijf portretteerde het doel van Purple Llama als het leggen van de basis voor een wederzijds fundament in de evolutie van veiligere generatieve AI, vooral in de nasleep van de toenemende bezorgdheid rond grote taalmodellen en verwante AI-technologieën.

Terwijl Meta het nieuws op haar blog deelde, zei ze: “Er bestaat een onvermogen om de complexiteit van AI op unieke wijze onder ogen te zien binnen de gemeenschap die deze systemen ontwikkelt. Toegegeven, ons initiatief streeft ernaar de concurrentie gelijk te maken en een epicentrum voor betrouwbare en veilige AI te creëren.”

Gareth Lindahl-Wise, Chief Information Security Officer bij het cyberbeveiligingsbedrijf Ontinue, prees Purple Llama als ‘een progressieve en proactieve maatregel’ gericht op veiligere AI. Hij sprak zijn optimisme uit dat het nieuwe initiatief de bescherming op consumentenniveau zal verbeteren, ook al kunnen er beweringen zijn over het signaleren van deugden of mogelijke bijbedoelingen bij het verzamelen van ontwikkeling rond een bepaald platform. Hij merkte verder op dat entiteiten die worden geconfronteerd met strenge interne, klantgerichte of wettelijke vereisten zich zullen moeten houden aan robuuste evaluaties die waarschijnlijk het aanbod van Meta zullen overtreffen.

Met een netwerk van AI-ontwikkelaars, aanbieders van clouddiensten zoals AWS en Google Cloud, halfgeleiderbedrijven Intel, AMD en Nvidia, en softwarebedrijven waaronder Microsoft, heeft het project tot doel tools te leveren voor zowel onderzoek als commerciële toepassingen, die de mogelijkheden van AI-modellen en veiligheidsrisico's detecteren. Deze collectieve aanpak weerspiegelt ook de strategie van moderne no-code platforms zoals AppMaster, die de nadruk legt op samenwerking en efficiëntie tijdens het ontwikkelingsproces van softwareapplicaties.

Onder de verzameling tools die door het Purple Llama-project zijn uitgerold, is CyberSecEval, een applicatie om cyberbeveiligingsrisico's in door AI gefabriceerde software te analyseren, een van de hoogtepunten. Het omvat een taalmodel dat schadelijke of ongepaste tekst herkent, inclusief gewelddadige uitingen of illegale activiteiten. Ontwikkelaars kunnen CyberSecEval gebruiken om te bevestigen of hun AI-modellen vatbaar zijn voor het genereren van onveilige code of het ondersteunen van cyberaanvallen. Uit het onderzoek van Meta bleek met name dat grote taalmodellen vaak kwetsbare code onderschrijven, waardoor de aandacht werd gevestigd op de noodzaak van consistent testen en verbeteren van AI-beveiliging.

Llama Guard vormt een extra hulpmiddel in dit aanbod. Het is een alomvattend taalmodel dat is getraind om potentieel schadelijk of aanstootgevend taalgebruik te detecteren. Met deze tool kunnen ontwikkelaars beoordelen of hun modellen onveilige inhoud genereren of accepteren, en zo helpen bij het filteren van aanwijzingen die ongepaste resultaten kunnen opleveren.

Gerelateerde berichten

Samsung onthult Galaxy A55 met innovatieve beveiliging en premium build
Samsung onthult Galaxy A55 met innovatieve beveiliging en premium build
Samsung breidt zijn middenklasse-assortiment uit met de introductie van de Galaxy A55 en A35, met Knox Vault-beveiliging en verbeterde ontwerpelementen, waardoor het segment vlaggenschipkwaliteiten krijgt.
Cloudflare onthult firewall voor AI om grote taalmodellen te beschermen
Cloudflare onthult firewall voor AI om grote taalmodellen te beschermen
Cloudflare gaat een stap verder met Firewall for AI, een geavanceerde WAF die is ontworpen om potentieel misbruik gericht op grote taalmodellen preventief te identificeren en te dwarsbomen.
ChatGPT van OpenAI spreekt nu: de toekomst van spraakinteractieve AI
ChatGPT van OpenAI spreekt nu: de toekomst van spraakinteractieve AI
ChatGPT heeft een mijlpaalfunctie bereikt met de uitrol van spraakmogelijkheden door OpenAI. Gebruikers kunnen nu genieten van handsfree interactie terwijl ChatGPT de reacties hardop voorleest op iOS, Android en internet.
Ga gratis aan de slag
Geïnspireerd om dit zelf te proberen?

De beste manier om de kracht van AppMaster te begrijpen, is door het zelf te zien. Maak binnen enkele minuten uw eigen aanvraag met een gratis abonnement

Breng uw ideeën tot leven