vr. jun 21st, 2024
Leestijd: 3 minuten

Cloudflare heeft deze week bekendgemaakt dat ze het serverloze ontwikkelaarsplatform gaan uitbreiden met functionaliteit om het ontwikkelen en toepassen van zakelijke AI-applicaties verder te vereenvoudigen.

Daarvoor gaat deze wereldwijde aanbieder van cloudconnectiviteit nauwer samenwerken met Databricks, Hugging Face en Meta.

Databricks
Databricks en Cloudflare werken al samen om de AI-levenscyclus te vereenvoudigen door het delen van data eenvoudiger en betaalbaarder te maken via Delta Sharing met R2-storage. Cloudflare’s R2-storage is een zero egress, gedistribueerd object storage-aanbod, dat datateams in staat stelt om live datasets en AI-modellen te delen met Databricks, gemakkelijk en efficiënt, zonder de noodzaak voor complexe data transfers of duplicaties van datasets, en met nul egresskosten.

Beide bedrijven breiden hun samenwerking uit om MLflow-mogelijkheden naar ontwikkelaars te brengen die bouwen op Cloudflare’s serverloze ontwikkelaarsplatform. Cloudflare sluit zich aan bij het open source MLflow-project als actieve deelnemer om de kloof te overbruggen tussen het trainen van modellen en het eenvoudig toepassen ervan op Cloudflare’s wereldwijde netwerk. Daarop kunnen AI-modellen dicht bij eindgebruikers draaien voor een ‘low-latency’ ervaring.

In de nieuwe samenwerkingsfase op het gebied van MLflow, zorgen Cloudflare en Databricks voor een snelle en eenvoudige implementatie van AI-modellen naar Edge. MLflow is een open-source platform voor het beheer van de levenscyclus van machine learning (ML), gemaakt door Databricks. Het is een platform geworden voor end-to-end MLOps, waarmee teams van elke omvang elk model kunnen volgen, delen, verpakken en inzetten voor batch of real-time inferentie. Dankzij deze nieuwe samenwerking kunnen ontwikkelaars modellen trainen met behulp van het datacentrische AI-platform van Databricks en deze vervolgens toepassen op het ontwikkelaarsplatform en wereldwijde netwerk van Cloudflare, waar hyperlokale inferentie aan de rand wordt ingezet om de AI-levenscyclus te voltooien.

Hugging Face
Cloudflare gaat met Hugging Face samenwerken om het gebruik van de beste open AI-modellen toegankelijker en betaalbaarder te maken voor ontwikkelaars. Cloudflare wordt de eerste serverloze GPU voorkeurspartner voor het gebruik van Hugging Face-modellen. Daardoor kunnen ontwikkelaars snel en eenvoudig wereldwijd AI inzetten, zonder dat zij zich zorgen hoeven te maken over het beheer van de infrastructuur en zonder te betalen voor ongebruikte rekencapaciteit. Hugging Face gaat ook geoptimaliseerde generatieve AI-modellen aanbieden voor Cloudflare’s nieuwe AI-inferentieplatform.

Generatieve AI zorgt voor een verschuiving in de wijze waarop bedrijven werken en de toepassingen die mogelijk zijn. Tot nu toe hadden bedrijven die hun producten wilden uitbreiden of bouwen met AI maar twee opties: vertrouwen op propriëtaire black box-modellen die alleen beschikbaar waren via betaalde API’s, of experts worden in het toepassen, beheren en schalen van open AI-modellen op een speciale infrastructuur. Hugging Face’ modelhub gecombineerd met Cloudflare’s gedistribueerde edge-netwerk maakt het eenvoudiger dan ooit om op een betaalbare wijze schaalbare AI-toepassingen te bouwen.

Meta
Cloudflare gaat met Meta samenwerken om het Llama 2 open source large language model (LLM) wereldwijd beschikbaar te maken voor ontwikkelaars die AI-toepassingen willen bouwen op het serverloze Cloudflare Workers platform. Daarmee kunnen de beide partners lokale inferenties voor iedereen aanbieden, waarbij de privacy voorop staat.

Tot voor kort was de enige manier om toegang te krijgen tot een LLM het gebruiken van proprietary modellen. Het opleiden van LLM’s is een serieuze investering, in tijd, computers en kapitaal en dus niet zomaar toegankelijk voor veel ontwikkelaars. Meta’s openbaar beschikbare Llama 2 heeft al een grote verschuiving teweeggebracht, waardoor ontwikkelaars ook eigen LLM’s kunnen uitvoeren en toepassen. Dit vereist echter nog steeds toegang tot en beheer van de infrastructuur om de LLM uit te voeren.

Vanaf nu hebben ruim een miljoen ontwikkelaars die al Cloudflare’s platform gebruiken toegang tot een toonaangevende LLM om applicaties te verrijken. Het gedistribueerde edge-netwerk gaat ontwikkelaars overal in staat stellen om toepassingen met Llama 2 te bouwen. In combinatie mer Cloudflare’s Data Localization Suite kunnen ze dit doen terwijl ze controleren waar hun data wordt verwerkt. Cloudflare’s privacy-first benadering van applicatieontwikkeling kan bedrijven helpen het vertrouwen van klanten te behouden door ervoor te zorgen dat data die wordt gebruikt voor inferentie niet wordt ingezet voor het trainen of verbeteren van de LLM.

Door Redactie