Cloudflare staví agentický cloud. A mění tím, co znamená hosting

Cloudflare během dubna 2026 složil kompletní infrastrukturní stack pro AI agenty: lehá V8 prostředí, cloudové prohlížeče, privátní síťová vrstva se strojovou identitou. Je to sázka na to, že cloud postavený pro webové aplikace nestačí pro miliardy efemérních session AI agentů.
Nálepky:
Během dubna 2026 složil Cloudflare kompletní infrastrukturní stack pro AI agenty. Lehká V8 prostředí startující za milisekundy, cloudové prohlížeče, privátní síťová vrstva se strojovou identitou, celý CMS jako demonstrace. Za celým balíkem stojí jedna sázka: že cloud postavený pro webové aplikace a lidské uživatele nestačí pro miliardy efemérních session AI agentů, a že edge síť, která osm let běží na V8 místo kontejnerů, je na tu proměnu připravená líp než infrastruktura hyperscalerů.
Dvacet oznámení, jedna teze
Agents Week proběhl od 13. do 17. dubna 2026, ale některé klíčové kusy Cloudflare položil dřív. Dynamic Workers (lehká V8 prostředí pro spouštění agentického kódu) vstoupily do open beta už 24. března. EmDash, CMS napsaný v TypeScriptu jako „duchovní nástupce WordPressu“, vyšel 1. dubna. Samotný Agents Week pak přidal plošnou dostupnost kontejnerových sandboxů, privátní síťovou vrstvu Mesh, AI Gateway jako sjednocený inferenční endpoint pro modely od 14+ poskytovatelů, Browser Run (cloudové headless Chrome instance), Agent Memory, Artifacts (git-kompatibilní úložiště), emailovou službu pro agenty, feature flagy Flagship, novou verzi Agents SDK a Agent Readiness Score.
Seznam je záměrně vyčerpávající, protože právě délka seznamu je pointa. Cloudflare neoznamoval izolované funkce. Sestavil kompletní vertikální stack od výpočetního prostředí přes síťování a paměť až po identitu a observabilitu. CTO Dane Knecht a VP produktu Rita Kozlov to v úvodním blogu zformulovali jasně: cloud, jak ho známe, byl navržený pro model „jedna aplikace obsluhuje mnoho uživatelů“. AI agenti tento model obracejí. Jeden uživatel spouští několik agentů paralelně, každý potřebuje vlastní izolované prostředí, a pokud jen zlomek pracovníků na světě spustí pár agentů souběžně, potřebujete kapacitu pro desítky milionů session.
Že to Cloudflare myslí vážně, dokládají interní čísla zveřejněná během téhož týdne. AI nástroje firmy (postavené na komerční platformě Workers) obsloužily 3 683 zaměstnanců napříč inženýringem, prodejem, marketingem i financemi. Přes AI Gateway prošlo 20 milionů požadavků a 241 miliard tokenů. Čísla od vendora si zaslouží rezervu, ale ukazují, že Cloudflare svůj agentický stack interně nasazuje v netriviálním měřítku.
Tisíc tokenů místo milionu
Technickým jádrem celé strategie je přístup, který Cloudflare nazývá Code Mode. Problém, na který reaguje, jsme popsali v článku o MCP: standardní MCP server exportuje definice všech svých nástrojů do kontextového okna modelu a u velkých API to kontextové okno spolehlivě přeteče. Cloudflare to změřil na vlastním API. Export plných 2 500 endpointů spotřebuje 1,17 milionu tokenů jen na inicializaci. Víc, než pojme kontext většiny produkčních modelů.
Code Mode řeší problém radikálně: místo tisíců nástrojů poskytuje agentovi dva. Nástroj search() prohledává typovou OpenAPI specifikaci a vrací jen dokumentaci relevantní pro aktuální úkol. Nástroj execute() přijímá JavaScriptový kód, který agent vygeneruje na základě nalezené dokumentace, a spustí ho v sandboxu na infrastruktuře Cloudflare. Agent nikdy nevidí celou specifikaci API, jen to, co právě potřebuje.
Cloudflare uvádí, že výsledná kontextová stopa činí kolem tisíce tokenů bez ohledu na velikost API. Oproti 1,17 milionu u plného exportu je to redukce o 99,9 %. Jde o interní měření, které nelze nezávisle ověřit, ale princip je přesvědčivý a odpovídá tomu, co nezávisle změřil ScaleKit u jiných MCP serverů: tokenová spotřeba klasického volání nástrojů je řádově vyšší než u alternativních přístupů.
Code Mode má ale tvrdý předpoklad: model musí spolehlivě generovat funkční kód. Menší a slabší modely při generování spustitelného kódu chybují výrazně častěji a při selhání parsování klesá úspěšnost celého úkolu. Pro jednoduché jednorázové úlohy zůstává klasické volání nástrojů spolehlivější cestou.
Proč Cloudflare vsadil na V8
Code Mode přesouvá výkon z modelu na server. Agent generuje kód, server ho spouští. Zásadní otázka je, v čem ten kód běží. AI generovaný kód je z definice nedůvěryhodný vstup a musí běžet v sandboxu. Průmyslový standard jsou kontejnery nebo microVM: Firecracker u AWS Lambda, platformy jako E2B, nedávno i Vercel se svým sandboxem. Cloudflare jde jinou cestou.
Dynamic Workers jsou samostatné instance JavaScriptového enginu V8, na kterém běží Chrome. Cloudflare tuto technologii provozuje osm let pod Workers. Novinkou je jejich dynamické vytváření za běhu na pokyn agenta. Rozdíly oproti kontejnerům jsou řádové. Cloudflare uvádí start za milisekundy (kontejnery za stovky milisekund), spotřebu v jednotkách megabytů paměti (kontejnery ve stovkách) a spouštění na stejném fyzickém serveru, často i na stejném vlákně, jako nadřazený požadavek. VentureBeat čísla shrnul jako „přibližně 100× rychlejší start a 10 až 100× vyšší paměťová efektivita“. Cenový model je 0,002 USD za den za unikátní načtený Worker plus standardní CPU poplatky.
Pro agentický Code Mode je to přirozené prostředí. Agent vygeneruje pár řádků JavaScriptu, Dynamic Worker je spustí, vrátí výsledek a prostředí zanikne. Žádný warm pool, žádné sdílení prostředí mezi požadavky, žádný přístup k souborovému systému ani ke globálním proměnným. Kód uvnitř nemůže číst API klíče z prostředí a ani odchozí HTTP požadavky nejsou povoleny, dokud je vývojář explicitně nepovolí.
Pro úlohy vyžadující plný Linux (git, npm, pip, shell, procesy na pozadí) nabízí Cloudflare kontejnerové Sandboxes, které během Agents Week přešly do GA. Cenový model se liší: platíte za skutečně spotřebované CPU cykly (0,00002 USD za vCPU sekundu). Limit je 15 000 souběžných lehkých instancí.
Dynamic Workers stojí na V8 a podle dokumentace podporují JavaScript i Python. TypeScript vyžaduje předchozí kompilaci do JavaScriptu. Code Mode a většina příkladů v dokumentaci ale počítají primárně s TypeScriptem. Pro ekosystém, kde většina agentických frameworků (LangChain, CrewAI, AutoGen) žije v nativním Pythonu, to představuje třecí plochu. Cloudflare to řeší dvoustupňově: Dynamic Workers pro lehké úlohy, kontejnerové Sandboxes pro cokoliv, co potřebuje plný Linux a libovolný jazyk. Vývojář si ale musí vybrat a přizpůsobit workflow.
Od kódu k agentovi
Samotný compute je jen základ. Cloudflare během téhož týdne oznámil vrstvu služeb, které z izolovaného kusu kódu dělají agenta schopného jednat v reálném světě.
Browser Run (dříve Browser Rendering) dává agentům cloudové instance headless Chrome. Limit souběžných session vzrostl na 120 na tenanta, nově je přímý přístup přes Chrome DevTools Protocol a funkce Human in the Loop pro situace, kde agent narazí na CAPTCHA nebo dvoufázové ověření. Pro MCP klienty jako Claude Desktop nebo Cursor existuje balíček chrome-devtools-mcp pro nativní ovládání vzdálených prohlížečů. Session recordings ve formátu JSON uchovávají pohyby myši, změny DOM a stisk kláves pro zpětnou auditní analýzu.
Agent Memory (privátní beta) řeší bezstavovost. Služba extrahuje sémantické fragmenty z předchozích konverzací, organizuje je a vrací relevantní kontext do promptu ve správný moment. V kombinaci s Durable Objects, které Agents SDK využívá jako výchozí úložiště, získává agent trvalý stav i mezi relacemi. Každá instance agenta dostane izolovanou SQLite databázi. Dubnové rozšíření Durable Object Facets jde ještě dál: Dynamic Worker může nyní instanciovat vlastní Durable Object s odděleným SQLite úložištěm, takže i dynamicky generovaný kód může mít perzistentní data, aniž by viděl data svého hostitele.
Cloudflare Mesh je privátní síťová vrstva propojující firemní notebooky, cloudové clustery a agentické instance do jedné šifrované sítě mimo veřejný internet. Agenti běžící na Workers přistupují k interním databázím přes Workers VPC bindings. Každý agent dostává kryptografickou identitu a administrátor definuje politiky nejmenších oprávnění: agent pro analýzu kódu může číst staging cluster, ale nemá přístup k produkčním finančním tabulkám. Gateway komponenta detekuje neautorizované MCP servery (to, čemu komunita říká „Shadow MCP“). Autorizaci MCP serverů pak zajišťuje samostatná vrstva Access s OAuth 2.1, SSO a vícefaktorovým ověřením.
Jak celý stack vypadá pohromadě, Cloudflare demonstroval na EmDash, CMS postaveném na Astro a Dynamic Workers, kde každý plugin běží ve vlastním V8 sandboxu. Adam Heglas ho podrobně rozebral na Zdrojáku. V kontextu agentického cloudu je EmDash zajímavý hlavně jako ukázka toho, co sandboxovaná architektura umožňuje: AI vygeneruje plugin, ten běží s explicitními oprávněními a nemůže ohrozit zbytek systému.
Jak vypadá web připravený pro agenty
Většina dnešního webu nemá API. Informace jsou schované v JavaScriptových frontendech, které vyžadují plný rendering v prohlížeči. Agent, který chce na takovém webu něco zjistit, musí buď spustit headless Chrome přes Browser Run (drahé, pomalé), nebo použít vision model, který „čte“ screenshot (ještě dražší, nespolehlivé). Cloudflare proto tlačí dvě iniciativy, které mají agentům cestu zjednodušit.
První je diagnostický nástroj Agent Readiness Score, spuštěný během Agents Week. Skener prověří web v několika kategoriích: objevitelnost (robots.txt, sitemap, HTTP Link hlavičky), přístupnost obsahu pro stroje (Markdown content negotiation, llms.txt), pravidla přístupu pro AI roboty (Content Signals, bot rules), a protokolovou vybavenost (MCP Server Card, Agent Skills, OpenAPI, OAuth). Volitelně kontroluje i agentic commerce standardy. Výsledkem je skóre 0 až 100. Cloudflare zároveň začal na Radaru sledovat adopci jednotlivých standardů napříč internetem. Jen 78 % z 200 tisíc nejnavštěvovanějších webů má vůbec robots.txt a většina je psaná pro tradiční crawlery, ne pro AI agenty. Pro SEO komunitu se kolem připravenosti webu pro AI začíná formovat pojem Generative Engine Optimization (GEO).
Druhá iniciativa je ambicióznější. WebMCP je návrh otevřeného standardu, který přesouvá MCP rozhraní přímo do prohlížeče přes rozšíření objektu navigator.modelContext. Frontendový vývojář může deklarativně exportovat funkce svého webu jako strojově popsané nástroje s JSON schématem. Pokud agent navštíví web s podporou WebMCP, nemusí analyzovat vizuální layout a hledat polohu vyhledávacího pole. Místo toho najde registrovaný nástroj (třeba search_flights(od, do, datum)), zavolá ho a dostane strukturovaná data přímo z aplikace v prohlížeči. Operace probíhá v rámci existující uživatelské session, s platnými cookies a přihlášením. Google specifikaci testuje v Chromiu v early preview režimu a pracovní skupina Web Machine Learning Community Group při W3C ji formalizuje. WebMCP slibuje nižší režii než vizuální interakce, ale specifikace je stále experimentální. Směr je přesto zřetelný: web se postupně rozdvojuje na prezentační vrstvu pro lidi a sémantickou vrstvu pro stroje.
Kde Cloudflare stojí a kde ne
Pozice Cloudflare na trhu AI infrastruktury se dá pochopit přes jedno strategické rozhodnutí: nepouštět se do těžké inference. AWS Bedrock, Google Vertex AI a Azure AI Studio vlastní GPU clustery, tréninkové pipeline a modely s bilionovým rozsahem parametrů. Cloudflare jim tuto vrstvu přenechává. Workers AI nabízí otevřené modely (Llama, Mistral, komunitní modely z HuggingFace) na edge s nízkou latencí a pay-per-token modelem plus AI Gateway jako sjednocený endpoint. Těžká inference ale běží jinde.
To, co Cloudflare buduje, jsou smysly a končetiny agentů: exekuční prostředí (Dynamic Workers, Sandboxes), vnímání (Browser Run), paměť (Agent Memory, Durable Objects), síťový přístup (Mesh) a identitu (Zero Trust). Hyperscaleři nabízejí mozek. Cloudflare nabízí tělo, ve kterém ten mozek operuje.
Pro vývojáře, kteří dnes staví agentické systémy, z toho plyne konkrétní rozhodnutí. Většina agentických frameworků funguje v Pythonu a běží na kontejnerech v AWS nebo GCP. Přechod na Cloudflare stack znamená TypeScript, V8 a vazbu na Durable Objects, Vectorize, AI Gateway a Workers KV. Vývojářský komfort je vysoký: agent dostane paměť, observabilitu i nasazení na edge jedním příkazem. Je to ale ekosystém jednoho vendora od compute po storage.
Komu to dává smysl? Týmům, které staví agentické služby pro mnoho uživatelů s nízkou latencí na okraji sítě, které pracují v TypeScriptu a které chtějí sandboxovanou exekuci bez správy kontejnerů. Pro enterprise AI pipeline nad petabajty interních dat v S3 bucketech je AWS Bedrock pořád přirozenější volba. Pro jednorázové skripty v Pythonu, které volají tři API, je přímé function calling jednodušší než celý Code Mode stack.
Agents Week ukázal koherentní vizi i infrastrukturu, která ji podpírá. Otázka pro příští rok není, jestli tenhle stack technicky funguje. Otázka je, jestli se vývojářská komunita přesune z Pythonu v kontejnerech na TypeScript v Dynamic Workers v dostatečné míře na to, aby se kolem Cloudflare stacku vytvořil ekosystém srovnatelný s tím, co dnes nabízejí LangChain a AWS. Ta odpověď zatím neexistuje.