Přejít k navigační liště

Zdroják » Zprávičky » OpenAI představil GPT-5.3-Codex-Spark

OpenAI představil GPT-5.3-Codex-Spark

Zprávičky AI

Společnost OpenAI dnes oznámila uvedení nového modelu GPT-5.3-Codex-Spark, který je určený pro reálné programování v reálném čase v prostředí Codex.

Nový model je menší a optimalizovaný pro nízkou latenci, takže dokáže generovat více než 1000 tokenů za sekundu a okamžitě reagovat na pokyny vývojáře. To znamená, že lze rychle iterovat úpravy kódu, měnit logiku programů nebo ladit funkce téměř okamžitě.

Codex-Spark běží na specializovaném hardwaru Cerebras Wafer Scale Engine 3, který je navržený právě pro takto rychlé inferenční úlohy.

Model je nyní dostupný jako research preview pro uživatele s platným předplatným ChatGPT Pro v aplikaci Codex, přes rozhraní CLI i v IDE rozšíření VS Code.

OpenAI uvedla, že jde o první krok k systémům Codex, které budou kombinovat rychlé interaktivní reakce a hloubkové dlouhodobé úkoly v jednom prostředí tak, aby vývojáři mohli pracovat plynule bez čekání.

Pro více informací: https://openai.com/index/introducing-gpt-5-3-codex-spark/

Komentáře

Odebírat
Upozornit na
guest
0 Komentářů
Nejstarší
Nejnovější Most Voted
Inline Feedbacks
Zobrazit všechny komentáře
AI Channel

… reposted this!

Clawdbot (Moltbot): osobní AI agent, který vykonává práci za vás

AI
Komentáře: 2
Clawdbot, dnes známý jako Moltbot, není jen další chatbot – je to osobní AI agent, který umí přímo vykonávat úkoly, místo aby jen radil. Stačí mu zadat cíl, a on sám zpracuje e-maily, plánuje schůzky, vyhledává informace nebo spouští skripty. Open-source a self-hosted přístup zajišťuje plnou kontrolu nad daty i nástroji, a dává tak uživatelům možnost mít vlastního digitálního asistenta, který skutečně pracuje za ně.

Skutečná cena mikroslužeb: výkon, složitost a režie

Mikroslužby slibují flexibilitu, nezávislé nasazování a snadné škálování týmů. Ve skutečnosti však každé síťové volání přidává latenci, zvyšuje režii a komplikuje dostupnost. Tento článek ukazuje, proč i jednoduché workflow může být v mikroslužbách pomalejší než v monolitu, doplněno o čísla, kód a praktické tipy pro rozhodování mezi architekturami.