NVIDIA RTX AI Garage: RTX GPU akcelerují lokální AI asistenty

AI asistenti kódování jsou nástroje, které pomáhají zkušeným vývojářům i nováčkům zjednodušit úkoly, jako je psaní, ladění a vysvětlování kódu. Jednou z hlavních výhod provozování těchto nástrojů lokálně na vlastním počítači je možnost využívat je neomezeně, což vás osvobozuje od poplatků za předplatné nebo jiných omezení u cloudových služeb.

Ve spojení s GPU RTX jsou tito asistenti výrazně rychlejší a v modelech, jako je Meta Llama 3.1-8B, dosahují až 6x vyššího výkonu než při běhu na CPU. Tato rychlost umožňuje místním nástrojům, jako jsou Continue.dev, Tabby a OpenInterpreter, vyrovnat se rychlostí cloudovým alternativám nebo je dokonce překonat, a to vše bez nutnosti odesílat zdrojový kód na externí server.
Tento týden se blog RTX AI Garage věnuje následujícím tématům:
  • Příklady reálných pracovních postupů využívajících modely jako Gemma 12B, Code Llama a StarCoder2, které běží lokálně prostřednictvím Continue.dev, Ollama a LM Studio.
  • Proč má akcelerace pomocí GPU význam např. pro vývojáře pracující na rozsáhlých projektech nebo dlouhých promptech.
  • Pohled na nástroje, díky nimž jsou lokální AI asistenti kódování praktičtí: Continue.dev, Tabby, OpenInterpreter, LM Studio a další.

NVIDIA do 16. července pořádá Project G-Assist Plug-In Hackathon – vyzývá vývojáře, aby rozšířili experimentálního AI asistenta G-Assist o vlastní pluginy.

Vývojářům, kteří teprve začínají, včetně studentů nebo nadšenců experimentujících s lokální umělou inteligencí , nabízejí notebooky GeForce řady RTX 50 výkon potřebný pro plynulý běh těchto asistentů bez latence nebo omezení cloudových nástrojů. Podívejte se na RTX notebooky ideální pro návrat do školy.

LM Studio akceleruje práci s LLM díky NVIDIA GeForce RTX a CUDA 12.8

Seriál RTX AI Garage se tento týden zaměřuje na LM Studio, které lze spustit na RTX AI PC. Jde o flexibilní nástroj s otevřeným zdrojovým kódem určené k lokálnímu a rychlému odvozování LLM pro vývojáře a nadšence.

S LM Studio 0.3.15 mohou uživatelé s GPU NVIDIA GeForce RTX řady 50 těžit z vylepšeného výkonu a rychlejších časů načítání modelů i vyšší propustností s plnou podporou CUDA 12.8 a integraci llama.cpp – od experimentování, vytváření pipelines až po integraci AI do aplikací, jako jsou Obsidian a VS Code.

Verze přináší také nové vývojářské funkce, včetně podrobnějšího ovládání nástrojů prostřednictvím parametru „volba nástroje“ a vylepšeného editoru promptů, který usnadňuje přizpůsobení a škálování pracovních postupů. Protože je vše možné spouštět lokálně, je zachována anonymita dat v zařízení.

Detailní blog: https://blogs.nvidia.com/blog/rtx-ai-garage-lmstudio-llamacpp-blackwell

LM Studio umožňuje na RTX AI PC využívat i modely přesahující kapacitu VRAM

AI Decoded tento týden představuje, jak LM Studio s akcelerací pomocí RTX umožňuje uživatelům spouštět LLM lokálně i v případě, že je nelze celé načíst do VRAM.

S rostoucí složitostí LLM stále je potřeba stále silnější hardware pro optimální výkon. LM Studio díky funkci GPU offloading zjednodušuje spouštění a přizpůsobování těchto modelů pomocí GPU NVIDIA RTX a GeForce RTX. Díky zpracování dat po menších částech umožňuje na těchto kartách efektivní běh velkých modelů, i když se celé nevejdou do VRAM. Lze tak plně využít potenciál rozsáhlých a složitých LLM navržených pro datacentra (např. Gemma-2-27B) i lokálně na RTX AI PC.

Celý blog s podrobnějšími informacemi: https://blogs.nvidia.com/blog/ai-decoded-lm-studio/

Exit mobile version