Cloudová umělá inteligence jako ředitel: proč je budoucnost práce v lokální umělé inteligenci

Cloudová umělá inteligence se stává hlavním učitelem

Když před několika lety zahájily velké jazykové modely svůj triumfální pochod, vypadalo to téměř jako návrat ke starým ctnostem technologie: nástroj, který dělá to, co se mu řekne. Nástroj, který slouží uživateli, nikoli naopak. První verze - od GPT-3 po GPT-4 - měly slabiny, to ano, ale byly úžasně užitečné. Vysvětlovaly, analyzovaly, formulovaly a řešily úlohy. A to převážně bez pedagogického balastu.

S těmito modely jste mluvili, jako byste mluvili s erudovaným zaměstnancem, který se sice občas spletl ve slovech, ale v podstatě prostě pracoval. Každý, kdo tehdy psal tvůrčí texty, generoval programový kód nebo vytvářel delší analýzy, zažil, jak hladce to funguje. Byl tu pocit svobody, otevřeného tvůrčího prostoru, technologie, která lidi podporovala, místo aby je opravovala.

Číst dál

AI Studio 2025: Který hardware se opravdu vyplatí - od Mac Studia po RTX 3090

Hardware 2025 pro studio AI

Každý, kdo dnes pracuje s umělou inteligencí, je téměř automaticky odsunut do cloudu: OpenAI, Microsoft, Google, jakákoli webová uživatelská rozhraní, tokeny, limity, podmínky. Zdá se to být moderní - ale v podstatě jde o návrat k závislosti: jiní určují, které modely smíte používat, jak často, s jakými filtry a za jakou cenu. Záměrně jdu opačnou cestou: v současné době si doma buduji vlastní malé studio umělé inteligence. S vlastním hardwarem, vlastními modely a vlastními pracovními postupy.

Můj cíl je jasný: lokální textová AI, lokální obrazová AI, učení vlastních modelů (LoRA, dolaďování) a to vše tak, abych jako freelancer a později i zákazník SME nebyl závislý na každodenních rozmarech nějakého poskytovatele cloudu. Dalo by se říci, že je to návrat ke starému přístupu, který býval zcela běžný: „Důležité věci si děláš sám“. Jenže tentokrát nejde o vlastní pracovní stůl, ale o výpočetní výkon a suverenitu dat.

Číst dál

RAG s Ollama a Qdrant jako univerzální vyhledávač vlastních dat

Rozšíření místní umělé inteligence o databáze pomocí RAG, Ollama a Qdrant

Ve stále nepřehlednějším světě informací je stále důležitější, aby bylo možné cíleně vyhledávat ve vlastních databázích - nikoli prostřednictvím klasického fulltextového vyhledávání, ale prostřednictvím sémanticky relevantních odpovědí. Právě zde vstupuje do hry princip databáze RAG - řešení pro vyhledávání s podporou umělé inteligence, které se skládá ze dvou ústředních komponent:

Číst dál

Místní umělá inteligence na Macu: Jak installiere jazykový model pomocí Ollama

Místní umělá inteligence na Macu je již dlouho praktická - zejména na počítačích Apple-Silicon (řada M). S Ollama získáte štíhlé běhové prostředí pro mnoho otevřených jazykových modelů (např. Llama 3.1/3.2, Mistral, Gemma, Qwen). Současná verze Ollama nyní obsahuje také uživatelsky přívětivou aplikaci, která umožňuje nastavit lokální jazykový model na počítači Mac pouhým kliknutím myši. V tomto článku najdete pragmatického průvodce od instalace až po první výzvu - s praktickými radami, kde se tradičně stávají chyby.

Číst dál