Snad žádná jiná technologická změna nepronikla do našeho každodenního života tak rychle jako umělá inteligence. To, co bylo ještě včera považováno za vizionářskou technologii budoucnosti, je dnes již realitou - ať už jde o psaní textových zpráv, programování, diagnostiku, překlady nebo dokonce tvorbu hudby, umění či právních spisů.
Ollama
Příspěvky o Ollama, platformě pro místní modely umělé inteligence. Najdete zde návody, zkušenosti a tipy pro použití v každodenním životě i v podnikání.
MLX na Apple Silicon jako místní AI ve srovnání s Ollama & Co.
V době, kdy na titulních stránkách novin dominují centralizované služby AI, jako jsou ChatGPT, Claude nebo Gemini, roste u mnoha profesionálních uživatelů potřeba alternativy - lokální, samostatně ovladatelné infrastruktury AI. Zejména v případě kreativních procesů, citlivých dat nebo opakujících se pracovních postupů je lokální řešení často udržitelnější a bezpečnější variantou.
Každý, kdo pracuje s počítačem Mac - zejména s Apple Silicon (M1, M2, M3 nebo M4) - může nyní najít úžasně výkonné nástroje pro spouštění vlastních jazykových modelů přímo v zařízení. Jejich středobodem je nová, do značné míry neznámá komponenta: MLX, framework pro strojové učení vyvinutý společností Apple, který bude v příštích letech pravděpodobně hrát v ekosystému umělé inteligence společnosti stále větší roli.
RAG s Ollama a Qdrant jako univerzální vyhledávač vlastních dat
Ve stále nepřehlednějším světě informací je stále důležitější, aby bylo možné cíleně vyhledávat ve vlastních databázích - nikoli prostřednictvím klasického fulltextového vyhledávání, ale prostřednictvím sémanticky relevantních odpovědí. Právě zde vstupuje do hry princip databáze RAG - řešení pro vyhledávání s podporou umělé inteligence, které se skládá ze dvou ústředních komponent:
Ollama a Qdrant: Místní paměť pro vaši umělou inteligenci na Macu
Místní AI s pamětí - bez cloudu, bez předplatného, bez odklonů
V předchozí články Vysvětlil jsem, jak nakonfigurovat Ollama na Macu install. Pokud jste již tento krok dokončili, máte nyní k dispozici výkonný místní jazykový model - například Mistral, LLaMA3 nebo jiný kompatibilní model, který lze oslovit prostřednictvím rozhraní REST API.
Model však "ví" pouze to, co je v aktuální výzvě. Nepamatuje si předchozí konverzace. Chybí vzpomínka.
Místní umělá inteligence na Macu: Jak installiere jazykový model pomocí Ollama
Místní umělá inteligence na Macu je již dlouho praktická - zejména na počítačích Apple-Silicon (řada M). S Ollama získáte štíhlé běhové prostředí pro mnoho otevřených jazykových modelů (např. Llama 3.1/3.2, Mistral, Gemma, Qwen). Současná verze Ollama nyní obsahuje také uživatelsky přívětivou aplikaci, která umožňuje nastavit lokální jazykový model na počítači Mac pouhým kliknutím myši. V tomto článku najdete pragmatického průvodce od instalace až po první výzvu - s praktickými radami, kde se tradičně stávají chyby.