Cloudová umělá inteligence jako ředitel: proč je budoucnost práce v lokální umělé inteligenci

Cloudová umělá inteligence se stává hlavním učitelem

Když před několika lety zahájily velké jazykové modely svůj triumfální pochod, vypadalo to téměř jako návrat ke starým ctnostem technologie: nástroj, který dělá to, co se mu řekne. Nástroj, který slouží uživateli, nikoli naopak. První verze - od GPT-3 po GPT-4 - měly slabiny, to ano, ale byly úžasně užitečné. Vysvětlovaly, analyzovaly, formulovaly a řešily úlohy. A to převážně bez pedagogického balastu.

S těmito modely jste mluvili, jako byste mluvili s erudovaným zaměstnancem, který se sice občas spletl ve slovech, ale v podstatě prostě pracoval. Každý, kdo tehdy psal tvůrčí texty, generoval programový kód nebo vytvářel delší analýzy, zažil, jak hladce to funguje. Byl tu pocit svobody, otevřeného tvůrčího prostoru, technologie, která lidi podporovala, místo aby je opravovala.

Číst dál

Apple MLX vs. NVIDIA: Jak funguje místní odvozování umělé inteligence na Macu

Místní umělá inteligence na Silicon s Apple Macem

Každý, kdo dnes pracuje s umělou inteligencí, si často nejprve vybaví ChatGPT nebo podobné online služby. Zadáte otázku, počkáte několik sekund - a dostanete odpověď, jako by na druhém konci linky seděl velmi sečtělý a trpělivý partner pro dialog. Na co se však snadno zapomíná: Každý vstup, každá věta, každé slovo putuje přes internet na externí servery. Tam se odehrává skutečná práce - na obrovských počítačích, které sami nikdy neuvidíte.

Model místního jazyka funguje v zásadě stejně, ale bez internetu. Model je uložen jako soubor na vlastním počítači uživatele, při spuštění se načte do pracovní paměti a odpovídá na otázky přímo v zařízení. Technologie, která za ním stojí, je stejná: neuronová síť, která rozumí jazyku, generuje texty a rozpoznává vzory. Jediný rozdíl je v tom, že celý výpočet zůstává ve vlastní režii. Dalo by se říct: ChatGPT bez cloudu.

Číst dál

Umělá inteligence: která pracovní místa jsou ohrožena a jak se můžeme vyzbrojit hned teď

Která pracovní místa budou v budoucnu zrušena umělou inteligencí?

Snad žádná jiná technologická změna nepronikla do našeho každodenního života tak rychle jako umělá inteligence. To, co bylo ještě včera považováno za vizionářskou technologii budoucnosti, je dnes již realitou - ať už jde o psaní textových zpráv, programování, diagnostiku, překlady nebo dokonce tvorbu hudby, umění či právních spisů.

Číst dál

MLX na Apple Silicon jako místní AI ve srovnání s Ollama & Co.

Místní umělá inteligence na Macu s MLX

V době, kdy na titulních stránkách novin dominují centralizované služby AI, jako jsou ChatGPT, Claude nebo Gemini, roste u mnoha profesionálních uživatelů potřeba alternativy - lokální, samostatně ovladatelné infrastruktury AI. Zejména v případě kreativních procesů, citlivých dat nebo opakujících se pracovních postupů je lokální řešení často udržitelnější a bezpečnější variantou.

Každý, kdo pracuje s počítačem Mac - zejména s Apple Silicon (M1, M2, M3 nebo M4) - může nyní najít úžasně výkonné nástroje pro spouštění vlastních jazykových modelů přímo v zařízení. Jejich středobodem je nová, do značné míry neznámá komponenta: MLX, framework pro strojové učení vyvinutý společností Apple, který bude v příštích letech pravděpodobně hrát v ekosystému umělé inteligence společnosti stále větší roli.

Číst dál

RAG s Ollama a Qdrant jako univerzální vyhledávač vlastních dat

Rozšíření místní umělé inteligence o databáze pomocí RAG, Ollama a Qdrant

Ve stále nepřehlednějším světě informací je stále důležitější, aby bylo možné cíleně vyhledávat ve vlastních databázích - nikoli prostřednictvím klasického fulltextového vyhledávání, ale prostřednictvím sémanticky relevantních odpovědí. Právě zde vstupuje do hry princip databáze RAG - řešení pro vyhledávání s podporou umělé inteligence, které se skládá ze dvou ústředních komponent:

Číst dál

Ollama a Qdrant: Místní paměť pro vaši umělou inteligenci na Macu

Paměť pro místní umělou inteligenci s Ollama a Qdrant

Místní AI s pamětí - bez cloudu, bez předplatného, bez odklonů

V předchozí články Vysvětlil jsem, jak nakonfigurovat Ollama na Macu install. Pokud jste již tento krok dokončili, máte nyní k dispozici výkonný místní jazykový model - například Mistral, LLaMA3 nebo jiný kompatibilní model, který lze oslovit prostřednictvím rozhraní REST API.

Model však "ví" pouze to, co je v aktuální výzvě. Nepamatuje si předchozí konverzace. Chybí vzpomínka.

Číst dál

Místní umělá inteligence na Macu: Jak installiere jazykový model pomocí Ollama

Místní umělá inteligence na Macu je již dlouho praktická - zejména na počítačích Apple-Silicon (řada M). S Ollama získáte štíhlé běhové prostředí pro mnoho otevřených jazykových modelů (např. Llama 3.1/3.2, Mistral, Gemma, Qwen). Současná verze Ollama nyní obsahuje také uživatelsky přívětivou aplikaci, která umožňuje nastavit lokální jazykový model na počítači Mac pouhým kliknutím myši. V tomto článku najdete pragmatického průvodce od instalace až po první výzvu - s praktickými radami, kde se tradičně stávají chyby.

Číst dál