Trénink LoRA: Jak FileMaker 2025 zjednodušuje ladění velkých jazykových modelů

Jemné ladění LoRA - FileMaker 2025

Svět umělé inteligence je v pohybu. Téměř každý týden se objevují nové modely, nové metody a především nové možnosti - a přesto zůstává jedno poznání neměnné: ne každá technická inovace automaticky vede k lepšímu každodennímu životu. Mnoho věcí zůstává experimentálních, složitých nebo jednoduše příliš nákladných pro produktivní využití. Zvláště patrné je to u tzv. jemného ladění velkých jazykových modelů - metody specializace generativní umělé inteligence na vlastní obsah, termíny a tóniny.

V posledních měsících jsem tento proces intenzivně doprovázel - nejprve v klasické podobě s Pythonem, terminálem, chybovými hlášeními a nervy drásajícími nastavovacími smyčkami. A pak: s FileMaker 2025, krokem, který mě překvapil - protože nebyl hlasitý, ale jasný. A protože ukázal, že existuje i jiná cesta.

Číst dál

Jak lze dnes školit odborníky na umělou inteligenci - příležitosti pro firmy a stážisty

Školení specialistů na umělou inteligenci

Ještě před několika lety byla umělá inteligence tématem pro výzkumné instituce a velké korporace. Mluvilo se o neuronových sítích, hlubokém učení a rozpoznávání řeči - ale v běžném životě to téměř nehrálo roli. Dnes už umělá inteligence není tématem budoucnosti, ale realitou: píše texty, vytváří obrázky, analyzuje data a řídí výrobní procesy. Ať už v administrativě, obchodě nebo průmyslu - dnes se s ní setkáte všude.

Číst dál

gFM-Business a budoucnost ERP: lokální inteligence místo závislosti na cloudu

gFM-Business a AI + znalostní graf

Již více než deset let představuje software gFM-Business na německém trhu ERP něco výjimečného: není založen na těžkopádném a obtížně udržovatelném systému, ale na lehké, přizpůsobitelné a vizuálně modelované platformě FileMaker. To má mnoho výhod: gFM-Business lze individuálně rozšiřovat, běží na systémech Windows, macOS a iOS a mohou si jej přizpůsobit jak vývojáři, tak ambiciózní zkušení uživatelé.

S nástupem umělé inteligence (AI) - zejména prostřednictvím tzv. jazykových modelů, jako je ChatGPT - se objevují nové možnosti, které dalece přesahují tradiční automatizaci. Společnost gFM-Business se na tuto budoucnost aktivně připravuje: s cílem nejen spravovat data, ale také odemykat znalosti.

Číst dál

Umělá inteligence: která pracovní místa jsou ohrožena a jak se můžeme vyzbrojit hned teď

Která pracovní místa budou v budoucnu zrušena umělou inteligencí?

Snad žádná jiná technologická změna nepronikla do našeho každodenního života tak rychle jako umělá inteligence. To, co bylo ještě včera považováno za vizionářskou technologii budoucnosti, je dnes již realitou - ať už jde o psaní textových zpráv, programování, diagnostiku, překlady nebo dokonce tvorbu hudby, umění či právních spisů.

Číst dál

MLX na Apple Silicon jako místní AI ve srovnání s Ollama & Co.

Místní umělá inteligence na Macu s MLX

V době, kdy na titulních stránkách novin dominují centralizované služby AI, jako jsou ChatGPT, Claude nebo Gemini, roste u mnoha profesionálních uživatelů potřeba alternativy - lokální, samostatně ovladatelné infrastruktury AI. Zejména v případě kreativních procesů, citlivých dat nebo opakujících se pracovních postupů je lokální řešení často udržitelnější a bezpečnější variantou.

Každý, kdo pracuje s počítačem Mac - zejména s Apple Silicon (M1, M2, M3 nebo M4) - může nyní najít úžasně výkonné nástroje pro spouštění vlastních jazykových modelů přímo v zařízení. Jejich středobodem je nová, do značné míry neznámá komponenta: MLX, framework pro strojové učení vyvinutý společností Apple, který bude v příštích letech pravděpodobně hrát v ekosystému umělé inteligence společnosti stále větší roli.

Číst dál

RAG s Ollama a Qdrant jako univerzální vyhledávač vlastních dat

Rozšíření místní umělé inteligence o databáze pomocí RAG, Ollama a Qdrant

Ve stále nepřehlednějším světě informací je stále důležitější, aby bylo možné cíleně vyhledávat ve vlastních databázích - nikoli prostřednictvím klasického fulltextového vyhledávání, ale prostřednictvím sémanticky relevantních odpovědí. Právě zde vstupuje do hry princip databáze RAG - řešení pro vyhledávání s podporou umělé inteligence, které se skládá ze dvou ústředních komponent:

Číst dál

Ollama a Qdrant: Místní paměť pro vaši umělou inteligenci na Macu

Paměť pro místní umělou inteligenci s Ollama a Qdrant

Místní AI s pamětí - bez cloudu, bez předplatného, bez odklonů

V předchozí články Vysvětlil jsem, jak nakonfigurovat Ollama na Macu install. Pokud jste již tento krok dokončili, máte nyní k dispozici výkonný místní jazykový model - například Mistral, LLaMA3 nebo jiný kompatibilní model, který lze oslovit prostřednictvím rozhraní REST API.

Model však "ví" pouze to, co je v aktuální výzvě. Nepamatuje si předchozí konverzace. Chybí vzpomínka.

Číst dál

Místní umělá inteligence na Macu: Jak installiere jazykový model pomocí Ollama

Místní umělá inteligence na Macu je již dlouho praktická - zejména na počítačích Apple-Silicon (řada M). S Ollama získáte štíhlé běhové prostředí pro mnoho otevřených jazykových modelů (např. Llama 3.1/3.2, Mistral, Gemma, Qwen). Současná verze Ollama nyní obsahuje také uživatelsky přívětivou aplikaci, která umožňuje nastavit lokální jazykový model na počítači Mac pouhým kliknutím myši. V tomto článku najdete pragmatického průvodce od instalace až po první výzvu - s praktickými radami, kde se tradičně stávají chyby.

Číst dál