gFM-Business a budoucnost ERP: lokální inteligence místo závislosti na cloudu

gFM-Business a AI + znalostní graf

Již více než deset let představuje software gFM-Business na německém trhu ERP něco výjimečného: není založen na těžkopádném a obtížně udržovatelném systému, ale na lehké, přizpůsobitelné a vizuálně modelované platformě FileMaker. To má mnoho výhod: gFM-Business lze individuálně rozšiřovat, běží na systémech Windows, macOS a iOS a mohou si jej přizpůsobit jak vývojáři, tak ambiciózní zkušení uživatelé.

S nástupem umělé inteligence (AI) - zejména prostřednictvím tzv. jazykových modelů, jako je ChatGPT - se objevují nové možnosti, které dalece přesahují tradiční automatizaci. Společnost gFM-Business se na tuto budoucnost aktivně připravuje: s cílem nejen spravovat data, ale také odemykat znalosti.

Číst dál

Integrace MLX do FileMaker 2025: Místní umělá inteligence jako nový standard

Místní AI s MLX a FileMaker

Zatímco MLX byl původně spuštěn jako experimentální rámec společností Apple Research, v posledních měsících došlo k tichému, ale významnému vývoji: S vydáním FileMaker 2025 společnost Claris pevně integrovala MLX do serveru jako nativní infrastrukturu AI pro Apple Silicon. To znamená, že každý, kdo pracuje s počítačem Mac a používá Apple Silicon, může nejen lokálně spouštět modely MLX, ale také je používat přímo v FileMaker - s nativními funkcemi, bez jakýchkoli mezivrstev.

Číst dál

MLX na Apple Silicon jako místní AI ve srovnání s Ollama & Co.

Místní umělá inteligence na Macu s MLX

V době, kdy na titulních stránkách novin dominují centralizované služby AI, jako jsou ChatGPT, Claude nebo Gemini, roste u mnoha profesionálních uživatelů potřeba alternativy - lokální, samostatně ovladatelné infrastruktury AI. Zejména v případě kreativních procesů, citlivých dat nebo opakujících se pracovních postupů je lokální řešení často udržitelnější a bezpečnější variantou.

Každý, kdo pracuje s počítačem Mac - zejména s Apple Silicon (M1, M2, M3 nebo M4) - může nyní najít úžasně výkonné nástroje pro spouštění vlastních jazykových modelů přímo v zařízení. Jejich středobodem je nová, do značné míry neznámá komponenta: MLX, framework pro strojové učení vyvinutý společností Apple, který bude v příštích letech pravděpodobně hrát v ekosystému umělé inteligence společnosti stále větší roli.

Číst dál

Místní umělá inteligence na Macu: Jak installiere jazykový model pomocí Ollama

Místní AI installieren s Ollama na Macu

Místní umělá inteligence na Macu je již dlouho praktická - zejména na počítačích Apple-Silicon (řada M). S Ollama získáte štíhlé běhové prostředí pro mnoho otevřených jazykových modelů (např. Llama 3.1/3.2, Mistral, Gemma, Qwen). Současná verze Ollama nyní obsahuje také uživatelsky přívětivou aplikaci, která umožňuje nastavit lokální jazykový model na počítači Mac pouhým kliknutím myši. V tomto článku najdete pragmatického průvodce od instalace až po první výzvu - s praktickými radami, kde se tradičně stávají chyby.

Číst dál