AI Studio 2025: Který hardware se opravdu vyplatí - od Mac Studia po RTX 3090

Hardware 2025 pro studio AI

Každý, kdo dnes pracuje s umělou inteligencí, je téměř automaticky odsunut do cloudu: OpenAI, Microsoft, Google, jakákoli webová uživatelská rozhraní, tokeny, limity, podmínky. Zdá se to být moderní - ale v podstatě jde o návrat k závislosti: jiní určují, které modely smíte používat, jak často, s jakými filtry a za jakou cenu. Záměrně jdu opačnou cestou: v současné době si doma buduji vlastní malé studio umělé inteligence. S vlastním hardwarem, vlastními modely a vlastními pracovními postupy.

Můj cíl je jasný: lokální textová AI, lokální obrazová AI, učení vlastních modelů (LoRA, dolaďování) a to vše tak, abych jako freelancer a později i zákazník SME nebyl závislý na každodenních rozmarech nějakého poskytovatele cloudu. Dalo by se říci, že je to návrat ke starému přístupu, který býval zcela běžný: „Důležité věci si děláš sám“. Jenže tentokrát nejde o vlastní pracovní stůl, ale o výpočetní výkon a suverenitu dat.

Číst dál

gFM-Business a budoucnost ERP: lokální inteligence místo závislosti na cloudu

gFM-Business a AI + znalostní graf

Již více než deset let představuje software gFM-Business na německém trhu ERP něco výjimečného: není založen na těžkopádném a obtížně udržovatelném systému, ale na lehké, přizpůsobitelné a vizuálně modelované platformě FileMaker. To má mnoho výhod: gFM-Business lze individuálně rozšiřovat, běží na systémech Windows, macOS a iOS a mohou si jej přizpůsobit jak vývojáři, tak ambiciózní zkušení uživatelé.

S nástupem umělé inteligence (AI) - zejména prostřednictvím tzv. jazykových modelů, jako je ChatGPT - se objevují nové možnosti, které dalece přesahují tradiční automatizaci. Společnost gFM-Business se na tuto budoucnost aktivně připravuje: s cílem nejen spravovat data, ale také odemykat znalosti.

Číst dál

Ollama a Qdrant: Místní paměť pro vaši umělou inteligenci na Macu

Paměť pro místní umělou inteligenci s Ollama a Qdrant

Místní AI s pamětí - bez cloudu, bez předplatného, bez odklonů

V předchozí články Vysvětlil jsem, jak nakonfigurovat Ollama na Macu install. Pokud jste již tento krok dokončili, máte nyní k dispozici výkonný místní jazykový model - například Mistral, LLaMA3 nebo jiný kompatibilní model, který lze oslovit prostřednictvím rozhraní REST API.

Model však "ví" pouze to, co je v aktuální výzvě. Nepamatuje si předchozí konverzace. Chybí vzpomínka.

Číst dál