Místní umělá inteligence na Macu je již dlouho praktická - zejména na počítačích Apple-Silicon (řada M). S Ollama získáte štíhlé běhové prostředí pro mnoho otevřených jazykových modelů (např. Llama 3.1/3.2, Mistral, Gemma, Qwen). Současná verze Ollama nyní obsahuje také uživatelsky přívětivou aplikaci, která umožňuje nastavit lokální jazykový model na počítači Mac pouhým kliknutím myši. V tomto článku najdete pragmatického průvodce od instalace až po první výzvu - s praktickými radami, kde se tradičně stávají chyby.
LLaMA
Článek na téma jazykových modelů LLaMA z časopisu Meta. Zahrnuje základy, možné aplikace, benchmarky a praktické zkušenosti s místními instalacemi.