Lokalna sztuczna inteligencja na komputerach Mac od dawna jest praktyczna - zwłaszcza na komputerach Apple-Silicon (seria M). Wraz z Ollama otrzymujemy odchudzone środowisko uruchomieniowe dla wielu modeli językowych open source (np. Llama 3.1/3.2, Mistral, Gemma, Qwen). Aktualna wersja Ollama jest teraz również dostarczana z przyjazną dla użytkownika aplikacją, która pozwala skonfigurować lokalny model językowy na komputerze Mac jednym kliknięciem myszy. W tym artykule znajdziesz pragmatyczny przewodnik od instalacji do pierwszego monitu - z praktycznymi wskazówkami na temat tego, gdzie rzeczy tradycyjnie idą źle.
LLaMA
Artykuł na temat modeli językowych LLaMA od Meta. Obejmuje podstawy, możliwe zastosowania, testy porównawcze i praktyczne doświadczenia z lokalnymi instalacjami.