Żadna inna zmiana technologiczna nie wkradła się do naszego codziennego życia tak szybko jak sztuczna inteligencja. To, co wczoraj uważano za wizjonerską technologię przyszłości, dziś jest już rzeczywistością - czy to w pisaniu SMS-ów, programowaniu, diagnozowaniu, tłumaczeniu, czy nawet tworzeniu muzyki, sztuki lub briefów prawnych.
LLM
Artykuły na temat dużych modeli językowych (LLM), takich jak GPT, Mistral lub Mixtral. Pokazują przypadki użycia, podstawy techniczne i praktyczne wskazówki dotyczące wykorzystania w biznesie.
MLX na Apple Silicon jako lokalna sztuczna inteligencja w porównaniu z Ollama & Co.
W czasach, gdy scentralizowane usługi AI, takie jak ChatGPT, Claude czy Gemini, dominują na pierwszych stronach gazet, wielu profesjonalnych użytkowników ma rosnące zapotrzebowanie na alternatywę - lokalną, samokontrolującą się infrastrukturę AI. Zwłaszcza w przypadku procesów kreatywnych, wrażliwych danych lub powtarzających się przepływów pracy, lokalne rozwiązanie jest często bardziej zrównoważoną i bezpieczną opcją.
Każdy, kto pracuje z komputerem Mac - zwłaszcza z Apple Silicon (M1, M2, M3 lub M4) - może teraz znaleźć niesamowicie potężne narzędzia do uruchamiania własnych modeli językowych bezpośrednio na urządzeniu. W centrum tego wszystkiego znajduje się nowy, w dużej mierze nieznany komponent: MLX, platforma uczenia maszynowego opracowana przez Apple, która prawdopodobnie będzie odgrywać coraz większą rolę w ekosystemie sztucznej inteligencji firmy w nadchodzących latach.
RAG z Ollama i Qdrant jako uniwersalna wyszukiwarka własnych danych
W coraz bardziej zagmatwanym świecie informacji coraz ważniejsze staje się umożliwienie przeszukiwania własnych baz danych w ukierunkowany sposób - nie poprzez klasyczne wyszukiwanie pełnotekstowe, ale poprzez semantycznie istotne odpowiedzi. Właśnie w tym miejscu do gry wkracza baza danych RAG - rozwiązanie wyszukiwania wspierane przez sztuczną inteligencję, składające się z dwóch centralnych komponentów:
Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu
Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań
W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.
Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.
Lokalna sztuczna inteligencja na Macu: jak installiere model językowy z Ollama
Lokalna sztuczna inteligencja na komputerach Mac od dawna jest praktyczna - zwłaszcza na komputerach Apple-Silicon (seria M). Wraz z Ollama otrzymujemy odchudzone środowisko uruchomieniowe dla wielu modeli językowych open source (np. Llama 3.1/3.2, Mistral, Gemma, Qwen). Aktualna wersja Ollama jest teraz również dostarczana z przyjazną dla użytkownika aplikacją, która pozwala skonfigurować lokalny model językowy na komputerze Mac jednym kliknięciem myszy. W tym artykule znajdziesz pragmatyczny przewodnik od instalacji do pierwszego monitu - z praktycznymi wskazówkami na temat tego, gdzie rzeczy tradycyjnie idą źle.