Konferencja FileMaker 2025 w Hamburgu dobiegła końca - i był to szczególny kamień milowy pod wieloma względami. Nie tylko dlatego, że tegoroczna konferencja koncentrowała się na wielu tematach związanych ze sztuczną inteligencją, wydajnością i nowoczesnymi przepływami pracy - ale także dlatego, że osobista wymiana i „rodzinna atmosfera“ społeczności FileMaker po raz kolejny dały o sobie znać. Dla mnie osobiście był to intensywny, inspirujący i wszechstronnie wzbogacający czas - już od pierwszego wieczoru.
Sztuczna inteligencja
Künstliche Intelligenz beschreibt den Versuch, Maschinen das Denken beizubringen – nicht im Sinne eines Bewusstseins, sondern als Fähigkeit, Muster zu erkennen, Entscheidungen zu treffen und komplexe Aufgaben zu bewältigen. Von Sprachmodellen über Bilderzeugung bis hin zu autonomen Systemen verändert KI heute nahezu jede Branche und eröffnet Möglichkeiten, die vor wenigen Jahren noch als Science-Fiction galten. Gleichzeitig wirft sie Fragen auf: Wie zuverlässig sind solche Systeme? Wo liegen ihre Grenzen? Und wie wirken sie sich auf Gesellschaft, Wirtschaft und persönliche Freiheit aus? Dieses Schlagwort bündelt Hintergründe, Entwicklungen und praktische Anwendungen der Künstlichen Intelligenz – verständlich erklärt und kritisch eingeordnet.
MLX na Apple Silicon jako lokalna sztuczna inteligencja w porównaniu z Ollama & Co.
W czasach, gdy scentralizowane usługi AI, takie jak ChatGPT, Claude czy Gemini, dominują na pierwszych stronach gazet, wielu profesjonalnych użytkowników ma rosnące zapotrzebowanie na alternatywę - lokalną, samokontrolującą się infrastrukturę AI. Zwłaszcza w przypadku procesów kreatywnych, wrażliwych danych lub powtarzających się przepływów pracy, lokalne rozwiązanie jest często bardziej zrównoważoną i bezpieczną opcją.
Każdy, kto pracuje z komputerem Mac - zwłaszcza z Apple Silicon (M1, M2, M3 lub M4) - może teraz znaleźć niesamowicie potężne narzędzia do uruchamiania własnych modeli językowych bezpośrednio na urządzeniu. W centrum tego wszystkiego znajduje się nowy, w dużej mierze nieznany komponent: MLX, platforma uczenia maszynowego opracowana przez Apple, która prawdopodobnie będzie odgrywać coraz większą rolę w ekosystemie sztucznej inteligencji firmy w nadchodzących latach.
RAG z Ollama i Qdrant jako uniwersalna wyszukiwarka własnych danych
W coraz bardziej zagmatwanym świecie informacji coraz ważniejsze staje się umożliwienie przeszukiwania własnych baz danych w ukierunkowany sposób - nie poprzez klasyczne wyszukiwanie pełnotekstowe, ale poprzez semantycznie istotne odpowiedzi. Właśnie w tym miejscu do gry wkracza baza danych RAG - rozwiązanie wyszukiwania wspierane przez sztuczną inteligencję, składające się z dwóch centralnych komponentów:
Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu
Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań
W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.
Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.
Lokalna sztuczna inteligencja na Macu: jak installiere model językowy z Ollama
Lokalna sztuczna inteligencja na komputerach Mac od dawna jest praktyczna - zwłaszcza na komputerach Apple-Silicon (seria M). Wraz z Ollama otrzymujemy odchudzone środowisko uruchomieniowe dla wielu modeli językowych open source (np. Llama 3.1/3.2, Mistral, Gemma, Qwen). Aktualna wersja Ollama jest teraz również dostarczana z przyjazną dla użytkownika aplikacją, która pozwala skonfigurować lokalny model językowy na komputerze Mac jednym kliknięciem myszy. W tym artykule znajdziesz pragmatyczny przewodnik od instalacji do pierwszego monitu - z praktycznymi wskazówkami na temat tego, gdzie rzeczy tradycyjnie idą źle.
Przejrzystość w kryzysie: jak sztuczna inteligencja otwiera nowe perspektywy
Kryzysy są częścią życia. Ale podczas gdy wielu doświadcza ich jako bolesnej przerwy lub nawet jako osobistej porażki, Markus Schall pokazuje inną perspektywę w tej niezwykłej książce: Właściwie zrozumiane kryzysy mogą stać się głębokimi punktami zwrotnymi. Szansami, które umożliwiają rozwój. Momentami, w których nasze myśli, działania i uczucia mogą zostać zreorganizowane.
Z wyczuciem ludzkiego doświadczenia, w połączeniu z praktyczną mądrością życiową i refleksyjnym wykorzystaniem sztucznej inteligencji, autor zabiera czytelnika w podróż przez wewnętrzne krajobrazy - bez wskazywania palcem, ale ze szczerą zachętą. Książka nie jest pomyślana jako praca akademicka, ale jako prawdziwy towarzysz życia dla każdego, kto chce zmienić orientację - czy to po separacji, chorobie, trudnościach finansowych czy wstrząsach społecznych.