Apple MLX vs. NVIDIA: Jak działa lokalna sztuczna inteligencja na komputerach Mac?

Lokalna sztuczna inteligencja na Silicon z Apple Mac

Każdy, kto pracuje dziś ze sztuczną inteligencją, często najpierw myśli o ChatGPT lub podobnych usługach online. Wpisujesz pytanie, czekasz kilka sekund - i otrzymujesz odpowiedź tak, jakby na drugim końcu linii siedział bardzo oczytany, cierpliwy rozmówca. Ale o czym łatwo zapomnieć: Każde wejście, każde zdanie, każde słowo jest wysyłane do zewnętrznych serwerów przez Internet. To tam wykonywana jest właściwa praca - na ogromnych komputerach, których nigdy nie można zobaczyć.

Zasadniczo lokalny model językowy działa dokładnie w ten sam sposób - ale bez Internetu. Model jest przechowywany jako plik na komputerze użytkownika, jest ładowany do pamięci roboczej podczas uruchamiania i odpowiada na pytania bezpośrednio na urządzeniu. Technologia stojąca za nim jest taka sama: sieć neuronowa, która rozumie język, generuje teksty i rozpoznaje wzorce. Jedyna różnica polega na tym, że całość obliczeń pozostaje w firmie. Można powiedzieć: ChatGPT bez chmury.

Czytaj więcej

Szkolenie LoRA: Jak FileMaker 2025 upraszcza dostrajanie dużych modeli językowych

Dokładne dostrojenie LoRA - FileMaker 2025

Świat sztucznej inteligencji jest w ciągłym ruchu. Nowe modele, nowe metody, a przede wszystkim nowe możliwości pojawiają się niemal co tydzień - a jednak jedno pozostaje niezmienne: nie każda innowacja techniczna automatycznie prowadzi do lepszego życia codziennego. Wiele rzeczy pozostaje eksperymentalnych, złożonych lub po prostu zbyt kosztownych do produktywnego wykorzystania. Jest to szczególnie widoczne w tak zwanym dostrajaniu dużych modeli językowych - metodzie specjalizacji generatywnej sztucznej inteligencji do własnych treści, terminów i tonacji.

Towarzyszyłem temu procesowi intensywnie przez ostatnie kilka miesięcy - najpierw w klasycznej formie, z Pythonem, terminalem, komunikatami o błędach i nerwowymi pętlami konfiguracji. A potem: z FileMaker 2025, krokiem, który mnie zaskoczył - bo nie był głośny, ale wyraźny. I dlatego, że pokazał, że jest inny sposób.

Czytaj więcej

Faktury elektroniczne dla MŚP: XRechnung, ZUGFeRD i ERP w skrócie

Przegląd obowiązku wystawiania faktur elektronicznych

Niemcy nie wymyśliły e-faktury z dnia na dzień - jest ona wynikiem wieloletnich prac normalizacyjnych (EN 16931), przepisów federalnych i krajowych (B2G), a teraz, dzięki ustawie o możliwościach rozwoju, stopniowej ekspansji na codzienne życie B2B. Od 1 stycznia 2025 r. obowiązuje nowa sytuacja prawna: „faktura elektroniczna“ jest e-fakturą tylko wtedy, gdy jest ustrukturyzowana i nadaje się do odczytu maszynowego - czyste załączniki PDF przesyłane pocztą elektroniczną nie są już e-fakturą zgodnie z definicją. Brzmi to technicznie, ale ma konsekwencje operacyjne, od odbioru faktury po księgowość i archiwizację.

Czytaj więcej

gFM-Business i przyszłość ERP: lokalna inteligencja zamiast zależności od chmury

gFM-Business i sztuczna inteligencja + graf wiedzy

Od ponad dekady oprogramowanie gFM-Business jest synonimem czegoś wyjątkowego na niemieckim rynku ERP: nie jest oparte na uciążliwym, trudnym w utrzymaniu systemie, ale na lekkiej, konfigurowalnej i wizualnie modelowanej platformie FileMaker. Ma to wiele zalet: gFM-Business może być indywidualnie rozbudowywany, działa w systemach Windows, macOS i iOS i może być dostosowywany zarówno przez programistów, jak i ambitnych użytkowników.

Wraz z pojawieniem się sztucznej inteligencji (AI) - w szczególności dzięki tak zwanym modelom językowym, takim jak ChatGPT - pojawiają się nowe możliwości, które wykraczają daleko poza tradycyjną automatyzację. gFM-Business aktywnie przygotowuje się na tę przyszłość: w celu nie tylko zarządzania danymi, ale także odblokowywania wiedzy.

Czytaj więcej

Konferencja FileMaker 2025: Sztuczna inteligencja, społeczność i nieoczekiwany incydent

FileMaker Konferencja 2025: Alarm pożarowy z udziałem straży pożarnej

Konferencja FileMaker 2025 w Hamburgu dobiegła końca - i był to szczególny kamień milowy pod wieloma względami. Nie tylko dlatego, że tegoroczna konferencja koncentrowała się na wielu tematach związanych ze sztuczną inteligencją, wydajnością i nowoczesnymi przepływami pracy - ale także dlatego, że osobista wymiana i „rodzinna atmosfera“ społeczności FileMaker po raz kolejny dały o sobie znać. Dla mnie osobiście był to intensywny, inspirujący i wszechstronnie wzbogacający czas - już od pierwszego wieczoru.

Czytaj więcej

Integracja MLX w FileMaker 2025: Lokalna sztuczna inteligencja jako nowy standard

Lokalna sztuczna inteligencja z MLX i FileMaker

Podczas gdy MLX został pierwotnie uruchomiony jako eksperymentalny framework przez Apple Research, w ostatnich miesiącach nastąpił cichy, ale znaczący rozwój: Wraz z wydaniem FileMaker 2025, Claris mocno zintegrował MLX z serwerem jako natywną infrastrukturę AI dla Apple Silicon. Oznacza to, że każdy, kto pracuje z komputerem Mac i polega na Apple Silicon, może nie tylko uruchamiać modele MLX lokalnie, ale także używać ich bezpośrednio w FileMaker - z natywnymi funkcjami, bez żadnych warstw pośrednich.

Czytaj więcej

Do zobaczenia na konferencji FileMaker FMK 2025 w Hamburgu?

FileMaker Konferencja FMK2025

W dniach 15-17 września 2025 r. niemieckojęzyczna społeczność FileMaker spotka się w JUFA Hotel Hamburg HafenCity, aby omówić najnowsze osiągnięcia, trendy i najlepsze praktyki podczas konferencji FileMaker (FMK 2025). Od ponad dziesięciu lat konferencja ta jest uważana za najważniejsze wydarzenie dla programistów, użytkowników i decydentów w sektorze Claris FileMaker - i cieszę się, że w tym roku znów będę tam osobiście.

Czytaj więcej

Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu

Pamięć dla lokalnej sztucznej inteligencji z Ollama i Qdrant

Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań

W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.

Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.

Czytaj więcej