Kiedy słyszymy słowo lit, wiele osób najpierw myśli o nowoczesnych akumulatorach, technologii baterii lub - ze sceptycznym spojrzeniem - lekach psychotropowych. Lit jest jednak czymś znacznie więcej: jest to naturalnie występujący pierwiastek śladowy, który jest obecny w naszym środowisku od niepamiętnych czasów - w skałach, w wodzie, a także w niewielkich ilościach w żywności pochodzenia roślinnego.
Wskazówki i instrukcje
W tej kategorii znajdziesz Praktyczne wskazówki, instrukcje krok po kroku i praktyczne przewodniki na różne tematy związane z technologią, biznesem i życiem codziennym. Artykuły pokazują w zrozumiały i przystępny sposób, jak rozwiązywać typowe problemy, efektywnie korzystać z oprogramowania lub wypróbowywać nowe sposoby pracy. Niezależnie od tego, czy chodzi o Urządzenia Apple, FileMaker, Oprogramowanie ERP, Tematy dotyczące zdrowia lub inne praktyczne kwestie - nacisk kładziony jest tutaj na konkretne korzyści. Instrukcje są skonstruowane w taki sposób, że można je wdrożyć bezpośrednio i szybko pomóc w codziennym życiu lub w firmie.
Integracja MLX w FileMaker 2025: Lokalna sztuczna inteligencja jako nowy standard
Podczas gdy MLX został pierwotnie uruchomiony jako eksperymentalny framework przez Apple Research, w ostatnich miesiącach nastąpił cichy, ale znaczący rozwój: Wraz z wydaniem FileMaker 2025, Claris mocno zintegrował MLX z serwerem jako natywną infrastrukturę AI dla Apple Silicon. Oznacza to, że każdy, kto pracuje z komputerem Mac i polega na Apple Silicon, może nie tylko uruchamiać modele MLX lokalnie, ale także używać ich bezpośrednio w FileMaker - z natywnymi funkcjami, bez żadnych warstw pośrednich.
Dlaczego samo oprogramowanie ERP nie wystarczy - i jak naprawdę zrozumieć procesy?
W wielu firmach przebiega to zawsze według tego samego schematu: w pewnym momencie kierownictwo zdaje sobie sprawę, że „coś przestało działać płynnie“. Być może procesy stały się zbyt powolne, gromadzą się błędy lub firma coraz bardziej traci kontrolę nad danymi liczbowymi, klientami lub procesami wewnętrznymi. Głośne staje się wołanie o nowe oprogramowanie - najlepiej nowoczesne, wydajne oprogramowanie ERP, które „może wszystko“. Ale to właśnie tutaj często zaczyna się fatalny błąd.
Jak napisałem pięć książek w dwóch językach w cztery miesiące
...i dlaczego nie jest to cud, ale wynik jasnej strategii
Przez długi czas pisanie książek było postrzegane jako coś żmudnego - samotny projekt, który ciągnie się miesiącami, a nawet latami. Ale co by się stało, gdyby porzucić ten obraz? A gdyby tak przemyśleć pisanie na nowo - z wyraźnym ukierunkowaniem, przemyślanymi procesami i ukierunkowanym wykorzystaniem sztucznej inteligencji?
W mojej nowej książce „Pisanie książek 2.0 - praktyczny przewodnik dla autorów w dobie sztucznej inteligencji“ Opisuję dokładnie tę ścieżkę. Ścieżkę, która pozwoliła mi napisać pięć książek w zaledwie cztery miesiące, opublikować je w dwóch językach - i nie zaakceptować żadnej utraty jakości w porównaniu z tradycyjnym wydawnictwem.
Pisanie książek 2.0 - praktyczny przewodnik dla autorów w dobie sztucznej inteligencji
Ta książka nie przedstawia spekulatywnych wizji przyszłości, ale dobrze uzasadnioną, praktyczną odpowiedź z codziennego życia autora, który sam pisze ze sztuczną inteligencją - i celowo koncentruje się nie na automatyzacji, ale na autonomii. „Pisanie książek 2.0“ jest skierowany do każdego, kto myśli o napisaniu własnej książki - lub jest już w trakcie tego procesu - i zastanawia się, w jaki sposób można dobrze wykorzystać nowoczesne narzędzia, takie jak ChatGPT, generatory obrazów AI lub pomoce tłumaczeniowe. Skupiamy się nie na „gotowych produktach AI“, ale na holistycznym podejściu: AI jako narzędzie, ludzie jako autorzy.
Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu
Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań
W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.
Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.
Lokalna sztuczna inteligencja na Macu: jak installiere model językowy z Ollama
Lokalna sztuczna inteligencja na komputerach Mac od dawna jest praktyczna - zwłaszcza na komputerach Apple-Silicon (seria M). Wraz z Ollama otrzymujemy odchudzone środowisko uruchomieniowe dla wielu modeli językowych open source (np. Llama 3.1/3.2, Mistral, Gemma, Qwen). Aktualna wersja Ollama jest teraz również dostarczana z przyjazną dla użytkownika aplikacją, która pozwala skonfigurować lokalny model językowy na komputerze Mac jednym kliknięciem myszy. W tym artykule znajdziesz pragmatyczny przewodnik od instalacji do pierwszego monitu - z praktycznymi wskazówkami na temat tego, gdzie rzeczy tradycyjnie idą źle.
Porady zdrowotne (nie tylko) dla użytkowników FileMaker
Rozwój oprogramowania ERP gFM-Business był nieco wolniejszy niż zwykle w ciągu ostatniego półtora roku, ponieważ jako twórca oprogramowania miałem do czynienia z dziwnymi objawami choroby, w których nie było łatwo znaleźć przyczynę. Mimo że medycyna konwencjonalna nie była w moim przypadku prawdziwą pomocą, byłem w stanie znaleźć przyczyny i wyeliminować moje problemy przy aktywnym wsparciu niektórych alternatywnych praktyków i holistycznego dentysty. Ponieważ wyniki tych badań są tak interesujące, zdecydowałem się napisać krótki artykuł na ten temat, abyś jako czytelnik również mógł z niego skorzystać. Poniżej znajdziesz moje ulubione porady, nie zarabiam nic na polecaniu i nie używam żadnych linków zwrotnych.