Lit: zapomniany pierwiastek śladowy? Spojrzenie na mikrodawkowanie

Orotan litu w mikrodawkach

Kiedy słyszymy słowo lit, wiele osób najpierw myśli o nowoczesnych akumulatorach, technologii baterii lub - ze sceptycznym spojrzeniem - lekach psychotropowych. Lit jest jednak czymś znacznie więcej: jest to naturalnie występujący pierwiastek śladowy, który jest obecny w naszym środowisku od niepamiętnych czasów - w skałach, w wodzie, a także w niewielkich ilościach w żywności pochodzenia roślinnego.

Czytaj więcej

Integracja MLX w FileMaker 2025: Lokalna sztuczna inteligencja jako nowy standard

Lokalna sztuczna inteligencja z MLX i FileMaker

Podczas gdy MLX został pierwotnie uruchomiony jako eksperymentalny framework przez Apple Research, w ostatnich miesiącach nastąpił cichy, ale znaczący rozwój: Wraz z wydaniem FileMaker 2025, Claris mocno zintegrował MLX z serwerem jako natywną infrastrukturę AI dla Apple Silicon. Oznacza to, że każdy, kto pracuje z komputerem Mac i polega na Apple Silicon, może nie tylko uruchamiać modele MLX lokalnie, ale także używać ich bezpośrednio w FileMaker - z natywnymi funkcjami, bez żadnych warstw pośrednich.

Czytaj więcej

Dlaczego samo oprogramowanie ERP nie wystarczy - i jak naprawdę zrozumieć procesy?

Oprogramowanie ERP: Zrozumienie procesów operacyjnych przed cyfryzacją

W wielu firmach przebiega to zawsze według tego samego schematu: w pewnym momencie kierownictwo zdaje sobie sprawę, że „coś przestało działać płynnie“. Być może procesy stały się zbyt powolne, gromadzą się błędy lub firma coraz bardziej traci kontrolę nad danymi liczbowymi, klientami lub procesami wewnętrznymi. Głośne staje się wołanie o nowe oprogramowanie - najlepiej nowoczesne, wydajne oprogramowanie ERP, które „może wszystko“. Ale to właśnie tutaj często zaczyna się fatalny błąd.

Czytaj więcej

Jak napisałem pięć książek w dwóch językach w cztery miesiące

Pisanie książek z Affinity i BoD

...i dlaczego nie jest to cud, ale wynik jasnej strategii

Przez długi czas pisanie książek było postrzegane jako coś żmudnego - samotny projekt, który ciągnie się miesiącami, a nawet latami. Ale co by się stało, gdyby porzucić ten obraz? A gdyby tak przemyśleć pisanie na nowo - z wyraźnym ukierunkowaniem, przemyślanymi procesami i ukierunkowanym wykorzystaniem sztucznej inteligencji?

W mojej nowej książce „Pisanie książek 2.0 - praktyczny przewodnik dla autorów w dobie sztucznej inteligencji“ Opisuję dokładnie tę ścieżkę. Ścieżkę, która pozwoliła mi napisać pięć książek w zaledwie cztery miesiące, opublikować je w dwóch językach - i nie zaakceptować żadnej utraty jakości w porównaniu z tradycyjnym wydawnictwem.

Czytaj więcej

Pisanie książek 2.0 - praktyczny przewodnik dla autorów w dobie sztucznej inteligencji

Okładka: Pisanie książek 2.0 - praktyczny przewodnik dla autorów w dobie sztucznej inteligencji

Ta książka nie przedstawia spekulatywnych wizji przyszłości, ale dobrze uzasadnioną, praktyczną odpowiedź z codziennego życia autora, który sam pisze ze sztuczną inteligencją - i celowo koncentruje się nie na automatyzacji, ale na autonomii. „Pisanie książek 2.0“ jest skierowany do każdego, kto myśli o napisaniu własnej książki - lub jest już w trakcie tego procesu - i zastanawia się, w jaki sposób można dobrze wykorzystać nowoczesne narzędzia, takie jak ChatGPT, generatory obrazów AI lub pomoce tłumaczeniowe. Skupiamy się nie na „gotowych produktach AI“, ale na holistycznym podejściu: AI jako narzędzie, ludzie jako autorzy.

Czytaj więcej

Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu

Pamięć dla lokalnej sztucznej inteligencji z Ollama i Qdrant

Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań

W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.

Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.

Czytaj więcej

Lokalna sztuczna inteligencja na Macu: jak installiere model językowy z Ollama

Lokalna sztuczna inteligencja installieren z Ollama na komputerze Mac

Lokalna sztuczna inteligencja na komputerach Mac od dawna jest praktyczna - zwłaszcza na komputerach Apple-Silicon (seria M). Wraz z Ollama otrzymujemy odchudzone środowisko uruchomieniowe dla wielu modeli językowych open source (np. Llama 3.1/3.2, Mistral, Gemma, Qwen). Aktualna wersja Ollama jest teraz również dostarczana z przyjazną dla użytkownika aplikacją, która pozwala skonfigurować lokalny model językowy na komputerze Mac jednym kliknięciem myszy. W tym artykule znajdziesz pragmatyczny przewodnik od instalacji do pierwszego monitu - z praktycznymi wskazówkami na temat tego, gdzie rzeczy tradycyjnie idą źle.

Czytaj więcej

Porady zdrowotne (nie tylko) dla użytkowników FileMaker

Wskazówki dotyczące zdrowia

Rozwój oprogramowania ERP gFM-Business był nieco wolniejszy niż zwykle w ciągu ostatniego półtora roku, ponieważ jako twórca oprogramowania miałem do czynienia z dziwnymi objawami choroby, w których nie było łatwo znaleźć przyczynę. Mimo że medycyna konwencjonalna nie była w moim przypadku prawdziwą pomocą, byłem w stanie znaleźć przyczyny i wyeliminować moje problemy przy aktywnym wsparciu niektórych alternatywnych praktyków i holistycznego dentysty. Ponieważ wyniki tych badań są tak interesujące, zdecydowałem się napisać krótki artykuł na ten temat, abyś jako czytelnik również mógł z niego skorzystać. Poniżej znajdziesz moje ulubione porady, nie zarabiam nic na polecaniu i nie używam żadnych linków zwrotnych.

Czytaj więcej