Szkolenie LoRA: Jak FileMaker 2025 upraszcza dostrajanie dużych modeli językowych

Dokładne dostrojenie LoRA - FileMaker 2025

Świat sztucznej inteligencji jest w ciągłym ruchu. Nowe modele, nowe metody, a przede wszystkim nowe możliwości pojawiają się niemal co tydzień - a jednak jedno pozostaje niezmienne: nie każda innowacja techniczna automatycznie prowadzi do lepszego życia codziennego. Wiele rzeczy pozostaje eksperymentalnych, złożonych lub po prostu zbyt kosztownych do produktywnego wykorzystania. Jest to szczególnie widoczne w tak zwanym dostrajaniu dużych modeli językowych - metodzie specjalizacji generatywnej sztucznej inteligencji do własnych treści, terminów i tonacji.

Towarzyszyłem temu procesowi intensywnie przez ostatnie kilka miesięcy - najpierw w klasycznej formie, z Pythonem, terminalem, komunikatami o błędach i nerwowymi pętlami konfiguracji. A potem: z FileMaker 2025, krokiem, który mnie zaskoczył - bo nie był głośny, ale wyraźny. I dlatego, że pokazał, że jest inny sposób.

Czytaj więcej

Jak można dziś szkolić specjalistów AI - możliwości dla firm i stażystów

Przeszkolenie specjalisty ds. sztucznej inteligencji

Jeszcze kilka lat temu sztuczna inteligencja była tematem dla instytucji badawczych i dużych korporacji. Mówiono o sieciach neuronowych, głębokim uczeniu i rozpoznawaniu mowy - ale nie odgrywało to prawie żadnej roli w życiu codziennym. Dziś sztuczna inteligencja nie jest już tematem przyszłości, ale rzeczywistością: pisze teksty, tworzy obrazy, analizuje dane i kontroluje procesy produkcyjne. Niezależnie od tego, czy chodzi o administrację, handel czy przemysł - można ją teraz znaleźć wszędzie.

Czytaj więcej

gFM-Business i przyszłość ERP: lokalna inteligencja zamiast zależności od chmury

gFM-Business i sztuczna inteligencja + graf wiedzy

Od ponad dekady oprogramowanie gFM-Business jest synonimem czegoś wyjątkowego na niemieckim rynku ERP: nie jest oparte na uciążliwym, trudnym w utrzymaniu systemie, ale na lekkiej, konfigurowalnej i wizualnie modelowanej platformie FileMaker. Ma to wiele zalet: gFM-Business może być indywidualnie rozbudowywany, działa w systemach Windows, macOS i iOS i może być dostosowywany zarówno przez programistów, jak i ambitnych użytkowników.

Wraz z pojawieniem się sztucznej inteligencji (AI) - w szczególności dzięki tak zwanym modelom językowym, takim jak ChatGPT - pojawiają się nowe możliwości, które wykraczają daleko poza tradycyjną automatyzację. gFM-Business aktywnie przygotowuje się na tę przyszłość: w celu nie tylko zarządzania danymi, ale także odblokowywania wiedzy.

Czytaj więcej

Sztuczna inteligencja: które miejsca pracy są zagrożone i jak możemy się teraz uzbroić?

Które zawody zostaną w przyszłości wyeliminowane przez sztuczną inteligencję?

Żadna inna zmiana technologiczna nie wkradła się do naszego codziennego życia tak szybko jak sztuczna inteligencja. To, co wczoraj uważano za wizjonerską technologię przyszłości, dziś jest już rzeczywistością - czy to w pisaniu SMS-ów, programowaniu, diagnozowaniu, tłumaczeniu, czy nawet tworzeniu muzyki, sztuki lub briefów prawnych.

Czytaj więcej

MLX na Apple Silicon jako lokalna sztuczna inteligencja w porównaniu z Ollama & Co.

Lokalna sztuczna inteligencja na komputerach Mac z MLX

W czasach, gdy scentralizowane usługi AI, takie jak ChatGPT, Claude czy Gemini, dominują na pierwszych stronach gazet, wielu profesjonalnych użytkowników ma rosnące zapotrzebowanie na alternatywę - lokalną, samokontrolującą się infrastrukturę AI. Zwłaszcza w przypadku procesów kreatywnych, wrażliwych danych lub powtarzających się przepływów pracy, lokalne rozwiązanie jest często bardziej zrównoważoną i bezpieczną opcją.

Każdy, kto pracuje z komputerem Mac - zwłaszcza z Apple Silicon (M1, M2, M3 lub M4) - może teraz znaleźć niesamowicie potężne narzędzia do uruchamiania własnych modeli językowych bezpośrednio na urządzeniu. W centrum tego wszystkiego znajduje się nowy, w dużej mierze nieznany komponent: MLX, platforma uczenia maszynowego opracowana przez Apple, która prawdopodobnie będzie odgrywać coraz większą rolę w ekosystemie sztucznej inteligencji firmy w nadchodzących latach.

Czytaj więcej

RAG z Ollama i Qdrant jako uniwersalna wyszukiwarka własnych danych

Rozszerzenie lokalnej sztucznej inteligencji o bazy danych przy użyciu RAG, Ollama i Qdrant

W coraz bardziej zagmatwanym świecie informacji coraz ważniejsze staje się umożliwienie przeszukiwania własnych baz danych w ukierunkowany sposób - nie poprzez klasyczne wyszukiwanie pełnotekstowe, ale poprzez semantycznie istotne odpowiedzi. Właśnie w tym miejscu do gry wkracza baza danych RAG - rozwiązanie wyszukiwania wspierane przez sztuczną inteligencję, składające się z dwóch centralnych komponentów:

Czytaj więcej

Ollama spotyka Qdrant: lokalna pamięć dla sztucznej inteligencji na Macu

Pamięć dla lokalnej sztucznej inteligencji z Ollama i Qdrant

Lokalna sztuczna inteligencja z pamięcią - bez chmury, bez subskrypcji, bez przekierowań

W poprzednie artykuły Wyjaśniłem, jak skonfigurować Ollama na Macu install. Jeśli wykonałeś już ten krok, masz teraz potężny lokalny model językowy - taki jak Mistral, LLaMA3 lub inny kompatybilny model, do którego można się odwołać za pośrednictwem interfejsu API REST.

Model „wie“ jednak tylko to, co znajduje się w bieżącej podpowiedzi. Nie pamięta poprzednich rozmów. Brakuje tylko pamięci.

Czytaj więcej

Lokalna sztuczna inteligencja na Macu: jak installiere model językowy z Ollama

Lokalna sztuczna inteligencja na komputerach Mac od dawna jest praktyczna - zwłaszcza na komputerach Apple-Silicon (seria M). Wraz z Ollama otrzymujemy odchudzone środowisko uruchomieniowe dla wielu modeli językowych open source (np. Llama 3.1/3.2, Mistral, Gemma, Qwen). Aktualna wersja Ollama jest teraz również dostarczana z przyjazną dla użytkownika aplikacją, która pozwala skonfigurować lokalny model językowy na komputerze Mac jednym kliknięciem myszy. W tym artykule znajdziesz pragmatyczny przewodnik od instalacji do pierwszego monitu - z praktycznymi wskazówkami na temat tego, gdzie rzeczy tradycyjnie idą źle.

Czytaj więcej