Zasięg to nie własność - dlaczego widoczność już dziś nie wystarcza?

Zasięg a własność

Dobre dziesięć lat temu zdarzyło mi się obejrzeć wykład na temat przejścia od społeczeństwa informacyjnego do społeczeństwa wiedzy. W tamtym czasie wiele z tego brzmiało jeszcze teoretycznie, niemal akademicko. Chodziło o takie pojęcia jak suwerenność danych, własność informacji i pytanie, kto w przyszłości będzie decydował o tym, co jest dostępne, a co nie. Dziś, z odrobiną dystansu, wykład ten wydaje się zaskakująco precyzyjny. W końcu wiele z tego, co wtedy opisywano jako rozwój, teraz stało się rzeczywistością. Coraz więcej danych migruje do chmury. Coraz więcej informacji nie jest już przechowywanych w systemach wewnętrznych, ale w infrastrukturze zewnętrznej. I coraz częściej to już nie użytkownik, ale dostawca, platforma lub zestaw reguł decyduje o tym, co jest możliwe.

Aby zrozumieć ten rozwój, warto cofnąć się o krok. Społeczeństwo informacyjne, w którym wielu z nas dorastało, nie było stanem normalnym. Był to historyczny wyjątek.

Czytaj więcej

Apple MLX vs. NVIDIA: Jak działa lokalna sztuczna inteligencja na komputerach Mac?

Lokalna sztuczna inteligencja na Silicon z Apple Mac

Każdy, kto pracuje dziś ze sztuczną inteligencją, często najpierw myśli o ChatGPT lub podobnych usługach online. Wpisujesz pytanie, czekasz kilka sekund - i otrzymujesz odpowiedź tak, jakby na drugim końcu linii siedział bardzo oczytany, cierpliwy rozmówca. Ale o czym łatwo zapomnieć: Każde wejście, każde zdanie, każde słowo jest wysyłane do zewnętrznych serwerów przez Internet. To tam wykonywana jest właściwa praca - na ogromnych komputerach, których nigdy nie można zobaczyć.

Zasadniczo lokalny model językowy działa dokładnie w ten sam sposób - ale bez Internetu. Model jest przechowywany jako plik na komputerze użytkownika, jest ładowany do pamięci roboczej podczas uruchamiania i odpowiada na pytania bezpośrednio na urządzeniu. Technologia stojąca za nim jest taka sama: sieć neuronowa, która rozumie język, generuje teksty i rozpoznaje wzorce. Jedyna różnica polega na tym, że całość obliczeń pozostaje w firmie. Można powiedzieć: ChatGPT bez chmury.

Czytaj więcej

Szkolenie LoRA: Jak FileMaker 2025 upraszcza dostrajanie dużych modeli językowych

Dokładne dostrojenie LoRA - FileMaker 2025

Świat sztucznej inteligencji jest w ciągłym ruchu. Nowe modele, nowe metody, a przede wszystkim nowe możliwości pojawiają się niemal co tydzień - a jednak jedno pozostaje niezmienne: nie każda innowacja techniczna automatycznie prowadzi do lepszego życia codziennego. Wiele rzeczy pozostaje eksperymentalnych, złożonych lub po prostu zbyt kosztownych do produktywnego wykorzystania. Jest to szczególnie widoczne w tak zwanym dostrajaniu dużych modeli językowych - metodzie specjalizacji generatywnej sztucznej inteligencji do własnych treści, terminów i tonacji.

Towarzyszyłem temu procesowi intensywnie przez ostatnie kilka miesięcy - najpierw w klasycznej formie, z Pythonem, terminalem, komunikatami o błędach i nerwowymi pętlami konfiguracji. A potem: z FileMaker 2025, krokiem, który mnie zaskoczył - bo nie był głośny, ale wyraźny. I dlatego, że pokazał, że jest inny sposób.

Czytaj więcej

Faktury elektroniczne dla MŚP: XRechnung, ZUGFeRD i ERP w skrócie

Przegląd obowiązku wystawiania faktur elektronicznych

Niemcy nie wymyśliły e-faktury z dnia na dzień - jest ona wynikiem wieloletnich prac normalizacyjnych (EN 16931), przepisów federalnych i krajowych (B2G), a teraz, dzięki ustawie o możliwościach rozwoju, stopniowej ekspansji na codzienne życie B2B. Od 1 stycznia 2025 r. obowiązuje nowa sytuacja prawna: „faktura elektroniczna“ jest e-fakturą tylko wtedy, gdy jest ustrukturyzowana i nadaje się do odczytu maszynowego - czyste załączniki PDF przesyłane pocztą elektroniczną nie są już e-fakturą zgodnie z definicją. Brzmi to technicznie, ale ma konsekwencje operacyjne, od odbioru faktury po księgowość i archiwizację.

Czytaj więcej

Cyfrowa zależność: jak straciliśmy samostanowienie na rzecz chmury

Cyfrowa zależność od systemów w chmurze

Zawsze uważałem, że ludzie popełniają błąd, przekazując swoje dane - czy to w chmurze, czy za pośrednictwem aplikacji lub jakichkolwiek „darmowych“ usług. Dla mnie suwerenność danych nigdy nie była modnym hasłem, ale kwestią szacunku do samego siebie. Każdy, kto korzysta z technologii bez rozważenia konsekwencji, wchodzi w zależność, która często staje się zauważalna dopiero po latach - ale wtedy ma jeszcze głębszy wpływ.

Czytaj więcej

gFM-Business i przyszłość ERP: lokalna inteligencja zamiast zależności od chmury

gFM-Business i sztuczna inteligencja + graf wiedzy

Od ponad dekady oprogramowanie gFM-Business jest synonimem czegoś wyjątkowego na niemieckim rynku ERP: nie jest oparte na uciążliwym, trudnym w utrzymaniu systemie, ale na lekkiej, konfigurowalnej i wizualnie modelowanej platformie FileMaker. Ma to wiele zalet: gFM-Business może być indywidualnie rozbudowywany, działa w systemach Windows, macOS i iOS i może być dostosowywany zarówno przez programistów, jak i ambitnych użytkowników.

Wraz z pojawieniem się sztucznej inteligencji (AI) - w szczególności dzięki tak zwanym modelom językowym, takim jak ChatGPT - pojawiają się nowe możliwości, które wykraczają daleko poza tradycyjną automatyzację. gFM-Business aktywnie przygotowuje się na tę przyszłość: w celu nie tylko zarządzania danymi, ale także odblokowywania wiedzy.

Czytaj więcej

Konferencja FileMaker 2025: Sztuczna inteligencja, społeczność i nieoczekiwany incydent

FileMaker Konferencja 2025: Alarm pożarowy z udziałem straży pożarnej

Konferencja FileMaker 2025 w Hamburgu dobiegła końca - i był to szczególny kamień milowy pod wieloma względami. Nie tylko dlatego, że tegoroczna konferencja koncentrowała się na wielu tematach związanych ze sztuczną inteligencją, wydajnością i nowoczesnymi przepływami pracy - ale także dlatego, że osobista wymiana i „rodzinna atmosfera“ społeczności FileMaker po raz kolejny dały o sobie znać. Dla mnie osobiście był to intensywny, inspirujący i wszechstronnie wzbogacający czas - już od pierwszego wieczoru.

Czytaj więcej

Integracja MLX w FileMaker 2025: Lokalna sztuczna inteligencja jako nowy standard

Lokalna sztuczna inteligencja z MLX i FileMaker

Podczas gdy MLX został pierwotnie uruchomiony jako eksperymentalny framework przez Apple Research, w ostatnich miesiącach nastąpił cichy, ale znaczący rozwój: Wraz z wydaniem FileMaker 2025, Claris mocno zintegrował MLX z serwerem jako natywną infrastrukturę AI dla Apple Silicon. Oznacza to, że każdy, kto pracuje z komputerem Mac i polega na Apple Silicon, może nie tylko uruchamiać modele MLX lokalnie, ale także używać ich bezpośrednio w FileMaker - z natywnymi funkcjami, bez żadnych warstw pośrednich.

Czytaj więcej