{"id":3704,"date":"2025-11-27T12:46:51","date_gmt":"2025-11-27T12:46:51","guid":{"rendered":"https:\/\/www.markus-schall.de\/?p=3704"},"modified":"2026-04-14T05:22:37","modified_gmt":"2026-04-14T05:22:37","slug":"ki-studio-2025-ktory-sprzet-jest-naprawde-tego-wart-od-mac-studio-do-rtx-3090","status":"publish","type":"post","link":"https:\/\/www.markus-schall.de\/pl\/2025\/11\/ki-studio-2025-ktory-sprzet-jest-naprawde-tego-wart-od-mac-studio-do-rtx-3090\/","title":{"rendered":"AI Studio 2025: Kt\u00f3ry sprz\u0119t naprawd\u0119 si\u0119 op\u0142aca - od Mac Studio do RTX 3090"},"content":{"rendered":"<p>Ka\u017cdy, kto pracuje dzi\u015b ze sztuczn\u0105 inteligencj\u0105, jest niemal automatycznie wypychany do chmury: OpenAI, Microsoft, Google, wszelkie interfejsy internetowe, tokeny, limity, warunki. Wydaje si\u0119 to nowoczesne - ale zasadniczo jest to powr\u00f3t do zale\u017cno\u015bci: inni okre\u015blaj\u0105, z kt\u00f3rych modeli mo\u017cesz korzysta\u0107, jak cz\u0119sto, z jakimi filtrami i za jak\u0105 cen\u0119. Celowo id\u0119 w drug\u0105 stron\u0119: obecnie buduj\u0119 w\u0142asne ma\u0142e studio AI w domu. Z w\u0142asnym sprz\u0119tem, w\u0142asnymi modelami i w\u0142asnymi przep\u0142ywami pracy.<\/p>\n<p>M\u00f3j cel jest jasny: lokalna sztuczna inteligencja tekstu, lokalna sztuczna inteligencja obrazu, uczenie si\u0119 w\u0142asnych modeli (LoRA, dostrajanie), a wszystko to w taki spos\u00f3b, abym jako freelancer, a p\u00f3\u017aniej tak\u017ce klient M\u015aP, nie by\u0142 zale\u017cny od codziennych kaprys\u00f3w jakiego\u015b dostawcy chmury. Mo\u017cna powiedzie\u0107, \u017ce to powr\u00f3t do starej postawy, kt\u00f3ra kiedy\u015b by\u0142a ca\u0142kiem normalna: \u201ewa\u017cne rzeczy robisz sam\u201c. Tyle, \u017ce tym razem nie chodzi o w\u0142asny warsztat pracy, ale o moc obliczeniow\u0105 i suwerenno\u015b\u0107 danych.<!--more--><\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-609 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-609 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Kwestie spo\u0142eczne tera\u017aniejszo\u015bci<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-609\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"das 28. regime der eu: der stille umbau des europ\u00e4ischen wirtschaftsraums?\" data-id=\"3747\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"auswandern eu-gesetze europa geopolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/28-system-ue-cicha-reorganizacja-europejskiego-obszaru-gospodarczego\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">28. re\u017cim UE: cicha reorganizacja Europejskiego Obszaru Gospodarczego?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"28. system UE\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-28-Regime.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-28-Regime.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-28-Regime-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-28-Regime-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/EU-28-Regime-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/28-system-ue-cicha-reorganizacja-europejskiego-obszaru-gospodarczego\/\" rel=\"bookmark\">28. re\u017cim UE: cicha reorganizacja Europejskiego Obszaru Gospodarczego?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"als ich mit einem roboter telefonierte \u2013 wie ki das telefon erobert und wie man sie erkennt\" data-id=\"5130\"  data-category=\"allgemein gesellschaft ki-systeme stories &amp; humor\" data-post_tag=\"datenschutz erfahrungen k\u00fcnstliche intelligenz prozesse\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2026\/03\/kiedy-rozmawialem-przez-telefon-z-robotem-jak-ki-podbija-telefon-i-jak-go-rozpoznac\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Kiedy rozmawia\u0142em przez telefon z robotem - jak sztuczna inteligencja podbija telefony i jak j\u0105 rozpozna\u0107<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Rozmowa telefoniczna z robotem AI\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Telefonanrufe-KI-Werbung.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Telefonanrufe-KI-Werbung.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Telefonanrufe-KI-Werbung-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Telefonanrufe-KI-Werbung-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Telefonanrufe-KI-Werbung-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2026\/03\/kiedy-rozmawialem-przez-telefon-z-robotem-jak-ki-podbija-telefon-i-jak-go-rozpoznac\/\" rel=\"bookmark\">Kiedy rozmawia\u0142em przez telefon z robotem - jak sztuczna inteligencja podbija telefony i jak j\u0105 rozpozna\u0107<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"beruf, weltbild, zukunft: entscheidungen im schatten des umbruchs\" data-id=\"3197\"  data-category=\"allgemein gesellschaft kunst &amp; kultur tipps &amp; anleitungen\" data-post_tag=\"erfahrungen krisen pers\u00f6nlichkeitsentwicklung ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/10\/swiat-kariery-przyszle-decyzje-w-cieniu-wstrzasow\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Kariera, \u015bwiatopogl\u0105d, przysz\u0142o\u015b\u0107: decyzje w cieniu wstrz\u0105s\u00f3w<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Decyzje w cieniu wstrz\u0105s\u00f3w\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Entscheidungen-im-Schatten-Umbruch.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Entscheidungen-im-Schatten-Umbruch.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Entscheidungen-im-Schatten-Umbruch-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Entscheidungen-im-Schatten-Umbruch-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Entscheidungen-im-Schatten-Umbruch-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/10\/swiat-kariery-przyszle-decyzje-w-cieniu-wstrzasow\/\" rel=\"bookmark\">Kariera, \u015bwiatopogl\u0105d, przysz\u0142o\u015b\u0107: decyzje w cieniu wstrz\u0105s\u00f3w<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"was ist brics \u2013 und was nicht: geschichte, wirtschaft und geopolitische einordnung\" data-id=\"4691\"  data-category=\"allgemein gesellschaft\" data-post_tag=\"denkmodelle deutschland europa geopolitik sicherheitspolitik\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2026\/02\/czym-jest-brics-a-czym-nie-jest-historia-gospodarka-i-klasyfikacja-geopolityczna\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Czym jest BRICS - a czym nie jest: historia, gospodarka i kategoryzacja geopolityczna<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Kraje BRICS\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/BRICS-Staaten-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2026\/02\/czym-jest-brics-a-czym-nie-jest-historia-gospodarka-i-klasyfikacja-geopolityczna\/\" rel=\"bookmark\">Czym jest BRICS - a czym nie jest: historia, gospodarka i kategoryzacja geopolityczna<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Najnowsze wiadomo\u015bci na temat lokalnej sztucznej inteligencji i sprz\u0119tu<\/h2>\n<p><strong>11.04.2026<\/strong>Najnowszy odcinek \u201eInside AI\u201c od Fraunhofer IEM zawiera kompaktowy przegl\u0105d kluczowych osi\u0105gni\u0119\u0107 w dziedzinie sztucznej inteligencji. Ekspert AI Tommy Falkowski przygl\u0105da si\u0119 nowym podej\u015bciom do du\u017cych modeli j\u0119zykowych, takich jak tak zwane rekurencyjne modele j\u0119zykowe, oraz post\u0119pom w generowaniu wideo AI. Innym tematem b\u0119d\u0105 systemy oparte na agentach i bardziej wydajne metody przetwarzania du\u017cych ilo\u015bci danych. Szczeg\u00f3lne znaczenie praktyczne ma rosn\u0105ce znaczenie lokalnych infrastruktur sztucznej inteligencji, kt\u00f3re staj\u0105 si\u0119 coraz bardziej wydajne i otwieraj\u0105 nowe mo\u017cliwo\u015bci zastosowa\u0144 - aspekt ten odgrywa r\u00f3wnie\u017c decyduj\u0105c\u0105 rol\u0119 w wyborze odpowiedniego sprz\u0119tu.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_8nqoJORzOc8\"><div id=\"lyte_8nqoJORzOc8\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2F8nqoJORzOc8%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/8nqoJORzOc8\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2F8nqoJORzOc8%2F0.jpg\" alt=\"Miniatura wideo YouTube\" width=\"640\" height=\"340\" \/><br \/>Obejrzyj ten film na YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nPodsycanie presji przez AI: Najwa\u017cniejsze trendy, narz\u0119dzia i modele AI 2026 | INSIDE AI #33 | <a href=\"https:\/\/www.youtube.com\/@FraunhoferIEM\" target=\"_blank\" rel=\"nofollow noopener\">Fraunhofer IEM<\/a><\/p>\n<p>Ponadto przedstawiono aktualne narz\u0119dzia, modele i technologie, kt\u00f3re zmieniaj\u0105 zar\u00f3wno in\u017cynieri\u0119, jak i zastosowanie sztucznej inteligencji w d\u0142u\u017cszej perspektywie. Jednocze\u015bnie pokazuje, jak dynamicznie rozwija si\u0119 ta dziedzina: Nowsze modele open source i niedawne og\u0142oszenia podkre\u015blaj\u0105, \u017ce kluczowe trendy ulegaj\u0105 obecnie ci\u0105g\u0142ym zmianom w kr\u00f3tkim czasie.<\/p>\n<hr \/>\n<h2>Pr\u0119dko\u015b\u0107 lokalna pozostaje bezkonkurencyjna<\/h2>\n<p>Modele chmurowe s\u0105 imponuj\u0105ce - tak d\u0142ugo, jak \u0142\u0105cze dzia\u0142a, serwery nie s\u0105 przeci\u0105\u017cone, a interfejs API nie jest ponownie d\u0142awiony. Ale ka\u017cdy, kto powa\u017cnie pracuje ze sztuczn\u0105 inteligencj\u0105, szybko zdaje sobie spraw\u0119, \u017ce najbardziej uczciw\u0105 form\u0105 szybko\u015bci jest szybko\u015b\u0107 lokalna. Je\u015bli model dzia\u0142a na twoim w\u0142asnym Mac Studio lub twoim w\u0142asnym GPU, to jest to prawda:<\/p>\n<ul>\n<li>Brak op\u00f3\u017anie\u0144 sieciowych<\/li>\n<li>Brak czasu oczekiwania, a\u017c \u201einni\u201c b\u0119d\u0105 gotowi<\/li>\n<li>Brak odwo\u0142a\u0144 godzinowych<\/li>\n<li>Brak komunikatu \u201eOsi\u0105gni\u0119to limit szybko\u015bci\u201c w \u015brodku przep\u0142ywu pracy<\/li>\n<\/ul>\n<p>Do\u015bwiadczam tego ka\u017cdego dnia: na moim <a href=\"https:\/\/de.wikipedia.org\/wiki\/Mac_Studio\" target=\"_blank\" rel=\"noopener\">Mac Studio<\/a> uruchamia r\u00f3wnolegle model 120B (GPT-OSS) i model 27B Gemma - plus serwer FileMaker i wszystkie moje bazy danych. Mimo to system pozostaje tak responsywny, \u017ce mog\u0119 pracowa\u0107 z pr\u0119dko\u015bci\u0105, kt\u00f3ra jest prawie niemo\u017cliwa do osi\u0105gni\u0119cia w systemach chmurowych. Zw\u0142aszcza gdy wykonuje si\u0119 wiele ma\u0142ych operacji z rz\u0119du - t\u0142umaczenia, przeformu\u0142owania, analizy, podpowiedzi obraz\u00f3w - op\u00f3\u017anienia szybko si\u0119 sumuj\u0105. Lokalna sztuczna inteligencja nie dzia\u0142a jak \u201eoperacja na serwerze\u201c, ale jak bezpo\u015brednie narz\u0119dzie: naciskasz, to si\u0119 dzieje.<\/p>\n<h3>Suwerenno\u015b\u0107 danych: kiedy wra\u017cliwe informacje nie s\u0105 dost\u0119pne online<\/h3>\n<p>Jedn\u0105 z kwestii, kt\u00f3ra jest cz\u0119sto pomijana, ale ma kluczowe znaczenie dla przedsi\u0119biorc\u00f3w, s\u0105 dane. Gdy tylko korzystasz ze sztucznej inteligencji w chmurze, nieuchronnie zadajesz sobie pytania:<\/p>\n<ul>\n<li>Czy mog\u0119 tam wprowadzi\u0107 dane klienta?<\/li>\n<li>Co dzieje si\u0119 z dokumentami wewn\u0119trznymi?<\/li>\n<li>Jak d\u0142ugo przechowywane s\u0105 dzienniki?<\/li>\n<li>Kto teoretycznie ma dost\u0119p - dzi\u015b i za dwa lata?<\/li>\n<li>Jakie konsekwencje prawne mia\u0142by wyciek?<\/li>\n<\/ul>\n<p>Oczywi\u015bcie duzi dostawcy oferuj\u0105 obietnice ochrony danych. Ale na koniec dnia przekazujesz swoje tre\u015bci. I to jest dok\u0142adnie to, czego chcia\u0142e\u015b unikn\u0105\u0107 we w\u0142asnej firmie w przesz\u0142o\u015bci: Wewn\u0119trzne rzeczy pozosta\u0142y wewn\u0119trzne. W lokalnym studiu AI sytuacja wygl\u0105da inaczej:<\/p>\n<ul>\n<li>Dane pozostaj\u0105 w sieci u\u017cytkownika.<\/li>\n<li>\u017badna pro\u015bba nie opuszcza domu.<\/li>\n<li>Modele dzia\u0142aj\u0105 bez dost\u0119pu do Internetu.<\/li>\n<li>Dzienniki, dane treningowe i wyniki po\u015brednie s\u0105 przechowywane na w\u0142asnych dyskach.<\/li>\n<\/ul>\n<p>Kiedy w przysz\u0142o\u015bci b\u0119d\u0119 przepuszcza\u0107 moje ksi\u0105\u017cki, artyku\u0142y, notatki, teksty PR, wewn\u0119trzne dokumenty strategiczne lub dane klient\u00f3w przez moj\u0105 sztuczn\u0105 inteligencj\u0119, chc\u0119 mie\u0107 pewno\u015b\u0107, \u017ce \u017cadna z nich nie trafi do czyjego\u015b zestawu szkoleniowego. Mog\u0119 mie\u0107 takie zaufanie tylko wtedy, gdy infrastruktura nale\u017cy do mnie.<\/p>\n<h3>Kontrola koszt\u00f3w zamiast rosn\u0105cych subskrypcji<\/h3>\n<p>Sztuczne inteligencje w chmurze na pierwszy rzut oka wydaj\u0105 si\u0119 tanie: kilka cent\u00f3w za 1000 token\u00f3w, miesi\u0119czna subskrypcja tutaj, niewielka taryfa tam. Problem polega na tym, \u017ce koszty rosn\u0105 wraz z sukcesem. Im wi\u0119ksza produktywno\u015b\u0107, tym dro\u017csza staje si\u0119 infrastruktura - ka\u017cdego miesi\u0105ca. Lokalna sztuczna inteligencja dzia\u0142a inaczej:<\/p>\n<ul>\n<li>W sprz\u0119t inwestuje si\u0119 raz.<\/li>\n<li>Nast\u0119pnie uruchamiaj modele tak cz\u0119sto, jak chcesz.<\/li>\n<li>Nie \u201edr\u017cy palec zamawiaj\u0105cego\u201c, poniewa\u017c ka\u017cde po\u0142\u0105czenie kosztuje.<\/li>\n<li>Mo\u017cesz swobodniej eksperymentowa\u0107 bez konieczno\u015bci obliczania ka\u017cdego wej\u015bcia.<\/li>\n<\/ul>\n<p>M\u00f3j RTX 3090 kupi\u0142em z drugiej r\u0119ki za oko\u0142o 750 euro - praktycznie jak nowy. M\u00f3j Mac Studio z 128 GB RAM kupi\u0142em za oko\u0142o 2750 euro, w oryginalnym opakowaniu i nigdy nie otwierany. To pieni\u0105dze, tak - ale:<\/p>\n<ul>\n<li>Te maszyny b\u0119d\u0105 ze mn\u0105 przez wiele lat.<\/li>\n<li>Tworzysz bezpo\u015brednio u\u017cyteczne zasoby: ksi\u0105\u017cki, artyku\u0142y, obrazy, LoRA, przep\u0142ywy pracy.<\/li>\n<li>Nie ponosz\u0105 one \u017cadnych dodatkowych miesi\u0119cznych koszt\u00f3w poza energi\u0105 elektryczn\u0105.<\/li>\n<\/ul>\n<p>Dla wydawcy, konsultanta, dewelopera lub ma\u0142ej firmy mo\u017ce to by\u0107 r\u00f3\u017cnica mi\u0119dzy \u201eMusimy obliczy\u0107, czy mo\u017cemy sobie na to pozwoli\u0107\u201c a \u201eB\u0119dziemy u\u017cywa\u0107 sztucznej inteligencji tylko wtedy, gdy b\u0119dziemy jej potrzebowa\u0107\u201c.<\/p>\n<h3>Stare zalety, nowe korzy\u015bci: Dlaczego posiadanie w\u0142asnych maszyn zn\u00f3w si\u0119 op\u0142aca<\/h3>\n<p>W przesz\u0142o\u015bci uwa\u017cano za oczywiste, \u017ce rzemie\u015blnik posiada dobre narz\u0119dzia we w\u0142asnym warsztacie. Warsztat stolarski bez odpowiedniego sto\u0142u warsztatowego i pi\u0142 by\u0142by nie do pomy\u015blenia. Dzi\u015b przyzwyczaili\u015bmy si\u0119 do czego\u015b odwrotnego: zamiast posiada\u0107 w\u0142asne maszyny, wynajmujemy us\u0142ugi. W\u0142asne studio AI to w zasadzie nic innego jak nowoczesna wersja klasycznego warsztatu:<\/p>\n<ul>\n<li>The <strong>Mac Studio<\/strong> jest centralnym silnikiem dla modeli j\u0119zykowych.<\/li>\n<li>The <strong>Karta graficzna RTX<\/strong> to frezarka do obraz\u00f3w i szkole\u0144.<\/li>\n<li>A <strong>Dodatkowy komputer<\/strong> (np. Mac mini) wykonuje specjalne zadania, takie jak g\u0142os lub ma\u0142e modele.<\/li>\n<li>Oprogramowanie takie jak FileMaker s\u0142u\u017cy jako panel kontrolny: organizuje, zapisuje i dokumentuje.<\/li>\n<\/ul>\n<p>Buduj\u0119 tak\u0105 konfiguracj\u0119, poniewa\u017c chc\u0119 by\u0107 w stanie zrobi\u0107 wszystko sam w d\u0142u\u017cszej perspektywie:<\/p>\n<ul>\n<li>Pisanie i t\u0142umaczenie ksi\u0105\u017cek,<\/li>\n<li>Generowanie serii obraz\u00f3w,<\/li>\n<li>trenowa\u0107 w\u0142asne modele LoRA,<\/li>\n<li>Automatyzacja przep\u0142yw\u00f3w pracy,<\/li>\n<li>a p\u00f3\u017aniej tak\u017ce oferowa\u0107 klientom rozwi\u0105zania, kt\u00f3re mog\u0105 dzia\u0142a\u0107 ca\u0142kowicie lokalnie.<\/li>\n<\/ul>\n<p>To nie nostalgia, to trze\u017awa decyzja: im g\u0142\u0119biej sztuczna inteligencja ingeruje w codzienne \u017cycie, tym rozs\u0105dniej jest zachowa\u0107 kontrol\u0119 nad technologi\u0105. Lokalna sztuczna inteligencja nie jest \u201ehobbystyczn\u0105 alternatyw\u0105\u201c dla fantazyjnej chmury, ale \u015bwiadomym powrotem do niezale\u017cno\u015bci:<\/p>\n<ul>\n<li>Zyskujesz na szybko\u015bci.<\/li>\n<li>Zachowujesz swoje dane.<\/li>\n<li>Kontrolujesz swoje koszty.<\/li>\n<li>Budujesz infrastruktur\u0119, kt\u00f3ra nale\u017cy do ciebie.<\/li>\n<\/ul>\n<p>Je\u015bli przemy\u015ble\u0107 to do ko\u0144ca, domowe studio AI coraz bardziej przypomina klasyczny, dobrze wyposa\u017cony warsztat: Nie polegasz na tym, co robi\u0105 inni gdzie\u015b w tle, ale budujesz w\u0142asn\u0105 stabiln\u0105 baz\u0119.<\/p>\n<hr \/>\n<h3>Bie\u017c\u0105ca analiza lokalnych system\u00f3w sztucznej inteligencji<\/h3>\n<div class='bootstrap-yop yop-poll-mc'>\n\t\t\t\t\t\t\t<div class=\"basic-yop-poll-container\" style=\"background-color:#ffffff; border:0px; border-style:solid; border-color:#000000; border-radius:5px; padding:0px 5px;\" data-id=\"9\" data-temp=\"basic-pretty\" data-skin=\"square\" data-cscheme=\"blue\" data-cap=\"0\" data-access=\"guest\" data-tid=\"\" data-uid=\"b2898aab7da4cdb34fb3a776c1d373a0\" data-pid=\"4691\" data-resdet=\"votes-number,percentages\" data-show-results-to=\"guest\" data-show-results-moment=\"after-vote\" data-show-results-only=\"false\" data-show-message=\"true\" data-show-results-as=\"bar\" data-sort-results-by=\"as-defined\" data-sort-results-rule=\"asc\"data-is-ended=\"0\" data-percentages-decimals=\"2\" data-gdpr=\"no\" data-gdpr-sol=\"consent\" data-css=\".basic-yop-poll-container[data-uid] .basic-vote {\t\t\t\t\t\t\t\t\ttext-align: center;\t\t\t\t\t\t\t\t}\" data-counter=\"0\" data-load-with=\"1\" data-notification-section=\"top\"><div class=\"row\"><div class=\"col-md-12\"><div class=\"basic-inner\"><div class=\"basic-message hide\" style=\"border-left: 10px solid #008000; padding: 0px 10px;\" data-error=\"#ff0000\" data-success=\"#008000\"><p class=\"basic-message-text\" style=\"color:#000000; font-size:14px; font-weight:normal;\"><\/p><\/div><div class=\"basic-overlay hide\"><div class=\"basic-vote-options\"><\/div><div class=\"basic-preloader\"><div class=\"basic-windows8\"><div class=\"basic-wBall basic-wBall_1\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_2\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_3\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_4\"><div class=\"basic-wInnerBall\"><\/div><\/div><div class=\"basic-wBall basic-wBall_5\"><div class=\"basic-wInnerBall\"><\/div><\/div><\/div><\/div><\/div><form class=\"basic-form\" action=\"\"><input type=\"hidden\" name=\"_token\" value=\"683cbd28ef\" autocomplete=\"off\"><div class=\"basic-elements\"><div class=\"basic-element basic-question basic-question-text-vertical\" data-id=\"9\" data-uid=\"1118e662919edb079d74b26f0474fcb2\" data-type=\"question\" data-question-type=\"text\" data-required=\"yes\" data-allow-multiple=\"no\" data-min=\"1\" data-max=\"7\" data-display=\"vertical\" data-colnum=\"\" data-display-others=\"no\" data-others-color=\"\" data-others=\"\" data-others-max-chars=\"0\"><div class=\"basic-question-title\"><h5 style=\"color:#000000; font-size:16px; font-weight:normal; text-align:left;\">Co s\u0105dzisz o lokalnie uruchamianym oprogramowaniu AI, takim jak MLX lub Ollama?<\/h5><\/div><ul class=\"basic-answers\"><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"45\" data-type=\"text\" data-vn=\"141\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[45]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[45]\" name=\"answer[9]\" value=\"45\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Ingenious - w ko\u0144cu niezale\u017cny od chmury<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"46\" data-type=\"text\" data-vn=\"25\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[46]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[46]\" name=\"answer[9]\" value=\"46\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Interesuj\u0105ce, ale (wci\u0105\u017c) zbyt skomplikowane<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"47\" data-type=\"text\" data-vn=\"28\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[47]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[47]\" name=\"answer[9]\" value=\"47\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Wypr\u00f3buj\u0119 to wkr\u00f3tce<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"48\" data-type=\"text\" data-vn=\"5\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[48]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[48]\" name=\"answer[9]\" value=\"48\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Nie potrzebuj\u0119 tego - chmura mi wystarczy<\/span><\/label><\/div><\/li><li class=\"basic-answer\" style=\"padding:0px 0px;\" data-id=\"49\" data-type=\"text\" data-vn=\"4\" data-color=\"#000000\" data-make-link=\"no\" data-link=\"\"><div class=\"basic-answer-content basic-text-vertical\"><label for=\"answer[49]\" class=\"basic-answer-label\"><input type=\"radio\" id=\"answer[49]\" name=\"answer[9]\" value=\"49\"><span class=\"basic-text\" style=\"color: #000000; font-size: 14px; font-weight: normal;\">Nie wiem dok\u0142adnie o co chodzi<\/span><\/label><\/div><\/li><\/ul><\/div><div class=\"clearfix\"><\/div><\/div><div class=\"basic-vote\"><a href=\"#\" class=\"button basic-vote-button\" role=\"button\" style=\"background:#027bb8; border:0px; border-style: solid; border-color:#000000; border-radius:5px; padding:10px 10px; color:#ffffff; font-size:14px; font-weight:normal;\">G\u0142osowanie<\/a><\/div><input type=\"hidden\" name=\"trp-form-language\" value=\"pl\"\/><\/form><\/div><\/div><\/div><\/div>\n\t\t\t\t\t\t<\/div>\n<hr \/>\n<h2>Trzy filary nowoczesnego studia AI<\/h2>\n<p>Dzi\u015b studio AI nie sk\u0142ada si\u0119 ju\u017c z \u201ejednego du\u017cego komputera\u201c, kt\u00f3ry robi wszystko. Nowoczesne przep\u0142ywy pracy wymagaj\u0105 r\u00f3\u017cnych mocy: mocy obliczeniowej dla tekst\u00f3w, du\u017cej ilo\u015bci pami\u0119ci VRAM dla obraz\u00f3w i przebieg\u00f3w treningowych oraz mniejszych system\u00f3w, kt\u00f3re podejmuj\u0105 si\u0119 zada\u0144 pobocznych. Rezultatem nie jest chaotyczna flota urz\u0105dze\u0144, ale dobrze przemy\u015blana ma\u0142a infrastruktura - jak dobrze wyposa\u017cony warsztat w przesz\u0142o\u015bci, w kt\u00f3rym ka\u017cda maszyna spe\u0142nia swoje zadanie.<\/p>\n<p>Sam buduj\u0119 swoje studio dok\u0142adnie wed\u0142ug tej zasady. A im bardziej zag\u0142\u0119biam si\u0119 w t\u0119 kwesti\u0119, tym staje si\u0119 ona ja\u015bniejsza: Trzy filary wystarcz\u0105, by lokalnie uruchomi\u0107 kompletn\u0105 produkcj\u0119 AI.<\/p>\n<h3>Filar 1: J\u0105dro obliczeniowe dla modeli j\u0119zykowych (LLM)<\/h3>\n<p>Obecnie du\u017ce modele j\u0119zykowe nie wymagaj\u0105 ju\u017c serwera w centrum danych, ale przede wszystkim jednej rzeczy: du\u017cej ilo\u015bci bardzo szybkiej pami\u0119ci RAM. Dok\u0142adnie to potrafi\u0105 nowoczesne systemy Apple-Silicon lub podobnie wyposa\u017cone maszyny Linux z du\u017c\u0105 ilo\u015bci\u0105 pami\u0119ci RAM. Rdze\u0144 obliczeniowy jest centralnym elementem studia. To tutaj wszystko dzia\u0142a:<\/p>\n<ul>\n<li><strong>Du\u017ce programy LLM<\/strong> (20B, 30B, 70B, 120B MoE ...)<\/li>\n<li><strong>Modele analityczne<\/strong><\/li>\n<li><strong>Modele t\u0142umacze\u0144<\/strong><\/li>\n<li>Wewn\u0119trzny <strong>Systemy wiedzy<\/strong> (neo4j, RAG)<\/li>\n<li>r\u00f3wnie\u017c d\u0142ugoterminowy <strong>Pami\u0119\u0107 obs\u0142ugiwana przez sztuczn\u0105 inteligencj\u0119<\/strong><\/li>\n<li><strong>Systemy sterowania<\/strong> takie jak n8n<\/li>\n<li><strong>FileMaker<\/strong>-Automatyzacja i procesy serwerowe<\/li>\n<\/ul>\n<p>W mojej konfiguracji rol\u0119 t\u0119 pe\u0142ni Mac Studio M1 Ultra z 128 GB pami\u0119ci RAM. I robi to zadziwiaj\u0105co dobrze. Dzia\u0142am na nim:<\/p>\n<ul>\n<li><strong>GPT-OSS 120B MoE<\/strong> (do g\u0142\u0119bokiego my\u015blenia, d\u0142ugich tekst\u00f3w i analiz)<\/li>\n<li><strong>Gemma-3 27B<\/strong> (do prac technicznych, takich jak FileMaker, kod, precyzyjne strukturyzowanie)<\/li>\n<li><strong>Serwer FileMaker<\/strong> + bazy danych<\/li>\n<li>plus ca\u0142a infrastruktura pow\u0142oki i serwera WWW<\/li>\n<\/ul>\n<p>Niesamowite jest to, \u017ce nawet przy dw\u00f3ch du\u017cych modelach jednocze\u015bnie, 10-15 GB pami\u0119ci RAM pozostaje wolne. Jest to zaleta architektury, kt\u00f3ra jest ca\u0142kowicie zaprojektowana dla zunifikowanej pami\u0119ci. M\u00f3wi\u0105c w skr\u00f3cie: rdze\u0144 obliczeniowy jest m\u00f3zgiem studia AI. Wszystko, co rozumie, generuje lub przekszta\u0142ca tekst, dzieje si\u0119 tutaj.<\/p>\n<h3>Filar 2: System GPU dla sztucznej inteligencji obrazu i przebieg\u00f3w treningowych<\/h3>\n<p>Drugim filarem jest stacja robocza GPU, zoptymalizowana pod k\u0105tem szkole\u0144 Stable Diffusion, ComfyUI, ControlNet i LoRA. Podczas gdy modele tekstowe wymagaj\u0105 przede wszystkim pami\u0119ci RAM, sztuczna inteligencja obrazu potrzebuje pami\u0119ci VRAM. I to du\u017co. Dlaczego? Poniewa\u017c modele obrazu przetwarzaj\u0105 gigantyczne ilo\u015bci danych w pami\u0119ci na klatk\u0119. Do tego w\u0142a\u015bnie s\u0142u\u017c\u0105 karty graficzne. W moim studiu robi to NVIDIA RTX 3090 z 24 GB pami\u0119ci VRAM - a te 24 GB s\u0105 na wag\u0119 z\u0142ota. Pozwalaj\u0105 one na:<\/p>\n<ul>\n<li>SDXL z rozs\u0105dn\u0105 wielko\u015bci\u0105 partii<\/li>\n<li>Przep\u0142ywy pracy ComfyUI<\/li>\n<li>Synteza wideo<\/li>\n<li>Seria zdj\u0119\u0107<\/li>\n<li>Szkolenie w zakresie materia\u0142\u00f3w i stylu<\/li>\n<li>Trening LoRA w rozdzielczo\u015bci 896\u00d7896 lub nawet 1024\u00d71024<\/li>\n<\/ul>\n<p>Dla sztucznej inteligencji obrazu pami\u0119\u0107 VRAM jest wa\u017cniejsza ni\u017c najnowszy chip. Solidny 3090 potrafi dzi\u015b wi\u0119cej ni\u017c drogie karty \u015bredniej klasy z 2025 r. Kolumna GPU jest zatem \u201eci\u0119\u017ckim sprz\u0119tem\u201c w studiu - frezark\u0105, kt\u00f3ra pi\u0142uje wszystko, co oznacza obci\u0105\u017cenie obliczeniowe. Bez niej powa\u017cna produkcja obrazu jest praktycznie niemo\u017cliwa.<\/p>\n<h3>Filar 3: Drugi system dla modeli audio, g\u0142osowych i drugorz\u0119dnych<\/h3>\n<p>Trzeci filar mo\u017ce wydawa\u0107 si\u0119 niepozorny, ale jest kluczowy: mniejszy, energooszcz\u0119dny system, kt\u00f3ry przejmuje dodatkowe zadania. Obejmuj\u0105 one:<\/p>\n<ul>\n<li><strong>TTS<\/strong> (zamiana tekstu na mow\u0119)<\/li>\n<li><strong>STT<\/strong> (transkrypcja)<\/li>\n<li><strong>mniejsze modele<\/strong> (4B, 7B, 8B, 14B)<\/li>\n<li>statyczny <strong>Procesy w tle<\/strong><\/li>\n<li>ma\u0142y <strong>Systemy agentowe<\/strong><\/li>\n<li><strong>Narz\u0119dzia<\/strong>, kt\u00f3re maj\u0105 dzia\u0142a\u0107 niezale\u017cnie od g\u0142\u00f3wnego systemu<\/li>\n<\/ul>\n<p>U\u017cywam ma\u0142ego Mac mini M4 z 32 GB pami\u0119ci RAM. Idealnie nadaje si\u0119 do:<\/p>\n<ul>\n<li><strong>Szept<\/strong>-Transkrypcja<\/li>\n<li><strong>G\u0142os<\/strong>-modele<\/li>\n<li>\u015bwiat\u0142o <strong>Modele optymalizacji<\/strong><\/li>\n<li>szybka reakcja <strong>Asystenci<\/strong><\/li>\n<li>Eksperymenty i <strong>Przebiegi testowe<\/strong><\/li>\n<li>r\u00f3wnoleg\u0142y <strong>Model pojemnika<\/strong><\/li>\n<\/ul>\n<p>To ogromnie odci\u0105\u017ca g\u0142\u00f3wny system. W ko\u0144cu nie ma sensu \u0142adowa\u0107 du\u017cych modeli do ka\u017cdego ma\u0142ego zadania. Tak jak w przesz\u0142o\u015bci nie uruchamia\u0142o si\u0119 du\u017cej pi\u0142y tarczowej do ka\u017cdego ci\u0119cia w warsztacie, ale zamiast tego u\u017cywa\u0142o si\u0119 ma\u0142ej maszyny. Trzeci filar zapewnia organizacj\u0119 i stabilno\u015b\u0107.<br \/>\nOddziela du\u017ce modele od ma\u0142ych zada\u0144 - dzi\u0119ki temu ca\u0142e studio jest trwa\u0142e, elastyczne i bezawaryjne.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-3716\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-3-saeulen.jpg\" alt=\"Trzy filary studia AI\" width=\"1536\" height=\"1024\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-3-saeulen.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-3-saeulen-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-3-saeulen-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/KI-Studio-3-saeulen-18x12.jpg 18w\" sizes=\"auto, (max-width: 1536px) 100vw, 1536px\" \/><\/p>\n<h2>Inteligentna dystrybucja obci\u0105\u017ce\u0144<\/h2>\n<p>Studio AI rozwija si\u0119 dzi\u0119ki temu, \u017ce ka\u017cda maszyna robi to, do czego zosta\u0142a stworzona. Skutkuje to logicznym porz\u0105dkiem:<\/p>\n<ul>\n<li><strong>Rdze\u0144 obliczeniowy<\/strong> \u2192 My\u015blenie, pisanie, t\u0142umaczenie, analizowanie<\/li>\n<li><strong>System GPU<\/strong> \u2192 Obrazy, modele treningowe, ComfyUI, wideo<\/li>\n<li><strong>Podsystem<\/strong> \u2192 Audio, g\u0142os, ma\u0142e modele, agenci<\/li>\n<\/ul>\n<p>Po dodaniu dodatkowego oprogramowania - takiego jak FileMaker jako m\u00f3j centralny system sterowania - powstaje prawdziwy potok produkcyjny. Koniec z chaosem, koniec z \u201ezobaczmy, gdzie jest jeszcze miejsce\u201c, ale zorganizowany system, kt\u00f3ry dzia\u0142a stabilnie ka\u017cdego dnia.<\/p>\n<h3>Trzy filary to podstawa - nie styl dowolny<\/h3>\n<p>Wiele os\u00f3b uwa\u017ca, \u017ce studio AI jest potrzebne dopiero wtedy, gdy stajemy si\u0119 \u201efirm\u0105 AI\u201c. W rzeczywisto\u015bci jest wr\u0119cz przeciwnie: solidne studio AI JEST podstaw\u0105 do stania si\u0119 tak\u0105 firm\u0105. Dzi\u0119ki tym trzem filarom masz wszystko, czego potrzebujesz:<\/p>\n<ul>\n<li>Tworzenie tre\u015bci (tekst i obraz)<\/li>\n<li>Nauczanie w\u0142asnych modeli<\/li>\n<li>Automatyzacja przep\u0142yw\u00f3w pracy<\/li>\n<li>Praca niezale\u017cnie od chmury<\/li>\n<li>opracowywanie w\u0142asnych rozwi\u0105za\u0144 dla klient\u00f3w<\/li>\n<li>obs\u0142ugiwa\u0107 cyfrowe \u201esto\u0142y robocze\u201c w perspektywie d\u0142ugoterminowej<\/li>\n<\/ul>\n<p>Dla przedsi\u0119biorc\u00f3w, tw\u00f3rc\u00f3w, self-publisher\u00f3w i deweloper\u00f3w jest to obecnie strategiczna decyzja, kt\u00f3ra zapewnia swobod\u0119, szybko\u015b\u0107 i kontrol\u0119 w d\u0142u\u017cszej perspektywie.<\/p>\n<h2>Rozs\u0105dny sprz\u0119t klasy podstawowej dla ma\u0142ego studia AI<\/h2>\n<p>Je\u015bli ogl\u0105dasz dzisiejsze reklamy, mo\u017cesz pomy\u015ble\u0107, \u017ce musisz kupowa\u0107 najnowszy sprz\u0119t, aby m\u00f3c lokalnie pracowa\u0107 ze sztuczn\u0105 inteligencj\u0105. Cz\u0119sto jest jednak odwrotnie: to nie najnowsze modele s\u0105 decyduj\u0105ce, ale odpowiednia kombinacja pami\u0119ci RAM, VRAM i stabilno\u015bci. Wiele starszych urz\u0105dze\u0144 - zw\u0142aszcza w sektorze GPU - to obecnie prawdziwe potwory pod wzgl\u0119dem stosunku ceny do wydajno\u015bci. A je\u015bli jeste\u015b gotowy my\u015ble\u0107 nieszablonowo, mo\u017cesz zbudowa\u0107 studio AI, kt\u00f3re oddaje sprawiedliwo\u015b\u0107 ma\u0142ej firmie bez nadmiernego obci\u0105\u017cania si\u0119 finansami. Dok\u0142adnie to robi\u0119 teraz sam i dzia\u0142a to zaskakuj\u0105co dobrze. Ten rozdzia\u0142 przedstawia trzy klasy sprz\u0119tu: Pocz\u0105tkuj\u0105cy, Standardowy i Profesjonalny. Oczywi\u015bcie wyja\u015bniam te\u017c, dlaczego niekt\u00f3re starsze systemy s\u0105 dzi\u015b bardziej warto\u015bciowe, ni\u017c mog\u0142oby si\u0119 wydawa\u0107.<\/p>\n<h3>1. klasa podstawowa (1500-2500 \u20ac)<\/h3>\n<p>Dla wszystkich, kt\u00f3rzy chc\u0105 zacz\u0105\u0107 lokalnie - bez du\u017cych inwestycji. Zaj\u0119cia po\u015bwi\u0119cone s\u0105 stawianiu pierwszych solidnych krok\u00f3w:<\/p>\n<ul>\n<li><strong>Mac mini M2 lub M4<\/strong> z 16-32 GB pami\u0119ci RAM<\/li>\n<li>lub <strong>PC z RTX 3060\/3070<\/strong> (12-16 GB VRAM)<\/li>\n<li>plus opcjonalnie ma\u0142y <strong>NAS<\/strong> lub zewn\u0119trzny <strong>SSD<\/strong><\/li>\n<\/ul>\n<p>To dobry spos\u00f3b:<\/p>\n<ul>\n<li>Obs\u0142uga modeli od 7B do 14B<\/li>\n<li>Wykonywanie lokalnych t\u0142umacze\u0144<\/li>\n<li>Run Whisper<\/li>\n<li>U\u017cywaj mniejszych modeli obrazu, takich jak SD 1.5\/2.1<\/li>\n<li>Wypr\u00f3buj ComfyUI w zmniejszonej formie<\/li>\n<li>Testowanie w\u0142asnych agent\u00f3w lub przep\u0142yw\u00f3w pracy<\/li>\n<\/ul>\n<p>Dla wielu kreatywnych lub samozatrudnionych os\u00f3b jest to wi\u0119cej ni\u017c wystarczaj\u0105ce, aby sta\u0107 si\u0119 produktywnym. Wa\u017cne jest, aby nie komplikowa\u0107 zbytnio rozpocz\u0119cia pracy. Najwi\u0119kszym zagro\u017ceniem nie jest posiadanie zbyt ma\u0142ej mocy, ale ugrz\u0119\u017ani\u0119cie w zbyt wielu szczeg\u00f3\u0142ach technicznych. Na przyk\u0142ad, Mac mini M4 mo\u017ce zdzia\u0142a\u0107 niesamowicie wiele: T\u0142umaczenia, badania, struktury, nawet mniejsze modele pisma - i to przy minimalnym zu\u017cyciu energii.<\/p>\n<h3>2. klasa standardowa (2500-4000 \u20ac)<\/h3>\n<p>Najlepsze miejsce do powa\u017cnej pracy z tekstem i obrazami. W tym miejscu zaczyna si\u0119 to, co nazwa\u0142bym \u201cprawdziwym studiem AI\u201c: konfiguracja, kt\u00f3ra mo\u017ce obs\u0142ugiwa\u0107 zar\u00f3wno du\u017ce modele tekstowe, jak i solidne modele obraz\u00f3w. Typowa kombinacja:<\/p>\n<ul>\n<li><strong>Mac Studio<\/strong> M1 Ultra lub M2 Max z 64 GB pami\u0119ci RAM<\/li>\n<li><strong>Stacja robocza PC\/GPU<\/strong> z RTX 3080, 3090 lub 3090 Ti<\/li>\n<li>opcjonalnie ma\u0142y <strong>Dodatkowy komputer<\/strong> dla d\u017awi\u0119ku lub g\u0142osu<\/li>\n<\/ul>\n<p>Dzi\u0119ki tej klasie mo\u017cesz:<\/p>\n<ul>\n<li>Niezawodny nap\u0119d modeli 20-40B<\/li>\n<li>U\u017cywaj Stable Diffusion XL w dobrej jako\u015bci<\/li>\n<li>Przeprowadzenie szkolenia LoRA w \u015brednim zakresie zestawu danych<\/li>\n<li>Dystrybucja r\u00f3wnoleg\u0142ych obci\u0105\u017ce\u0144 na wielu urz\u0105dzeniach<\/li>\n<li>Konfiguracja automatyzacji (np. za po\u015brednictwem FileMaker)<\/li>\n<\/ul>\n<p>I to ujawnia interesuj\u0105c\u0105 prawd\u0119: starsze GPU, takie jak RTX 3090, wci\u0105\u017c rozbijaj\u0105 na kawa\u0142ki wiele nowych kart ze \u015bredniej p\u00f3\u0142ki. Dlaczego? Maj\u0105 wi\u0119cej pami\u0119ci VRAM (24 GB), podczas gdy nowe karty cz\u0119sto s\u0105 wykastrowane. Maj\u0105 szeroki interfejs pami\u0119ci, idealny dla modeli o szerokiej dyfuzji. Maj\u0105 dojrza\u0142e i stabilne sterowniki CUDA. Cz\u0119sto s\u0105 sprzedawane jako u\u017cywane w niesamowitych cenach. Karta 3090 mo\u017ce zrobi\u0107 wi\u0119cej za 700-900 euro, ni\u017c obecna 4070 lub 4070 Ti za 1100 euro - po prostu dlatego, \u017ce VRAM i \u0142\u0105czno\u015b\u0107 pami\u0119ci s\u0105 wa\u017cniejsze ni\u017c kilka procent surowej wydajno\u015bci.<\/p>\n<h3>3. klasa zawodowa (4000-8000 \u20ac)<\/h3>\n<p>Dla wszystkich, kt\u00f3rzy powa\u017cnie podchodz\u0105 do produkcji i d\u0105\u017c\u0105 do pe\u0142nej niezale\u017cno\u015bci. W tej klasie dost\u0119pna jest prawdziwa moc produkcyjna. Typowa konfiguracja:<\/p>\n<ul>\n<li><strong>Mac Studio<\/strong> M1 \/ M2 \/ M3 Ultra z 128 GB pami\u0119ci RAM lub wi\u0119cej<\/li>\n<li><strong>System PC-GPU<\/strong> z RTX 3090 lub 4090<\/li>\n<li>a <strong>drugi komputer<\/strong> dla audio\/agent\u00f3w<\/li>\n<li>Opcjonalny serwer FileMaker jako centrum automatyzacji<\/li>\n<\/ul>\n<p>Pozwala to na:<\/p>\n<ul>\n<li>P\u0142ynne korzystanie z modeli 70B<\/li>\n<li>Stabilne dzia\u0142anie modeli MoE, takich jak GPT-OSS 120B<\/li>\n<li>Koordynacja r\u00f3wnoleg\u0142ych agent\u00f3w AI<\/li>\n<li>SDXL, wideo AI, ComfyUI dzia\u0142aj\u0105ce z pe\u0142n\u0105 wydajno\u015bci\u0105<\/li>\n<li>Prowadzenie szkole\u0144 LoRA w rozdzielczo\u015bci 896\u00d7896 lub 1024\u00d71024<\/li>\n<li>Przygotowanie w\u0142asnych baz danych do szkolenia<\/li>\n<li>Mapowanie kompletnych potok\u00f3w (podpowiedzi \u2192 obrazy \u2192 pliki PDF \u2192 ksi\u0105\u017cki)<\/li>\n<\/ul>\n<p>I w\u0142a\u015bnie w tym miejscu mo\u017cna dostrzec najbardziej ekscytuj\u0105c\u0105 rzecz: najlepszy sprz\u0119t AI w 2025 r. jest cz\u0119sto wykorzystywanym sprz\u0119tem premium z lat 2020-2022. Dlaczego? Zosta\u0142 on w\u00f3wczas opracowany dla zaawansowanych obci\u0105\u017ce\u0144. Dzi\u015b jest to u\u0142amek jego ceny. Technologia jest dojrza\u0142a. Brak problem\u00f3w ze sterownikami beta. Ma dok\u0142adnie te cechy, kt\u00f3rych potrzebuje sztuczna inteligencja: du\u017co pami\u0119ci VRAM, szerokie magistrale pami\u0119ci, stabilne rdzenie tensorowe.<\/p>\n<h3>Dlaczego zawodzi zbyt ma\u0142a ilo\u015b\u0107 pami\u0119ci VRAM, a nie zbyt ma\u0142a moc GPU?<\/h3>\n<p>Jest to kwestia, kt\u00f3rej wielu nie docenia: Pami\u0119\u0107 VRAM jest decyduj\u0105cym czynnikiem dla sztucznej inteligencji obrazu, a nie czysta wydajno\u015b\u0107. Przyk\u0142ady:<\/p>\n<ul>\n<li>Jeden <strong>RTX 4060<\/strong> (8 GB VRAM) jest praktycznie bezu\u017cyteczna dla SDXL.<\/li>\n<li>Jeden <strong>RTX 4070<\/strong> Ti (12 GB VRAM) tylko w niewielkim stopniu wystarcza do treningu.<\/li>\n<li>Jeden <strong>RTX 3090<\/strong> (24 GB VRAM), z drugiej strony, dzia\u0142a p\u0142ynnie przez lata.<\/li>\n<\/ul>\n<p>W skr\u00f3cie: du\u017ce modele potrzebuj\u0105 pami\u0119ci - nie marketingu. A pami\u0119\u0107 jest tym, co maj\u0105 starsze karty z wy\u017cszej p\u00f3\u0142ki, a czego nie maj\u0105 nowe karty ze \u015bredniej p\u00f3\u0142ki.<\/p>\n<h3>Jak modu\u0142owo rozbudowa\u0107 studio AI?<\/h3>\n<p>Najwi\u0119ksz\u0105 zalet\u0105 tr\u00f3jfilarowego studia jest jego modu\u0142owo\u015b\u0107:<\/p>\n<ul>\n<li>Stacja robocza GPU mo\u017ce by\u0107 aktualizowana niezale\u017cnie.<\/li>\n<li>Komputer Mac Studio mo\u017cna przechowywa\u0107 przez lata.<\/li>\n<li>Komputer podrz\u0119dny mo\u017cna wymieni\u0107 bez zak\u0142\u00f3cania pracy systemu.<\/li>\n<li>Dyski twarde lub SSD mo\u017cna rozbudowywa\u0107 oddzielnie.<\/li>\n<li>Jako orkiestracji mo\u017cna u\u017cy\u0107 FileMaker, Python lub Bash.<\/li>\n<\/ul>\n<p>To jak warsztat: Nie przebudowujesz wszystkiego naraz, ale tylko to, co jest potrzebne w danym momencie.<\/p>\n<div class=\"lyte-wrapper\" style=\"width:640px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_ii8Npn8H2BQ\"><div id=\"lyte_ii8Npn8H2BQ\" data-src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=%2F%2Fi.ytimg.com%2Fvi%2Fii8Npn8H2BQ%2Fhqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/ii8Npn8H2BQ\" rel=\"nofollow noopener\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.markus-schall.de\/wp-content\/plugins\/wp-youtube-lyte\/lyteCache.php?origThumbUrl=https%3A%2F%2Fi.ytimg.com%2Fvi%2Fii8Npn8H2BQ%2F0.jpg\" alt=\"Miniatura wideo YouTube\" width=\"640\" height=\"340\" \/><br \/>Obejrzyj ten film na YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:640px;margin:5px;\"><\/div><br \/>\nLokalna sztuczna inteligencja jest teraz NAPRAWD\u0118 u\u017cyteczna (i dzia\u0142a na tym sprz\u0119cie). <a href=\"https:\/\/www.youtube.com\/@ct3003\" target=\"_blank\" rel=\"noopener\">c't 3003<\/a><\/p>\n<h2>Rekomendacje na 2025 rok - ten sprz\u0119t naprawd\u0119 si\u0119 op\u0142aca<\/h2>\n<p>W g\u0105szczu reklam i specyfikacji \u0142atwo straci\u0107 orientacj\u0119. Jednak do zastosowa\u0144 AI w domu lub ma\u0142ym studiu istniej\u0105 klasy sprz\u0119tu, kt\u00f3re b\u0119d\u0105 szczeg\u00f3lnie przydatne w 2025 roku - poniewa\u017c oferuj\u0105 dobry stosunek ceny do wydajno\u015bci, s\u0105 solidne i wystarczaj\u0105ce dla obecnych modeli. To, co liczy si\u0119 dzisiaj:<\/p>\n<ul>\n<li><strong>Wystarczaj\u0105ca ilo\u015b\u0107 pami\u0119ci VRAM (dla zada\u0144 GPU)<\/strong>W przypadku sztucznej inteligencji obrazu, przebieg\u00f3w treningowych, stabilnej dyfuzji itp. karta graficzna powinna mie\u0107 co najmniej 16 GB, a najlepiej 24 GB pami\u0119ci VRAM. Powy\u017cej tego progu sztuczna inteligencja obrazu staje si\u0119 wygodna i stabilna.<\/li>\n<li><strong>Dobra pami\u0119\u0107 robocza i pojemno\u015b\u0107 pami\u0119ci RAM<\/strong> (dla LLM): W przypadku du\u017cych LLM, wielozadaniowo\u015bci z us\u0142ugami serwerowymi i procesami r\u00f3wnoleg\u0142ymi, sensowne jest posiadanie jak najwi\u0119kszej ilo\u015bci pami\u0119ci RAM - najlepiej 64-128 GB dla Apple-Silicon.<\/li>\n<li><strong>Stabilny, sprawdzony sprz\u0119t zamiast najnowszych produkt\u00f3w marketingowych<\/strong>Zw\u0142aszcza starsze karty z wy\u017cszej p\u00f3\u0142ki cz\u0119sto maj\u0105 doskona\u0142e specyfikacje (VRAM, magistrala pami\u0119ci, dojrza\u0142o\u015b\u0107 sterownik\u00f3w) przy umiarkowanej cenie.<\/li>\n<li><strong>Modu\u0142owo\u015b\u0107 i miksowanie zamiast monoblok\u00f3w<\/strong>Po\u0142\u0105czenie komputera LLM, stacji roboczej GPU i systemu pomocniczego\/agentowego jest bardziej elastyczne i trwa\u0142e ni\u017c pojedyncza maszyna typu \u201ewszystko w jednym\u201c.<\/li>\n<\/ul>\n<div style=\"overflow-x: auto;\">\n<table style=\"border-collapse: collapse; width: 100%;\">\n<tbody>\n<tr style=\"background-color: #f2f2f2;\">\n<th style=\"border: 1px solid #ccc; padding: 8px; text-align: left;\">Klasa<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px; text-align: left;\">Typowe komponenty<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px; text-align: left;\">Dla kogo<\/th>\n<th style=\"border: 1px solid #ccc; padding: 8px; text-align: left;\">Mocne strony \/ kompromisy<\/th>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Poziom podstawowy (oko\u0142o 1 500-2 500 \u20ac)<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Mac mini (16-32 GB RAM) lub PC z GPU (np. RTX 3060 \/ 3060 Ti \/ 4060 Ti z \u2265 12-16 GB VRAM)<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Hobby, pierwsze eksperymenty, ma\u0142e modele, obraz AI do opanowania<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Korzystny poziom wej\u015bcia, wystarczaj\u0105cy dla mniejszych LLM, lekkich stabilnych przep\u0142yw\u00f3w pracy z dyfuzj\u0105 i sztucznej inteligencji audio\/tekstowej. Ograniczenia w przypadku du\u017cych modeli, z\u0142o\u017conych potok\u00f3w ComfyUI i szkolenia LoRA.<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Standard (ok. 2 500-4 000 EUR)<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Stacja robocza z GPU \u015bredniej klasy (np. z RTX 3080 lub RTX 3090), komputer z 64 GB pami\u0119ci RAM<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Kreatywni, self-publisherzy, ambitni u\u017cytkownicy AI, ma\u0142e zespo\u0142y<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Solidna wydajno\u015b\u0107 dla tekstu i obraz\u00f3w, dobry stosunek ceny do wydajno\u015bci. Wystarczaj\u0105ca ilo\u015b\u0107 pami\u0119ci VRAM i RAM do wszechstronnego wykorzystania sztucznej inteligencji, w tym SDXL i pocz\u0105tkowego szkolenia LoRA. Przy ekstremalnych projektach lub wielu r\u00f3wnoleg\u0142ych przep\u0142ywach pracy system w pewnym momencie osi\u0105ga swoje granice.<\/td>\n<\/tr>\n<tr>\n<td style=\"border: 1px solid #ccc; padding: 8px;\"><strong>Profesjonalny \/ Studio (oko\u0142o 4,000-8,000 \u20ac)<\/strong><\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">System z du\u017c\u0105 ilo\u015bci\u0105 pami\u0119ci RAM (np. Mac Studio z 128 GB pami\u0119ci RAM lub wydajna stacja robocza z systemem Linux) + GPU z \u2265 24 GB pami\u0119ci VRAM (np. RTX 3090, 4090) + oddzielny system pomocniczy\/agentowy<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Freelancerzy, wydawcy, produkcje medialne, deweloperzy z wieloma projektami, ma\u0142e studia AI<\/td>\n<td style=\"border: 1px solid #ccc; padding: 8px;\">Maksymalna elastyczno\u015b\u0107, du\u017ce modele (70B, MoE), r\u00f3wnoleg\u0142a sztuczna inteligencja obrazu i tekstu, automatyzacja i d\u0142ugotrwa\u0142e przep\u0142ywy pracy. Bardzo przysz\u0142o\u015bciowa, ale wy\u017csza pocz\u0105tkowa inwestycja i nieco wi\u0119kszy wysi\u0142ek zwi\u0105zany z planowaniem podczas konfiguracji.<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<h3>Dlaczego u\u017cywane i starsze high-endowe uk\u0142ady GPU s\u0105 dzi\u015b cz\u0119sto lepsze od nowych kart ze \u015bredniej p\u00f3\u0142ki cenowej?<\/h3>\n<p>Wiele nowszych kart jest oferowanych z ograniczon\u0105 ilo\u015bci\u0105 pami\u0119ci VRAM - ale ma to kluczowe znaczenie dla sztucznej inteligencji. Starsze modele z wy\u017cszej p\u00f3\u0142ki, takie jak RTX 3090, cz\u0119sto oferuj\u0105 24 GB pami\u0119ci VRAM, co jest obecnie bardzo cenne w przypadku SDXL, szkole\u0144 LoRA lub sztucznej inteligencji wideo. Sprz\u0119t zosta\u0142 pierwotnie zaprojektowany z my\u015bl\u0105 o wydajno\u015bci i stabilno\u015bci - z wysokiej jako\u015bci komponentami, magistral\u0105 pami\u0119ci, ch\u0142odzeniem i dobrym wsparciem dla sterownik\u00f3w.<\/p>\n<p>Oznacza to, \u017ce: trwa\u0142o\u015b\u0107 i solidna wydajno\u015b\u0107 s\u0105 cz\u0119sto dost\u0119pne. U\u017cywane karty s\u0105 cz\u0119sto znacznie ta\u0144sze, a zatem bardzo przyst\u0119pne cenowo - idealne dla freelancer\u00f3w lub ma\u0142ych studi\u00f3w z ograniczonym bud\u017cetem.<\/p>\n<h3>Moja obecna rekomendacja na rok 2025 (i dlaczego)<\/h3>\n<p>Gdybym dzi\u015b budowa\u0142 studio i nie celowa\u0142 w maksymaln\u0105 moc superkomputera, zdecydowa\u0142bym si\u0119:<\/p>\n<ul>\n<li><strong>Dla obrazu AI<\/strong>Co najmniej jedna karta graficzna z 24 GB pami\u0119ci VRAM - np. RTX 3090 lub 4090.<\/li>\n<li><strong>Dla tekstu\/LLM<\/strong>128 GB pami\u0119ci RAM w pot\u0119\u017cnym systemie Apple-Silicon.<\/li>\n<li><strong>W przypadku pracy w niepe\u0142nym wymiarze godzin<\/strong> (audio, g\u0142os, ma\u0142e modele, automatyzacja): ma\u0142y, oddzielny komputer (np. mini PC lub niedrogi serwer).<\/li>\n<li><strong>Koordynacja<\/strong>warstwa oprogramowania - dla mnie jest to FileMaker, dla innych mo\u017ce to by\u0107 prosta pow\u0142oka lub potok Pythona.<\/li>\n<\/ul>\n<p>Ta konfiguracja nie jest przesadna, nie zale\u017cy od drogich licencji w chmurze - i jest wystarczaj\u0105ca dla prawie wszystkiego, co mo\u017cna zrobi\u0107 ze sztuczn\u0105 inteligencj\u0105 w sektorze kreatywnym, wydawniczym lub deweloperskim w 2025 roku.<\/p>\n<h3>Inteligentny system ERP: wykonywanie lokalnych modeli j\u0119zykowych za pomoc\u0105 serwera FileMaker<\/h3>\n<p><a href=\"https:\/\/www.markus-schall.de\/pl\/oprogramowanie-erp\/\"><img loading=\"lazy\" decoding=\"async\" class=\"alignright size-medium wp-image-3182\" src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg\" alt=\"Oprogramowanie ERP\" width=\"300\" height=\"200\" srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software-18x12.jpg 18w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ERP-Software.jpg 1024w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a>Kwestia odpowiedniego sprz\u0119tu AI jest uzasadniona - ale nie jest wystarczaj\u0105ca, je\u015bli jest rozpatrywana w izolacji. Pot\u0119\u017cne systemy, takie jak Mac Studio lub stacja robocza oparta na RTX, naprawd\u0119 sprawdzaj\u0105 si\u0119 tylko wtedy, gdy s\u0105 zintegrowane z dobrze przemy\u015blan\u0105 struktur\u0105 oprogramowania. Wraz z nadchodz\u0105cym rozwojem Claris FileMaker Server, w\u0142a\u015bnie ten krok stanie si\u0119 bardziej namacalny: po raz pierwszy lokalne modele j\u0119zykowe mog\u0105 by\u0107 obs\u0142ugiwane bezpo\u015brednio na serwerze i zintegrowane z istniej\u0105cymi aplikacjami. Oznacza to, \u017ce nawet bezpo\u015brednie <a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/10\/lora-training-jak-program-filemaker-2025-upraszcza-dostrajanie-duzych-modeli-jezykowych\/\"><strong>Szkolenie LoRA w ramach FileMaker<\/strong><\/a> mo\u017cliwe. Oznacza to jednak r\u00f3wnie\u017c, \u017ce wymagania dotycz\u0105ce pami\u0119ci RAM, procesora graficznego i ca\u0142ego systemu znacznie wzrosn\u0105 - proste dzia\u0142anie serwera bez odpowiednich rezerw nie b\u0119dzie ju\u017c wystarczaj\u0105ce w d\u0142u\u017cszej perspektywie. W po\u0142\u0105czeniu z lokalnym <a href=\"https:\/\/www.markus-schall.de\/pl\/oprogramowanie-erp\/\"><strong>Rozwi\u0105zanie ERP oparte na FileMaker<\/strong><\/a> takich jak gFM Business, skutkuje to pot\u0119\u017cnym systemem, w kt\u00f3rym sztuczna inteligencja nie dzia\u0142a w izolacji, ale ma bezpo\u015bredni dost\u0119p do proces\u00f3w firmy. Zmienia to czyst\u0105 moc obliczeniow\u0105 w prawdziwy czynnik produkcyjny - ustrukturyzowany, kontrolowany i bezpo\u015brednio zakotwiczony we w\u0142asnym systemie.<\/p>\n<h2>Sprz\u0119t dla AI nie musi by\u0107 nowy, ale odpowiedni<\/h2>\n<p>Dzi\u015b czas, w kt\u00f3rym \u201esztuczna inteligencja\u201c by\u0142a czym\u015b tylko dla du\u017cych korporacji lub laboratori\u00f3w w chmurze, dobiega ko\u0144ca. Do 2025 r. prawie ka\u017cdy - z rozs\u0105dnym bud\u017cetem i odrobin\u0105 wiedzy technicznej - mo\u017ce za\u0142o\u017cy\u0107 w\u0142asne ma\u0142e studio AI. Uniezale\u017cni si\u0119 w ten spos\u00f3b od drogich miesi\u0119cznych subskrypcji, warunk\u00f3w ochrony danych stron trzecich, kolejek, w\u0105skich garde\u0142 serwer\u00f3w i niepewno\u015bci co do tego, jak d\u0142ugo us\u0142ugi w chmurze b\u0119d\u0105 istnie\u0107. Zamiast tego otrzymujesz:<\/p>\n<ul>\n<li><strong>Pe\u0142na kontrola<\/strong> o danych i przep\u0142ywach pracy,<\/li>\n<li>stabilny, szybki i <strong>Skalowalna wydajno\u015b\u0107<\/strong>,<\/li>\n<li>jeden <strong>Zr\u00f3wnowa\u017cone inwestycje<\/strong>, kt\u00f3ry przetrwa lata,<\/li>\n<li>i <strong>Wolno\u015b\u0107<\/strong>, by\u0107 kreatywnym, kiedy i jak chcesz - bez zewn\u0119trznych ogranicze\u0144.<\/li>\n<\/ul>\n<p>Tak wi\u0119c, je\u015bli my\u015blisz o wykorzystaniu sztucznej inteligencji w swoich ksi\u0105\u017ckach, tekstach, obrazach lub projektach, bardziej ni\u017c kiedykolwiek warto za\u0142o\u017cy\u0107 w\u0142asne studio. Nie musisz by\u0107 in\u017cynierem sprz\u0119tu. Nie potrzebujesz ogromnego bud\u017cetu. Nie potrzebujesz najnowszego sprz\u0119tu.<\/p>\n<p>Przede wszystkim potrzebna jest jasna wizja celu, do kt\u00f3rego si\u0119 d\u0105\u017cy - i ch\u0119\u0107 zachowania kontroli nad w\u0142asnymi procesami.<\/p>\n<p>Poka\u017c\u0119 ci, jak skonfigurowa\u0107 lokalny LLM z Ollama na Macu installier w <a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/08\/lokalny-ki-na-macu-w-nastepujacy-sposob-1tp12aby-utworzyc-model-jezykowy-za-pomoca-ollama\/\"><strong>ten artyku\u0142<\/strong><\/a>.<\/p>\n<p>Tutaj znajdziesz por\u00f3wnanie <a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/11\/apple-mlx-vs-nvidia-jak-dziala-lokalne-wnioskowanie-ki-na-macu\/\"><strong>Apple MLX na Silicon vs NVIDIA<\/strong><\/a>.<\/p>\n<p>Jak pracowa\u0107 z <a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/08\/ollama-spotyka-qdrant-lokalna-pamiec-dla-ki-na-macu\/\"><strong>Qdrant pami\u0119\u0107 lokalna<\/strong><\/a> dla lokalnej AI mo\u017cna znale\u017a\u0107 tutaj.<\/p>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-610 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-610 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Aktualne artyku\u0142y na temat sztucznej inteligencji<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-610\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"mit klarheit durch die krise: wie ki neue perspektiven er\u00f6ffnet\" data-id=\"2436\"  data-category=\"b\u00fccher\" data-post_tag=\"buch krisen k\u00fcnstliche intelligenz lernen pers\u00f6nlichkeitsentwicklung ratgeber\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/08\/z-jasnoscia-przez-kryzys-jak-ki-otwiera-nowe-perspektywy\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Przejrzysto\u015b\u0107 w kryzysie: jak sztuczna inteligencja otwiera nowe perspektywy<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"838\" height=\"1200\" class=\"attachment-full size-full\" alt=\"Ksi\u0105\u017cka &#039;Kryzysy jako punkty zwrotne - ucz si\u0119, rozwijaj, kszta\u0142tuj&#039;\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krisen-Cover-Front-DEjpg.jpg\" data-dpt-sizes=\"(max-width: 838px) 100vw, 838px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krisen-Cover-Front-DEjpg.jpg 838w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krisen-Cover-Front-DEjpg-210x300.jpg 210w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krisen-Cover-Front-DEjpg-715x1024.jpg 715w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krisen-Cover-Front-DEjpg-768x1100.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krisen-Cover-Front-DEjpg-8x12.jpg 8w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/08\/z-jasnoscia-przez-kryzys-jak-ki-otwiera-nowe-perspektywy\/\" rel=\"bookmark\">Przejrzysto\u015b\u0107 w kryzysie: jak sztuczna inteligencja otwiera nowe perspektywy<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"lora-training: wie filemaker 2025 das feintuning gro\u00dfer sprachmodelle vereinfacht\" data-id=\"3220\"  data-category=\"filemaker &amp; erp ki-systeme\" data-post_tag=\"datenbanken filemaker k\u00fcnstliche intelligenz llm mlx sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/10\/lora-training-jak-program-filemaker-2025-upraszcza-dostrajanie-duzych-modeli-jezykowych\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Szkolenie LoRA: Jak FileMaker 2025 upraszcza dostrajanie du\u017cych modeli j\u0119zykowych<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Dok\u0142adne dostrojenie LoRA - FileMaker 2025\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/lora-finetuning-filemaker-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/10\/lora-training-jak-program-filemaker-2025-upraszcza-dostrajanie-duzych-modeli-jezykowych\/\" rel=\"bookmark\">Szkolenie LoRA: Jak FileMaker 2025 upraszcza dostrajanie du\u017cych modeli j\u0119zykowych<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"k\u00fcnstliche intelligenz: welche jobs in gefahr sind, und wie wir uns jetzt wappnen k\u00f6nnen\" data-id=\"2940\"  data-category=\"allgemein b\u00fccher gesellschaft ki-systeme\" data-post_tag=\"buch k\u00fcnstliche intelligenz llama llm mistral mlx ollama ratgeber sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/09\/sztucznej-inteligencji-ktore-miejsca-pracy-sa-zagrozone-i-jak-mozemy-sie-teraz-uzbroic\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Sztuczna inteligencja: kt\u00f3re miejsca pracy s\u0105 zagro\u017cone i jak mo\u017cemy si\u0119 teraz uzbroi\u0107?<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Kt\u00f3re zawody zostan\u0105 w przysz\u0142o\u015bci wyeliminowane przez sztuczn\u0105 inteligencj\u0119?\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/welche-jobs-fallen-durch-ki-weg.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/welche-jobs-fallen-durch-ki-weg.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/welche-jobs-fallen-durch-ki-weg-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/welche-jobs-fallen-durch-ki-weg-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/welche-jobs-fallen-durch-ki-weg-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/09\/sztucznej-inteligencji-ktore-miejsca-pracy-sa-zagrozone-i-jak-mozemy-sie-teraz-uzbroic\/\" rel=\"bookmark\">Sztuczna inteligencja: kt\u00f3re miejsca pracy s\u0105 zagro\u017cone i jak mo\u017cemy si\u0119 teraz uzbroi\u0107?<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"gfm-business und die zukunft des erp: lokale intelligenz statt cloud-abh\u00e4ngigkeit\" data-id=\"2956\"  data-category=\"apple iphone &amp; ipad apple macos filemaker &amp; erp ki-systeme\" data-post_tag=\"datenschutz digitales eigentum erp-software filemaker gfm-business k\u00fcnstliche intelligenz llm neo4j qdrant sprachmodell\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/09\/gfm-business-i-przyszlosc-erp-lokalna-inteligencja-zamiast-zaleznosci-od-chmury\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">gFM-Business i przysz\u0142o\u015b\u0107 ERP: lokalna inteligencja zamiast zale\u017cno\u015bci od chmury<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"gFM-Business i sztuczna inteligencja + graf wiedzy\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/gfm-ERP-KI-Wissensgraf.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/gfm-ERP-KI-Wissensgraf.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/gfm-ERP-KI-Wissensgraf-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/gfm-ERP-KI-Wissensgraf-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/gfm-ERP-KI-Wissensgraf-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/09\/gfm-business-i-przyszlosc-erp-lokalna-inteligencja-zamiast-zaleznosci-od-chmury\/\" rel=\"bookmark\">gFM-Business i przysz\u0142o\u015b\u0107 ERP: lokalna inteligencja zamiast zale\u017cno\u015bci od chmury<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>\n<h2>Cz\u0119sto zadawane pytania<\/h2>\n<ol>\n<li><strong>Dlaczego w og\u00f3le warto mie\u0107 w\u0142asne studio AI, skoro istnieje tak wielu dostawc\u00f3w us\u0142ug w chmurze?<\/strong><br \/>\nPosiadanie w\u0142asnego studia AI sprawia, \u017ce jeste\u015b bardziej niezale\u017cny, stabilny i ta\u0144szy w d\u0142u\u017cszej perspektywie. Us\u0142ugi w chmurze s\u0105 wygodne, ale kosztuj\u0105 co miesi\u0105c, powoduj\u0105 uzale\u017cnienie i cz\u0119sto s\u0105 ograniczone ograniczeniami u\u017cytkowania. Lokalna sztuczna inteligencja jest szybka, stale dost\u0119pna i mo\u017ce by\u0107 u\u017cywana bez zmiennych koszt\u00f3w. Ponadto wszystkie dane pozostaj\u0105 w firmie - ogromna zaleta dla os\u00f3b samozatrudnionych, firm, wydawc\u00f3w lub zawod\u00f3w kreatywnych.<\/li>\n<li><strong>Jakiego minimalnego sprz\u0119tu potrzebuj\u0119, aby zacz\u0105\u0107 korzysta\u0107 z AI lokalnie?<\/strong><br \/>\nNa pocz\u0105tek wystarczy komputer Mac mini z 16-32 GB pami\u0119ci RAM lub komputer PC z procesorem graficznym z co najmniej 12 GB pami\u0119ci VRAM. Pozwala to na uruchamianie niewielkich modeli j\u0119zykowych, lekkich modeli graficznych i wst\u0119pnych automatyzacji. Je\u015bli chcesz tylko wypr\u00f3bowa\u0107, nie musisz inwestowa\u0107 kilku tysi\u0119cy euro.<\/li>\n<li><strong>Czy naprawd\u0119 potrzebuj\u0119 Mac Studio, czy jest ta\u0144szy?<\/strong><br \/>\nJest zdecydowanie ta\u0144szy. Mac Studio jest op\u0142acalny, je\u015bli chcesz uruchamia\u0107 du\u017ce modele j\u0119zykowe (20-120B), pracowa\u0107 du\u017co r\u00f3wnolegle lub mie\u0107 d\u0142ugoterminowe procesy produkcyjne. Do stawiania pierwszych krok\u00f3w w zupe\u0142no\u015bci wystarczy Mac mini lub solidny komputer PC z systemem Windows. Studio to inwestycja w wygod\u0119 i przysz\u0142o\u015b\u0107 - ale nie konieczno\u015b\u0107.<\/li>\n<li><strong>Dlaczego pami\u0119\u0107 VRAM jest wa\u017cniejsza dla sztucznej inteligencji obrazu ni\u017c nowoczesna generacja kart graficznych?<\/strong><br \/>\nPoniewa\u017c modele obrazu, takie jak Stable Diffusion, przetwarzaj\u0105 ogromne ilo\u015bci danych w pami\u0119ci. Je\u015bli pami\u0119\u0107 VRAM jest niewystarczaj\u0105ca, proces ten zatrzymuje si\u0119 lub staje si\u0119 niezwykle powolny. Starsza karta, taka jak RTX 3090 z 24 GB VRAM, cz\u0119sto pokonuje nowe modele \u015bredniej klasy z zaledwie 8-12 GB VRAM - po prostu dlatego, \u017ce oferuje wi\u0119cej miejsca na du\u017ce modele i przebiegi treningowe.<\/li>\n<li><strong>Czy mog\u0119 uruchomi\u0107 studio AI w ca\u0142o\u015bci na sprz\u0119cie Apple bez NVIDIA?<\/strong><br \/>\nDla modeli j\u0119zykowych tak. W przypadku sztucznej inteligencji obrazu nie. Apple-Silicon jest niezwykle wydajny dla LLM, ale dla stabilnej dyfuzji, szkolenia LoRA i wielu modeli obrazu, karty NVIDIA (ze wzgl\u0119du na rdzenie CUDA \/ Tensor) s\u0105 nadal punktem odniesienia. Dlatego te\u017c wiele studi\u00f3w korzysta z kombinacji Apple\/LLM i Linux+NVIDIA dla obraz\u00f3w.<\/li>\n<li><strong>Czy RTX 4080 lub 4070 Ti jest r\u00f3wnie\u017c wystarczaj\u0105cy do graficznej sztucznej inteligencji?<\/strong><br \/>\nTeoretycznie tak - w praktyce zale\u017cy to od zamierzonego zastosowania. W przypadku prostych obraz\u00f3w lub ma\u0142ych przep\u0142yw\u00f3w pracy to wystarczy. Ale w przypadku SDXL, z\u0142o\u017conych potok\u00f3w ComfyUI lub szkole\u0144 LoRA, limit 12-16 GB VRAM szybko osi\u0105ga swoje granice. RTX 3090 lub 4090 ma zatem wi\u0119kszy sens w d\u0142u\u017cszej perspektywie.<\/li>\n<li><strong>Dlaczego modele j\u0119zykowe nie s\u0105 uruchamiane na GPU, ale na pami\u0119ci RAM?<\/strong><br \/>\nModele j\u0119zykowe s\u0105 zorientowane na pami\u0119\u0107. Musz\u0105 przechowywa\u0107 du\u017ce ilo\u015bci tekstu i kontekstu w pami\u0119ci RAM, a niekoniecznie wykonywa\u0107 operacje graficzne. Procesory graficzne s\u0105 przeznaczone do przetwarzania obrazu, a nie analizy tekstu. Dlatego te\u017c systemy LLM czerpi\u0105 ogromne korzy\u015bci z du\u017cej ilo\u015bci pami\u0119ci RAM, a mniejsze z pami\u0119ci VRAM.<\/li>\n<li><strong>Ile pami\u0119ci RAM powinien mie\u0107 komputer LLM?<\/strong><br \/>\nW przypadku mniejszych modeli wystarczy 32-64 GB. W przypadku modeli \u015bredniej wielko\u015bci (20-30B) idealne jest 64-128 GB. W przypadku du\u017cych modeli, takich jak 70B lub modeli MoE, takich jak GPT-OSS 120B, idealnym rozwi\u0105zaniem jest 128-192 GB pami\u0119ci RAM. Im wi\u0119cej pami\u0119ci RAM, tym stabilniejsze i szybsze dzia\u0142anie.<\/li>\n<li><strong>Czy mo\u017cliwe jest uruchomienie studia AI ca\u0142kowicie bez Linuksa?<\/strong><br \/>\nTak - ale z ograniczeniami. macOS jest idealny do LLM, ale do sztucznej inteligencji obrazu brakuje mu niekt\u00f3rych narz\u0119dzi, kt\u00f3re istniej\u0105 tylko w systemie Linux \/ NVIDIA. Windows dzia\u0142a dobrze w przypadku sztucznej inteligencji obrazu, ale jest mniej stabilny i trudniejszy do zautomatyzowania. Pragmatyczne po\u0142\u0105czenie to zatem cz\u0119sto: macOS \u2192 LLM, Linux \u2192 sztuczna inteligencja obrazu, ma\u0142y komputer \u2192 audio\/skrypty<\/li>\n<li><strong>Jak g\u0142o\u015bno dzia\u0142a takie studio AI?<\/strong><br \/>\nMniej ni\u017c mog\u0142oby si\u0119 wydawa\u0107. Mac Studio jest praktycznie bezg\u0142o\u015bny. Komputer PC z systemem Linux zale\u017cy od ch\u0142odzenia - wysokiej jako\u015bci GPU s\u0105 ciche przy niskim obci\u0105\u017ceniu, ale mog\u0105 sta\u0107 si\u0119 s\u0142yszalne podczas trening\u00f3w. Je\u015bli wolisz ciche konstrukcje, mo\u017cesz u\u017cy\u0107 stacji roboczych z GPU ch\u0142odzonych wod\u0105.<\/li>\n<li><strong>Jak\u0105 rol\u0119 odgrywa Mac mini jako trzeci komponent?<\/strong><br \/>\nS\u0142u\u017cy jako dodatkowa stacja do transkrypcji, TTS, ma\u0142ych modeli AI, proces\u00f3w w tle, automatyzacji i dodatkowych zada\u0144 dla t\u0142umacze\u0144. Dzi\u0119ki temu dwie du\u017ce maszyny pozostaj\u0105 wolne i zapewniaj\u0105 stabilny przep\u0142yw pracy. Trzeci komputer nie jest absolutnie niezb\u0119dny, ale zapewnia porz\u0105dek i niezawodno\u015b\u0107.<\/li>\n<li><strong>Czy mog\u0119 stopniowo rozbudowywa\u0107 moje studio AI?<\/strong><br \/>\nJak najbardziej. W rzeczywisto\u015bci jest to idealny przypadek. Zakup systemu LLM, a nast\u0119pnie dodanie stacji roboczej GPU, a p\u00f3\u017aniej ma\u0142ego komputera pomocniczego - to bardzo naturalna konfiguracja, kt\u00f3r\u0105 mo\u017cna rozci\u0105gn\u0105\u0107 na miesi\u0105ce lub lata. Studia AI rozwijaj\u0105 si\u0119 tak samo, jak tradycyjne warsztaty.<\/li>\n<li><strong>Kt\u00f3re systemy operacyjne s\u0105 najlepsze dla studia AI?<\/strong><br \/>\n- macOS \u2192 optymalny dla modeli LLM i Apple-Silicon<br \/>\n- Linux (Ubuntu, Debian) \u2192 najlepszy wyb\u00f3r dla image AI, ComfyUI, Stable Diffusion<br \/>\n- Windows \u2192 dzia\u0142a dobrze dla SD\/ComfyUI, ale mniej idealnie dla proces\u00f3w automatyzacji<br \/>\nWiele studi\u00f3w korzysta dzi\u015b z po\u0142\u0105czonych konfiguracji - ka\u017cdy system robi to, do czego najlepiej si\u0119 nadaje.<\/li>\n<li><strong>Ile energii zu\u017cywa studio AI?<\/strong><br \/>\nMac Studio jest niesamowicie wydajny i zazwyczaj pobiera mi\u0119dzy 50-100 W. Stacja robocza GPU z RTX 3090 mo\u017ce pobiera\u0107 250-350 W, w zale\u017cno\u015bci od obci\u0105\u017cenia. Mac mini pobiera oko\u0142o 10-30 W. Podsumowuj\u0105c, znacznie mniej ni\u017c mo\u017cna by si\u0119 spodziewa\u0107 - i cz\u0119sto taniej ni\u017c subskrypcje w chmurze.<\/li>\n<li><strong>Czy trudno jest samemu za\u0142o\u017cy\u0107 studio AI?<\/strong><br \/>\nNie do ko\u0144ca. Potrzebna jest pewna wiedza techniczna, ale nie wykszta\u0142cenie informatyczne. Wiele dzisiejszych narz\u0119dzi posiada interfejsy webowe, skrypty instalacyjne i automatyczne konfiguracje. A je\u015bli wyra\u017anie oddzielisz systemy (LLM \/ GPU \/ zadania poboczne), wszystko pozostanie jasne.<\/li>\n<li><strong>Czy naprawd\u0119 mog\u0119 nim obj\u0105\u0107 ca\u0142y proces publikacji?<\/strong><br \/>\nTak - i w\u0142a\u015bnie do tego idealnie nadaje si\u0119 studio AI. Od pomys\u0142\u00f3w na ksi\u0105\u017ck\u0119 po teksty, projekty ok\u0142adek, serie obraz\u00f3w, korekty, t\u0142umaczenia i ostateczny plik do druku lub e-booka - wiele rzeczy mo\u017cna zautomatyzowa\u0107 i wyprodukowa\u0107 we w\u0142asnym zakresie. To ogromna swoboda dla self-publisher\u00f3w.<\/li>\n<li><strong>Jak przysz\u0142o\u015bciowe jest dzisiejsze studio AI?<\/strong><br \/>\nBardzo. LLM staj\u0105 si\u0119 coraz bardziej wydajne, modele obrazu bardziej modu\u0142owe, sprz\u0119t bardziej wytrzyma\u0142y - a lokalna sztuczna inteligencja ponownie zyskuje na znaczeniu na rynku, poniewa\u017c przepisy dotycz\u0105ce chmury, ochrony danych i koszt\u00f3w sprawiaj\u0105, \u017ce chmura staje si\u0119 mniej atrakcyjna. Ka\u017cdy, kto dzi\u015b inwestuje w ma\u0142e studio AI, buduje infrastruktur\u0119, kt\u00f3ra w latach 2026-2030 stanie si\u0119 wa\u017cniejsza, a nie przestarza\u0142a.<\/li>\n<li><strong>Czy modele AI mog\u0105 by\u0107 p\u00f3\u017aniej trenowane lub rozszerzane?<\/strong><br \/>\nTak, system GPU (np. RTX 3090 lub 4090) mo\u017ce by\u0107 wykorzystywany do trenowania LoRA, trenowania stylu, trenowania materia\u0142\u00f3w i trenowania proces\u00f3w. Oznacza to, \u017ce z czasem mo\u017cna trenowa\u0107 w\u0142asny \u201ej\u0119zyk wizualny AI\u201c lub \u201ekierunek tekstu AI\u201c. Jest to najwi\u0119ksza strategiczna zaleta studia AI: uniezale\u017cniasz si\u0119 od og\u00f3lnych modeli i tworzysz w\u0142asny styl.<\/li>\n<\/ol>\n<hr \/>\n\n\t\t\t<div class=\"display-post-types\">\n\n\t\t\t\t\t\t\t<style type=\"text\/css\">\n\t\t\t#dpt-wrapper-611 { --dpt-text-align: left;--dpt-image-crop: center;--dpt-border-radius: 5px;--dpt-h-gutter: 10px;--dpt-v-gutter: 9px; }\t\t\t<\/style>\n\t\t\t<style type=\"text\/css\">#dpt-wrapper-611 { --dpt-title-font-style:normal;--dpt-title-font-weight:600;--dpt-title-line-height:1.5;--dpt-title-text-decoration:none;--dpt-title-text-transform:none;--dpt-excerpt-font-style:normal;--dpt-excerpt-font-weight:400;--dpt-excerpt-line-height:1.5;--dpt-excerpt-text-decoration:none;--dpt-excerpt-text-transform:none;--dpt-meta1-font-style:normal;--dpt-meta1-font-weight:400;--dpt-meta1-line-height:1.9;--dpt-meta1-text-decoration:none;--dpt-meta1-text-transform:none;--dpt-meta2-font-style:normal;--dpt-meta2-font-weight:400;--dpt-meta2-line-height:1.9;--dpt-meta2-text-decoration:none;--dpt-meta2-text-transform:none; }<\/style><div class=\"dpt-main-header\">\n\t\t\t\t\t\t<div class=\"dpt-main-title\">\n\t\t\t\t\t\t\t<span class=\"dpt-main-title-text\">Aktualne artyku\u0142y na temat sztuki i kultury<\/span>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t\n\t\t\t\t\t\t<\/div>\t\t\t\n\t\t\t\t<div id=\"dpt-wrapper-611\" class=\"dpt-wrapper dpt-mag1 land1 dpt-cropped dpt-flex-wrap\" >\n\n\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"jan-josef liefers: ein portr\u00e4t \u00fcber haltung, herkunft und k\u00fcnstlerische freiheit\" data-id=\"3854\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"deutschland erfahrungen krisen lernen meinungsfreiheit musik pers\u00f6nlichkeitsentwicklung portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/jan-josef-liefers-portret-postawy-pochodzenia-i-wolnosci-artystycznej\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Jan-Josef Liefers: Portret postawy, pochodzenia i wolno\u015bci artystycznej<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Jan-Josef Liefers\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/jan-josef-liefers-silhouette-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/jan-josef-liefers-portret-postawy-pochodzenia-i-wolnosci-artystycznej\/\" rel=\"bookmark\">Jan-Josef Liefers: Portret postawy, pochodzenia i wolno\u015bci artystycznej<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"vicco von b\u00fclow alias loriot \u2013 ordnung, form und der leise widerstand des humors\" data-id=\"4169\"  data-category=\"allgemein gesellschaft kunst &amp; kultur stories &amp; humor\" data-post_tag=\"deutschland erfahrungen pers\u00f6nlichkeitsentwicklung portrait\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/formularz-zamowienia-vicco-von-buelow-alias-loriot-i-cichy-opor-humoru\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Vicco von B\u00fclow alias Loriot - porz\u0105dek, forma i cichy op\u00f3r humoru<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"747\" class=\"attachment-full size-full\" alt=\"\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Loriot-Titel.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Loriot-Titel.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Loriot-Titel-300x219.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Loriot-Titel-768x560.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Loriot-Titel-16x12.jpg 16w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/formularz-zamowienia-vicco-von-buelow-alias-loriot-i-cichy-opor-humoru\/\" rel=\"bookmark\">Vicco von B\u00fclow alias Loriot - porz\u0105dek, forma i cichy op\u00f3r humoru<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"die krimtataren \u2013 geschichte, herkunft und gegenwart eines vergessenen volkes\" data-id=\"4154\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"europa geopolitik krisen meinungsfreiheit\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/tatarzy-krymscy-historia-pochodzenie-i-terazniejszosc-zapomnianego-ludu\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Tatarzy Krymscy - historia, pochodzenie i tera\u017aniejszo\u015b\u0107 zapomnianego ludu<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Step krymsko-tatarski\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/Krimtartaren-Steppe-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/tatarzy-krymscy-historia-pochodzenie-i-terazniejszosc-zapomnianego-ludu\/\" rel=\"bookmark\">Tatarzy Krymscy - historia, pochodzenie i tera\u017aniejszo\u015b\u0107 zapomnianego ludu<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\t\t\t\t\t\t<div class=\"dpt-entry has-thumbnail\" data-title=\"ulrike gu\u00e9rot: eine europ\u00e4erin zwischen idee, universit\u00e4t und \u00f6ffentlichem diskurs\" data-id=\"4039\"  data-category=\"allgemein gesellschaft kunst &amp; kultur\" data-post_tag=\"denkmodelle deutschland europa geopolitik krisen meinungsfreiheit portrait sicherheitspolitik spieltheorie\">\n\t\t\t\t\t\t\t<div class=\"dpt-entry-wrapper\"><div class=\"dpt-featured-content\"><div class=\"dpt-permalink\"><a href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/ulrike-guerot-europejka-miedzy-idea-uniwersytetu-a-dyskursem-publicznym\/\" class=\"dpt-permalink\"><span class=\"screen-reader-text\">Ulrike Gu\u00e9rot: Europejka mi\u0119dzy ide\u0105, uniwersytetem i dyskursem publicznym<\/span><\/a><\/div><div class=\"dpt-thumbnail\"><div class=\"dpt-thumbnail-inner\"><img width=\"1024\" height=\"683\" class=\"attachment-full size-full\" alt=\"Ulrike Gu\u00e9rot i Europa\" context=\"dpt\" data-dpt-src=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait.jpg\" data-dpt-sizes=\"(max-width: 1024px) 100vw, 1024px\" data-dpt-srcset=\"https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait.jpg 1024w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait-300x200.jpg 300w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait-768x512.jpg 768w, https:\/\/www.markus-schall.de\/wp-content\/uploads\/ulrike-guerot-portrait-18x12.jpg 18w\" \/><\/div><span class=\"dpt-thumbnail-aspect-ratio\" style=\"padding-top: 75%\"><\/span><\/div><\/div><div class=\"sub-entry\"><h3 class=\"dpt-title\"><a class=\"dpt-title-link\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/ulrike-guerot-europejka-miedzy-idea-uniwersytetu-a-dyskursem-publicznym\/\" rel=\"bookmark\">Ulrike Gu\u00e9rot: Europejka mi\u0119dzy ide\u0105, uniwersytetem i dyskursem publicznym<\/a><\/h3><\/div><\/div>\n\t\t\t\t\t\t<\/div><!-- .dpt-entry -->\n\t\t\t\t\t\t\n\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\n<hr \/>","protected":false},"excerpt":{"rendered":"<p>Ka\u017cdy, kto pracuje dzi\u015b ze sztuczn\u0105 inteligencj\u0105, jest niemal automatycznie wypychany do chmury: OpenAI, Microsoft, Google, wszelkie interfejsy internetowe, tokeny, limity, warunki. Wydaje si\u0119 to nowoczesne - ale zasadniczo jest to powr\u00f3t do zale\u017cno\u015bci: inni okre\u015blaj\u0105, z kt\u00f3rych modeli mo\u017cesz korzysta\u0107, jak cz\u0119sto, z jakimi filtrami i za jak\u0105 cen\u0119. Ja celowo id\u0119 w drug\u0105 stron\u0119: ... <a title=\"Ulrike Gu\u00e9rot: Europejka mi\u0119dzy ide\u0105, uniwersytetem i dyskursem publicznym\" class=\"read-more\" href=\"https:\/\/www.markus-schall.de\/pl\/2025\/12\/ulrike-guerot-europejka-miedzy-idea-uniwersytetu-a-dyskursem-publicznym\/\" aria-label=\"Dowiedz si\u0119 wi\u0119cej o Ulrike Gu\u00e9rot: Europejka mi\u0119dzy ide\u0105, uniwersytetem i dyskursem publicznym\">Dowiedz si\u0119 wi\u0119cej<\/a><\/p>","protected":false},"author":1,"featured_media":3710,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"iawp_total_views":4694,"footnotes":""},"categories":[15,461,147,431],"tags":[10,473,471,433,465,453,434],"class_list":["post-3704","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-apple-macos","category-featured","category-hardware","category-ki-systeme","tag-apple","tag-digitales-eigentum","tag-kuenstliche-intelligenz","tag-llm","tag-mlx","tag-neo4j","tag-sprachmodell"],"_links":{"self":[{"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/posts\/3704","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/comments?post=3704"}],"version-history":[{"count":20,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/posts\/3704\/revisions"}],"predecessor-version":[{"id":5718,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/posts\/3704\/revisions\/5718"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/media\/3710"}],"wp:attachment":[{"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/media?parent=3704"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/categories?post=3704"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.markus-schall.de\/pl\/wp-json\/wp\/v2\/tags?post=3704"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}