Każdy, kto pracuje dziś ze sztuczną inteligencją, jest niemal automatycznie wypychany do chmury: OpenAI, Microsoft, Google, wszelkie interfejsy internetowe, tokeny, limity, warunki. Wydaje się to nowoczesne - ale zasadniczo jest to powrót do zależności: inni określają, z których modeli możesz korzystać, jak często, z jakimi filtrami i za jaką cenę. Celowo idę w drugą stronę: obecnie buduję własne małe studio AI w domu. Z własnym sprzętem, własnymi modelami i własnymi przepływami pracy.
Mój cel jest jasny: lokalna sztuczna inteligencja tekstu, lokalna sztuczna inteligencja obrazu, uczenie się własnych modeli (LoRA, dostrajanie), a wszystko to w taki sposób, abym jako freelancer, a później także klient MŚP, nie był zależny od codziennych kaprysów jakiegoś dostawcy chmury. Można powiedzieć, że to powrót do starej postawy, która kiedyś była całkiem normalna: „ważne rzeczy robisz sam“. Tyle, że tym razem nie chodzi o własny warsztat pracy, ale o moc obliczeniową i suwerenność danych.