AI Studio 2025: Welke hardware is echt de moeite waard - van de Mac Studio tot de RTX 3090

Hardware 2025 voor AI-studio

Wie vandaag met AI werkt, wordt bijna automatisch in de cloud geduwd: OpenAI, Microsoft, Google, alle web UI's, tokens, limieten, voorwaarden. Dit lijkt modern - maar is in wezen een terugkeer naar afhankelijkheid: anderen bepalen welke modellen je mag gebruiken, hoe vaak, met welke filters en tegen welke kosten. Ik ga bewust de andere kant op: ik bouw momenteel thuis mijn eigen kleine AI-studio. Met mijn eigen hardware, mijn eigen modellen en mijn eigen workflows.

Mijn doel is duidelijk: lokale tekst-AI, lokale beeld-AI, mijn eigen modellen leren (LoRA, fine-tuning) en dat alles op zo'n manier dat ik als freelancer en later ook MKB-klant niet afhankelijk ben van de dagelijkse grillen van een of andere cloudprovider. Je zou kunnen zeggen dat het een terugkeer is naar een oude houding die vroeger heel normaal was: „Belangrijke dingen doe je zelf“. Alleen gaat het deze keer niet om je eigen werkbank, maar om rekenkracht en gegevenssoevereiniteit.

Meer lezen

gFM-Business en de toekomst van ERP: lokale intelligentie in plaats van cloudafhankelijkheid

gFM-Business en AI + kennisgrafiek

Al meer dan tien jaar staat de gFM-Business-software voor iets bijzonders in de Duitse ERP-markt: het is niet gebaseerd op een omslachtig, moeilijk te onderhouden systeem, maar op het lichtgewicht, aanpasbare en visueel gemodelleerde FileMaker-platform. Dit heeft veel voordelen: gFM-Business kan individueel worden uitgebreid, draait op Windows, macOS en iOS en kan worden aangepast door zowel ontwikkelaars als ambitieuze power users.

Met de komst van kunstmatige intelligentie (AI) - met name door zogenaamde taalmodellen zoals ChatGPT - ontstaan er nu nieuwe mogelijkheden die veel verder gaan dan traditionele automatisering. gFM-Business bereidt zich actief voor op deze toekomst: met als doel niet alleen gegevens te beheren, maar ook kennis te ontsluiten.

Meer lezen

Ollama ontmoet Qdrant: Een lokaal geheugen voor je AI op de Mac

Geheugen voor lokale AI met Ollama en Qdrant

Lokale AI met geheugen - zonder cloud, zonder abonnement, zonder omleidingen

In een vorige artikelen Ik heb uitgelegd hoe je Ollama configureert op de Mac install. Als je deze stap al hebt voltooid, heb je nu een krachtig lokaal taalmodel - zoals Mistral, LLaMA3 of een ander compatibel model dat via REST API kan worden aangesproken.

Het model "weet" echter alleen wat er in de huidige prompt staat. Het herinnert zich geen eerdere gesprekken. Wat ontbreekt is een herinnering.

Meer lezen