Облачный ИИ в роли директора школы: почему будущее работы за локальным ИИ

Облачный искусственный интеллект становится директором школы

Когда несколько лет назад большие языковые модели начали свое триумфальное шествие, они казались возвращением к старым добродетелям технологии: инструмент, который делает то, что ему говорят. Инструмент, который служит пользователю, а не наоборот. Первые версии - от GPT-3 до GPT-4 - имели недостатки, да, но они были удивительно полезны. Они объясняли, анализировали, формулировали и решали задачи. И делали это в основном без педагогического балласта.

Вы общались с этими моделями так, словно разговаривали с эрудированным сотрудником, который иногда ошибался в словах, но по сути просто работал. Любой, кто писал творческие тексты, генерировал программный код или проводил длительные анализы в те времена, ощущал, насколько гладко это работает. Было ощущение свободы, открытого творческого пространства, технологии, которая поддерживала людей, а не исправляла их.

Читать далее

AI Studio 2025: какое оборудование действительно того стоит - от Mac Studio до RTX 3090

Оборудование 2025 для студии искусственного интеллекта

Все, кто сегодня работает с ИИ, почти автоматически попадают в облако: OpenAI, Microsoft, Google, любые веб-интерфейсы, токены, лимиты, условия и положения. Это кажется современным, но по сути является возвратом к зависимости: другие определяют, какие модели вам разрешено использовать, как часто, с какими фильтрами и по какой цене. Я сознательно иду другим путем: сейчас я строю свою собственную маленькую AI-студию у себя дома. Со своим собственным оборудованием, своими собственными моделями и своими собственными рабочими процессами.

Моя цель ясна: локальный текстовый ИИ, локальный ИИ изображений, обучение собственных моделей (LoRA, тонкая настройка) и все это таким образом, чтобы я, фрилансер, а впоследствии и клиент малого и среднего бизнеса, не зависел от ежедневных капризов какого-нибудь облачного провайдера. Можно сказать, что это возврат к старому отношению, которое раньше было вполне нормальным: „Важные вещи делайте сами“. Только на этот раз речь идет не о собственном верстаке, а о вычислительной мощности и суверенитете данных.

Читать далее

gFM-Business и будущее ERP: локальный интеллект вместо зависимости от облака

gFM-Business и искусственный интеллект + граф знаний

Уже более десяти лет программное обеспечение gFM-Business представляет собой нечто особенное на немецком рынке ERP: оно основано не на громоздкой и сложной в обслуживании системе, а на легкой, настраиваемой и наглядно моделируемой платформе FileMaker. Это имеет множество преимуществ: gFM-Business может быть индивидуально расширена, работает на Windows, macOS и iOS и может быть настроена как разработчиками, так и амбициозными опытными пользователями.

С появлением искусственного интеллекта (ИИ) - в частности, с помощью так называемых языковых моделей, таких как ChatGPT, - открываются новые возможности, выходящие далеко за рамки традиционной автоматизации. Компания gFM-Business активно готовится к этому будущему, стремясь не только управлять данными, но и раскрывать знания.

Читать далее

Ollama встречает Qdrant: локальная память для вашего ИИ на Mac

Память для локального ИИ с Ollama и Qdrant

Локальный ИИ с памятью - без облака, без подписки, без отвлекающих факторов

В предыдущие статьи Я рассказал, как настроить Ollama на Mac install. Если вы уже выполнили этот шаг, то теперь у вас есть мощная локальная языковая модель - например, Mistral, LLaMA3 или другая совместимая модель, к которой можно обратиться через REST API.

Однако модель „знает“ только то, что находится в текущей подсказке. Она не запоминает предыдущие разговоры. Не хватает только воспоминаний..

Читать далее