gFM-Business и будущее ERP: локальный интеллект вместо зависимости от облака

gFM-Business и искусственный интеллект + граф знаний

Уже более десяти лет программное обеспечение gFM-Business представляет собой нечто особенное на немецком рынке ERP: оно основано не на громоздкой и сложной в обслуживании системе, а на легкой, настраиваемой и наглядно моделируемой платформе FileMaker. Это имеет множество преимуществ: gFM-Business может быть индивидуально расширена, работает на Windows, macOS и iOS и может быть настроена как разработчиками, так и амбициозными опытными пользователями.

С появлением искусственного интеллекта (ИИ) - в частности, с помощью так называемых языковых моделей, таких как ChatGPT, - открываются новые возможности, выходящие далеко за рамки традиционной автоматизации. Компания gFM-Business активно готовится к этому будущему, стремясь не только управлять данными, но и раскрывать знания.

Читать далее

Интеграция MLX в FileMaker 2025: локальный искусственный интеллект как новый стандарт

Местный AI с MLX и FileMaker

Хотя MLX изначально был запущен в качестве экспериментального фреймворка компанией Apple Research, в последние месяцы произошло тихое, но значительное развитие: С выходом FileMaker 2025 компания Claris прочно интегрировала MLX в сервер в качестве встроенной инфраструктуры искусственного интеллекта для Apple Silicon. Это означает, что любой человек, работающий с Mac и использующий Apple Silicon, может не только запускать модели MLX локально, но и использовать их непосредственно в FileMaker - с родными функциями, без каких-либо промежуточных слоев.

Читать далее

MLX на Apple Silicon в качестве локального AI по сравнению с Ollama & Co.

Локальный искусственный интеллект на Mac с помощью MLX

В то время как централизованные сервисы искусственного интеллекта, такие как ChatGPT, Claude или Gemini, занимают ведущие позиции в заголовках газет, многие профессиональные пользователи испытывают растущую потребность в альтернативе - локальной, самоконтролируемой инфраструктуре искусственного интеллекта. Особенно для творческих процессов, конфиденциальных данных или повторяющихся рабочих процессов локальное решение часто является более устойчивым и безопасным вариантом.

Все, кто работает с Mac - особенно с Apple Silicon (M1, M2, M3 или M4), - теперь могут найти удивительно мощные инструменты для запуска собственных языковых моделей прямо на устройстве. В центре всего этого - новый, практически неизвестный компонент: MLX, фреймворк машинного обучения, разработанный Apple, который, вероятно, будет играть все более важную роль в экосистеме ИИ компании в ближайшие годы.

Читать далее

Локальный ИИ на Mac: как installiere языковая модель с помощью Ollama

Местный AI installieren с Ollama на Mac

Локальный ИИ на Mac уже давно применяется на практике - особенно на компьютерах Apple-Silicon (серия M). С Ollama вы получаете среду выполнения для многих языковых моделей с открытым исходным кодом (например, Llama 3.1/3.2, Mistral, Gemma, Qwen). Текущая версия Ollama теперь также поставляется с удобным приложением, которое позволяет установить локальную языковую модель на вашем Mac одним щелчком мыши. В этой статье вы найдете прагматичное руководство от установки до первой подсказки - с практическими советами о том, где традиционно все идет не так.

Читать далее