Хотя MLX изначально был запущен в качестве экспериментального фреймворка компанией Apple Research, в последние месяцы произошло тихое, но значительное развитие: С выходом FileMaker 2025 компания Claris прочно интегрировала MLX в сервер в качестве встроенной инфраструктуры искусственного интеллекта для Apple Silicon. Это означает, что любой человек, работающий с Mac и использующий Apple Silicon, может не только запускать модели MLX локально, но и использовать их непосредственно в FileMaker - с родными функциями, без каких-либо промежуточных слоев.
MLX
MLX - это новая технология с открытым исходным кодом от Apple, которая позволяет запускать мощные модели искусственного интеллекта (Large Language Models, сокращенно LLM) непосредственно и локально на компьютерах Mac Apple Silicon - без подключения к интернету или облачных ограничений. MLX - это максимальный контроль, защита данных и независимость: пользователи загружают модель на свой Mac и могут использовать ее в автономном режиме - например, для работы с текстами, анализами или творческими задачами. MLX - это значительный шаг на пути к суверенному, локально используемому искусственному интеллекту.
MLX на Apple Silicon в качестве локального AI по сравнению с Ollama & Co.
В то время как централизованные сервисы искусственного интеллекта, такие как ChatGPT, Claude или Gemini, занимают ведущие позиции в заголовках газет, многие профессиональные пользователи испытывают растущую потребность в альтернативе - локальной, самоконтролируемой инфраструктуре искусственного интеллекта. Особенно для творческих процессов, конфиденциальных данных или повторяющихся рабочих процессов локальное решение часто является более устойчивым и безопасным вариантом.
Все, кто работает с Mac - особенно с Apple Silicon (M1, M2, M3 или M4), - теперь могут найти удивительно мощные инструменты для запуска собственных языковых моделей прямо на устройстве. В центре всего этого - новый, практически неизвестный компонент: MLX, фреймворк машинного обучения, разработанный Apple, который, вероятно, будет играть все более важную роль в экосистеме ИИ компании в ближайшие годы.