Хотя MLX изначально был запущен в качестве экспериментального фреймворка компанией Apple Research, в последние месяцы произошло тихое, но значительное развитие: С выходом FileMaker 2025 компания Claris прочно интегрировала MLX в сервер в качестве встроенной инфраструктуры искусственного интеллекта для Apple Silicon. Это означает, что любой человек, работающий с Mac и использующий Apple Silicon, может не только запускать модели MLX локально, но и использовать их непосредственно в FileMaker - с родными функциями, без каких-либо промежуточных слоев.
Векторная база данных
Статьи о векторных базах данных и их значении для систем, поддерживающих искусственный интеллект. Темы включают организацию данных, семантический поиск и интеграцию в бизнес-приложения.
RAG с Ollama и Qdrant как универсальная поисковая система для собственных данных
В условиях все более запутанного мира информации становится все более важным сделать собственные базы данных пригодными для целенаправленного поиска - не через классический полнотекстовый поиск, а через семантически релевантные ответы. Именно в этом и заключается принцип работы базы данных RAG - поискового решения с поддержкой искусственного интеллекта, состоящего из двух центральных компонентов:
Ollama встречает Qdrant: локальная память для вашего ИИ на Mac
Локальный ИИ с памятью - без облака, без подписки, без отвлекающих факторов
В предыдущие статьи Я рассказал, как настроить Ollama на Mac install. Если вы уже выполнили этот шаг, то теперь у вас есть мощная локальная языковая модель - например, Mistral, LLaMA3 или другая совместимая модель, к которой можно обратиться через REST API.
Однако модель „знает“ только то, что находится в текущей подсказке. Она не запоминает предыдущие разговоры. Не хватает только воспоминаний..