Интеграция MLX в FileMaker 2025: локальный искусственный интеллект как новый стандарт

Местный AI с MLX и FileMaker

Хотя MLX изначально был запущен в качестве экспериментального фреймворка компанией Apple Research, в последние месяцы произошло тихое, но значительное развитие: С выходом FileMaker 2025 компания Claris прочно интегрировала MLX в сервер в качестве встроенной инфраструктуры искусственного интеллекта для Apple Silicon. Это означает, что любой человек, работающий с Mac и использующий Apple Silicon, может не только запускать модели MLX локально, но и использовать их непосредственно в FileMaker - с родными функциями, без каких-либо промежуточных слоев.

Читать далее

RAG с Ollama и Qdrant как универсальная поисковая система для собственных данных

Расширение локального ИИ с помощью баз данных с использованием RAG, Ollama и Qdrant

В условиях все более запутанного мира информации становится все более важным сделать собственные базы данных пригодными для целенаправленного поиска - не через классический полнотекстовый поиск, а через семантически релевантные ответы. Именно в этом и заключается принцип работы базы данных RAG - поискового решения с поддержкой искусственного интеллекта, состоящего из двух центральных компонентов:

Читать далее

Ollama встречает Qdrant: локальная память для вашего ИИ на Mac

Память для локального ИИ с Ollama и Qdrant

Локальный ИИ с памятью - без облака, без подписки, без отвлекающих факторов

В предыдущие статьи Я рассказал, как настроить Ollama на Mac install. Если вы уже выполнили этот шаг, то теперь у вас есть мощная локальная языковая модель - например, Mistral, LLaMA3 или другая совместимая модель, к которой можно обратиться через REST API.

Однако модель „знает“ только то, что находится в текущей подсказке. Она не запоминает предыдущие разговоры. Не хватает только воспоминаний..

Читать далее