От экспорта данных ChatGPT к собственному ИИ знаний: шаг за шагом с Ollama и Qdrant

Путь к собственной памяти искусственного интеллекта

В первой части этого цикла статей мы увидели, что экспорт данных ChatGPT - это нечто большее, чем просто техническая функция. Экспортированные данные - это коллекция мыслей, идей, анализов и разговоров, которые накапливались в течение длительного периода времени. Но пока эти данные хранятся только в виде архива на вашем жестком диске, они так и остаются архивом. Решающий шаг - сделать эту информацию снова пригодной для использования. Именно с этого начинается разработка персонального ИИ знаний.

Идея на самом деле удивительно проста: ИИ должен не только работать с общими знаниями, но и иметь доступ к вашим собственным данным. Он должен уметь искать информацию в предыдущих разговорах, находить подходящий контент и включать его в новые ответы. Таким образом, обычный ИИ превращается в своего рода цифровую память. Это вторая часть цикла статей, в которой мы рассмотрим практическую сторону вопроса.

Читать далее

Экспорт данных ChatGPT: как ваши чаты с искусственным интеллектом превращаются в систему персональных знаний

Экспорт данных ChatGPT

Если вы регулярно работаете с искусственным интеллектом, то наверняка знаете: одна мысль ведет к следующей. Вы задаете вопрос, получаете ответ, переформулируете, развиваете идею дальше. Короткий вопрос внезапно превращается в длинный диалог. Иногда это даже приводит к целым проектам.

Но большинство этих разговоров снова исчезают. Они лежат где-то в списке чатов, сползают вниз и со временем забываются. Именно в этом заключается одна из главных особенностей современных систем искусственного интеллекта: Если предыдущие разговоры с коллегами, друзьями или советниками существовали только в нашей памяти, то диалоги ИИ полностью сохраняются.

Это означает нечто крайне важное: С каждым разговором создается цифровой архив ваших мыслей. Это первая часть небольшой серии статей, которые позволят вам экспортировать историю разговоров из ChatGPT и эффективно использовать ее в качестве личной сокровищницы знаний с помощью локальной системы искусственного интеллекта.

Читать далее

Искусственный интеллект без шумихи: почему меньшее количество инструментов ИИ часто означает лучшую работу

Искусственный интеллект без лишней шумихи

Каждый, кто сегодня занимается темой искусственного интеллекта, почти неизбежно сталкивается со странным чувством: постоянным беспокойством. Не успеешь привыкнуть к одному инструменту, как появляются следующие десять. На YouTube одно видео сменяет другое: „Этот инструмент искусственного интеллекта меняет все“, „Вы просто обязаны использовать это сейчас“.“, „Те, кто пропускает, остаются позади“.“. И каждый раз на подсознательном уровне звучит одно и то же сообщение: Вы опоздали. Другие впереди. Вы должны догнать их.

Это касается не только ИТ-специалистов. Самозанятые, творческие работники, предприниматели и обычные сотрудники также чувствуют давление. Многие даже не знают, что именно делают эти инструменты, но у них есть ощущение, что они могут что-то упустить. А это как раз и вызывает стресс.

Читать далее

Облачный ИИ в роли директора школы: почему будущее работы за локальным ИИ

Облачный искусственный интеллект становится директором школы

Когда несколько лет назад большие языковые модели начали свое триумфальное шествие, они казались возвращением к старым добродетелям технологии: инструмент, который делает то, что ему говорят. Инструмент, который служит пользователю, а не наоборот. Первые версии - от GPT-3 до GPT-4 - имели недостатки, да, но они были удивительно полезны. Они объясняли, анализировали, формулировали и решали задачи. И делали это в основном без педагогического балласта.

Вы общались с этими моделями так, словно разговаривали с эрудированным сотрудником, который иногда ошибался в словах, но по сути просто работал. Любой, кто писал творческие тексты, генерировал программный код или проводил длительные анализы в те времена, ощущал, насколько гладко это работает. Было ощущение свободы, открытого творческого пространства, технологии, которая поддерживала людей, а не исправляла их.

Читать далее

Apple MLX против NVIDIA: как работает локальный искусственный интеллект на Mac

Местный искусственный интеллект на Silicon с Apple Mac

Тот, кто сегодня работает с искусственным интеллектом, первым делом думает о ChatGPT или подобных онлайн-сервисах. Вы вводите вопрос, ждете несколько секунд - и получаете ответ, как будто на другом конце линии сидит очень начитанный и терпеливый собеседник. Но о чем легко забыть: Каждый ввод, каждое предложение, каждое слово отправляется через Интернет на внешние серверы. Именно там происходит настоящая работа - на огромных компьютерах, которые вы никогда не увидите своими глазами.

В принципе, локальная языковая модель работает точно так же - но без Интернета. Модель хранится в виде файла на компьютере пользователя, загружается в рабочую память при запуске и отвечает на вопросы прямо на устройстве. В основе лежит та же технология: нейронная сеть, которая понимает язык, генерирует тексты и распознает паттерны. Разница лишь в том, что все вычисления остаются внутри компании. Можно сказать: ChatGPT без облака.

Читать далее

Искусственный интеллект: какие рабочие места находятся под угрозой и как мы можем вооружиться уже сейчас

Какие рабочие места будут ликвидированы искусственным интеллектом в будущем

Вряд ли какое-либо другое технологическое изменение вошло в нашу повседневную жизнь так быстро, как искусственный интеллект. То, что еще вчера считалось технологией будущего, сегодня уже стало реальностью - будь то отправка текстовых сообщений, программирование, диагностика, перевод или даже создание музыки, произведений искусства или юридических документов.

Читать далее

MLX на Apple Silicon в качестве локального AI по сравнению с Ollama & Co.

Локальный искусственный интеллект на Mac с помощью MLX

В то время как централизованные сервисы искусственного интеллекта, такие как ChatGPT, Claude или Gemini, занимают ведущие позиции в заголовках газет, многие профессиональные пользователи испытывают растущую потребность в альтернативе - локальной, самоконтролируемой инфраструктуре искусственного интеллекта. Особенно для творческих процессов, конфиденциальных данных или повторяющихся рабочих процессов локальное решение часто является более устойчивым и безопасным вариантом.

Все, кто работает с Mac - особенно с Apple Silicon (M1, M2, M3 или M4), - теперь могут найти удивительно мощные инструменты для запуска собственных языковых моделей прямо на устройстве. В центре всего этого - новый, практически неизвестный компонент: MLX, фреймворк машинного обучения, разработанный Apple, который, вероятно, будет играть все более важную роль в экосистеме ИИ компании в ближайшие годы.

Читать далее

RAG с Ollama и Qdrant как универсальная поисковая система для собственных данных

Расширение локального ИИ с помощью баз данных с использованием RAG, Ollama и Qdrant

В условиях все более запутанного мира информации становится все более важным сделать собственные базы данных пригодными для целенаправленного поиска - не через классический полнотекстовый поиск, а через семантически релевантные ответы. Именно в этом и заключается принцип работы базы данных RAG - поискового решения с поддержкой искусственного интеллекта, состоящего из двух центральных компонентов:

Читать далее