Когда вы слышите слово "литий", многие в первую очередь думают о современных перезаряжаемых батареях, аккумуляторных технологиях или - при скептическом взгляде - о психотропных препаратах. Но на самом деле литий - это гораздо большее: это микроэлемент природного происхождения, который присутствует в окружающей среде с незапамятных времен - в горных породах, в воде, а также в небольших количествах в растительной пище.
Советы и инструкции
В этой категории вы найдете Практические советы, пошаговые инструкции и практические руководства на различные темы из области технологий, бизнеса и повседневной жизни. В статьях в понятной и доходчивой форме рассказывается о том, как решить типичные проблемы, эффективно использовать программное обеспечение или опробовать новые методы работы. Идет ли речь о Устройства Apple, FileMaker, Программное обеспечение ERP, Темы здоровья или другие практические вопросы - здесь основное внимание уделяется конкретным преимуществам. Инструкции построены таким образом, чтобы их можно было сразу и быстро применить в повседневной жизни или в компании.
Интеграция MLX в FileMaker 2025: локальный искусственный интеллект как новый стандарт
Хотя MLX изначально был запущен в качестве экспериментального фреймворка компанией Apple Research, в последние месяцы произошло тихое, но значительное развитие: С выходом FileMaker 2025 компания Claris прочно интегрировала MLX в сервер в качестве встроенной инфраструктуры искусственного интеллекта для Apple Silicon. Это означает, что любой человек, работающий с Mac и использующий Apple Silicon, может не только запускать модели MLX локально, но и использовать их непосредственно в FileMaker - с родными функциями, без каких-либо промежуточных слоев.
Почему одного ERP-программного обеспечения недостаточно - и как по-настоящему понять процессы
Во многих компаниях все происходит по одной и той же схеме: в какой-то момент руководство осознает, что „что-то перестает работать гладко“. Возможно, процессы стали слишком медленными, ошибки накапливаются, или компания все чаще теряет информацию о цифрах, клиентах или внутренних процессах. Громко звучит призыв к покупке нового программного решения - желательно современного, мощного ERP-программного обеспечения, которое „умеет делать все“. Но именно здесь часто начинается фатальное заблуждение.
Как я написал пять книг на двух языках за четыре месяца
...и почему это не чудо, а результат четкой стратегии.
Долгое время написание книг воспринималось как нечто утомительное - одинокий проект, затягивающийся на месяцы и даже годы. Но что, если отбросить этот образ? Что если переосмыслить процесс написания книг - с четким фокусом, продуманными процессами и целенаправленным использованием искусственного интеллекта?
В моей новой книге „Написание книг 2.0 - практическое руководство для авторов в эпоху искусственного интеллекта“ Я описываю именно этот путь. Путь, который позволил мне написать пять книг всего за четыре месяца, издать их на двух языках - и не смириться с потерей качества по сравнению с традиционным изданием.
Написание книг 2.0 - практическое руководство для авторов в эпоху искусственного интеллекта
Эта книга не умозрительное видение будущего, а обоснованный, практический ответ из повседневной жизни автора, который сам пишет с помощью ИИ - и намеренно фокусируется не на автоматизации, а на автономии. „Написание книг 2.0“ предназначена для тех, кто думает о написании собственной книги - или уже находится в процессе - и задается вопросом, как можно использовать современные инструменты, такие как ChatGPT, генераторы изображений ИИ или средства перевода. В центре внимания - не „готовые продукты ИИ“, а целостный подход: ИИ как инструмент, люди как авторы.
Ollama встречает Qdrant: локальная память для вашего ИИ на Mac
Локальный ИИ с памятью - без облака, без подписки, без отвлекающих факторов
В предыдущие статьи Я рассказал, как настроить Ollama на Mac install. Если вы уже выполнили этот шаг, то теперь у вас есть мощная локальная языковая модель - например, Mistral, LLaMA3 или другая совместимая модель, к которой можно обратиться через REST API.
Однако модель „знает“ только то, что находится в текущей подсказке. Она не запоминает предыдущие разговоры. Не хватает только воспоминаний..
Локальный ИИ на Mac: как installiere языковая модель с помощью Ollama
Локальный ИИ на Mac уже давно применяется на практике - особенно на компьютерах Apple-Silicon (серия M). С Ollama вы получаете среду выполнения для многих языковых моделей с открытым исходным кодом (например, Llama 3.1/3.2, Mistral, Gemma, Qwen). Текущая версия Ollama теперь также поставляется с удобным приложением, которое позволяет установить локальную языковую модель на вашем Mac одним щелчком мыши. В этой статье вы найдете прагматичное руководство от установки до первой подсказки - с практическими советами о том, где традиционно все идет не так.
Советы по здоровью (не только) для пользователей FileMaker
В последние полтора года разработка программного обеспечения gFM-Business ERP шла немного медленнее, чем обычно, потому что мне, как разработчику программы, пришлось столкнуться с некоторыми странными симптомами заболеваний, причину которых было не так-то просто найти. Несмотря на то что традиционная медицина в моем случае не помогла, я смог найти причины и устранить проблемы при активной поддержке некоторых альтернативных врачей и стоматолога-холиста. Поскольку результаты этого исследования настолько интересны, я решил написать об этом небольшую статью, чтобы и вы, читатель, смогли извлечь из нее пользу. Ниже вы найдете мои лучшие советы в чистом виде, я ничего не зарабатываю на рефералах и не использую никаких реф-ссылок.