Локальный ИИ на Mac уже давно применяется на практике - особенно на компьютерах Apple-Silicon (серия M). С Ollama вы получаете среду выполнения для многих языковых моделей с открытым исходным кодом (например, Llama 3.1/3.2, Mistral, Gemma, Qwen). Текущая версия Ollama теперь также поставляется с удобным приложением, которое позволяет установить локальную языковую модель на вашем Mac одним щелчком мыши. В этой статье вы найдете прагматичное руководство от установки до первой подсказки - с практическими советами о том, где традиционно все идет не так.
LLaMA
Статья на тему языковых моделей LLaMA от Meta. В ней рассказывается об основах, возможных применениях, бенчмарках и практическом опыте локальных установок.