'https://t.me/c/2069889012/10/12196' rel='nofollow'>Как запустить LLM локально
Использовать будем LM Studio и Ollama: установим, посмотрим на возможности, развернём API, оценим плюсы и минусы этих инференсов, узнаем, какие ещё программы существуют для запуска LLM.
ЧТО ВНУТРИ
- Про мощность компа для запуска моделей
- Как выбирать модели
- LM Studio
- Ollama
- Другие инференсы
#evo_обучалка
Использовать будем LM Studio и Ollama: установим, посмотрим на возможности, развернём API, оценим плюсы и минусы этих инференсов, узнаем, какие ещё программы существуют для запуска LLM.
ЧТО ВНУТРИ
- Про мощность компа для запуска моделей
- Как выбирать модели
- LM Studio
- Ollama
- Другие инференсы
#evo_обучалка