AI OSS Tools 🧰 ИИ инструменты с открытым кодом


Гео и язык канала: Весь мир, Русский
Категория: Технологии


Just links to Open Source Software with AI, ready to run locally. ИИ инструменты локально, открытый код #tools #oss #local #ai

Связанные каналы

Гео и язык канала
Весь мир, Русский
Категория
Технологии
Статистика
Фильтр публикаций


Репост из: дAI потестить!
☝️ Я понял. Начал писать мануал, куда что положить и как установить. Внезапно стало лень, поэтому вот готовая сборка ComfyUI.
Можно скачать любую папку (модели) или сборку целиком. Workflow положил в корень.
Если ничего не понятно, вот инструкция:
1. Скачать сборку
2. Зайти в папку и следовать инструкции со скрина выше ☝️

P.S. Люблю когда на посте есть ❤️


Репост из: Psy Eyes
Видео недоступно для предпросмотра
Смотреть в Telegram
Недавно была новость, что Comfy воркфлоу теперь можно конвертировать в интерфейс на Gradio и публиковать на Хаггинге. Но по отзывам народа такое решение забивает оперативку.

Вот вам альтернативный варик с преобразованием воркфлоу в мини-приложение на Glif. Если что, у них есть API.

Сайт
Подробнее про Glif
Твит


Репост из: Анализ данных (Data analysis)
🔥 DeepSeek Code Companion — это локальный чат-бот для помощи в программировании, основанный на модели DeepSeek-R1!

🌟 Он предоставляет функции отладки кода, генерации документации и разработки решений, при этом работает полностью офлайн, что обеспечивает конфиденциальность данных. Взаимодействие с ботом осуществляется через Gradio, предоставляя удобный веб-интерфейс.

🖥 Github

@data_analysis_ml


Репост из: Анализ данных (Data analysis)
🔥 Это - подробное руководство по запуску модели DeepSeek-R1 с 671 миллиардами параметров в динамически квантованной версии 1,58-бит (сжатой до 131 ГБ) с использованием Llama.cpp!

🌟 Благодаря усилиям команды UnslothAI, эта оптимизированная модель может быть запущена на персональных компьютерах без необходимости в мощных серверных ресурсах, хотя производительность на потребительском оборудовании может быть ограничена.

🔗 Ссылка: *клик*

@data_analysis_ml


Репост из: Machinelearning
Видео недоступно для предпросмотра
Смотреть в Telegram
⚡️ DepthFlow: Images to → 3D Parallax effect video

DepthFlow — это продвинутый конвертер изображений в видео с 3D-параллакс-эффектом, позволяющий превращать статичные фотографии в динамичные анимации!

🌟 Инструмент позволяет получать высокое качество генераций с плавными зациклеваниями, с отсутствием артефактов на краях.

В DepthFlow добавлены настраиваемые пресеты для достижения профессионального вида анимаций.

Быстрая обработка происходит благодаря оптимизированному шейдеру GLSL, работающему на GPU. Рендеринг до 8k50fps с RTX 3060, поддердивает экспорт видео с любым разрешением.

Дополнительные функции включают использование апскейлеров и пост-эффекты, такие как искажение линз, глубина резкости и тд .

🔐 Лицензирование: AGPL-3.0

Github: https://github.com/BrokenSource/DepthFlow
Docs: https://brokensrc.dev/depthflow/
ComeUI: https://github.com/akatz-ai/ComfyUI-Depthflow-Nodes

@ai_machinelearning_big_data


#computervision #shadertoy #depthmaps #depthmap #depthprediction #parallaxeffect #monocular #imagetovideo #depthy #shaderflow


Репост из: Machinelearning
🔥 VideoLLaMA 3: Frontier Multimodal Foundation Models for Video Understanding


VideoLLaMA - это серия мультимодальных моделей (MLLM), разработанных для различных задач понимания изображений и видео!

🌟 Модели поддерживают возможности обработки текста, изображений и видео.

Модели подойдут для создания универсальных приложений, способных решать широкий спектр задач, связанных с анализом визуальной информации.

🖐️Результаты 7B модели: DocVQA: 94,9, MathVision: 26,2, VideoMME: 66,2/70,3, MLVU: 73,0
🤏 Результаты 2B-модели для мобильных устройств: MMMU: 45.3, VideoMME: 59.6/63.4

🔐 Лицензирование: Apache-2.0

Github: https://github.com/DAMO-NLP-SG/VideoLLaMA3
Image Demo: https://huggingface.co/spaces/lixin4ever/VideoLLaMA3-Image
Video Demo: https://huggingface.co/spaces/lixin4ever/VideoLLaMA3

@ai_machinelearning_big_data

#video #MLLM #opensource #VideoLLaMA #VideoUnderstanding


Репост из: Machinelearning
Видео недоступно для предпросмотра
Смотреть в Telegram
💬 Hibiki (2B и 1B) - новая модель синхронного перевода РЕЧИ В РЕЧЬ.

Модель может выполнять аудио и текстовые переводы речи в режиме реального времени, сохраняя голос говорящего и оптимально адаптируя его темп на основе содержания исходной речи.

Hibiki превосходит предыдущие модели по качеству перевода, естественности и по схожести говорящих и приближается к переводчикам-людям.

> Открытые веса
> Потоковый перевод: обрабатывает аудио в реальном времени
> Многопотоковая архитектура: использует архитектуру Moshi для моделирования исходной и целевой речи
> Способна работать в шумных условиях
> Обучена на 48 Nvidia H100
> Работает с MLX, Candle и PyTorch
> На данный момент поддерживает французский и английский языки (дальше больше)
> Отлично подходит на запусках на девайсах

Посмотрите на примере, как плавно и естественно выглядит перевод 💥

🤗 HF: https://huggingface.co/collections/kyutai/hibiki-fr-en-67a48835a3d50ee55d37c2b5

#speechtospeech #ai #ml #Hibiki


Репост из: Machinelearning
⭐️ LLM-Reasoner

Инструмент, который поможет добавить рассждуения в ваши LLM проекты , подобно OpenAI o1 и deepseek R1.

✨ Функции:
🧠 Пошаговые рассуждения: Больше никаких ответов из «черного ящика»! Узнайте, как именно мыслит ваш LLM, по аналогии с O1.
🔄 Прогресс в реальном времени: позволяет наблюдать за ходом рассуждений с помощью плавных анимаций
🎯 Поддержка множества LLM провайдеров: Работает со всеми провайдерами LiteLLM
🎮 Streamlit: Удобный пользовательский интерфейс
🛠️ Поддердка CLI: для тех, кто любит возиться с командной строкой.
📊 Проверка уверенности ответа: Узнайте, насколько уверен ваш LLM в каждом шаге рассуждений.

⭐️ Установка:
pip install llm-reasoner

Пример с кодом:

from llm_reasoner import ReasonChain
import asyncio

async def main():
# Create a chain with your preferred settings
chain = ReasonChain(
model="gpt-4", # Choose your model
min_steps=3, # Minimum reasoning steps
temperature=0.2, # Control creativity
timeout=30.0 # Set your timeout
)

# Watch it think step by step!
async for step in chain.generate_with_metadata("Why is the sky blue?"):
print(f"\nStep {step.number}: {step.title}")
print(f"Thinking Time: {step.thinking_time:.2f}s")
print(f"Confidence: {step.confidence:.2f}")
print(step.content)

asyncio.run(main())


@ai_machinelearning_big_data


#llm #ml #ai #opensource #reasoning


Репост из: Machinelearning
Видео недоступно для предпросмотра
Смотреть в Telegram
⭐️ Первый Open Source аналог Deep Research от OpenAI.

Реализация ИИ-ресерчера, который непрерывно ищет информацию по запросу пользователя, пока система не убедится, что собрала все необходимые данные.

Для этого он использует несколько сервисов:

- SERPAPI: Для выполнения поиска в Google.
- Jina: Для получения и извлечения содержимого веб-страниц.
- OpenRouter (модель по умолчанию: anthropic/claude-3.5-haiku): Взаимодействует с LLM для генерации поисковых запросов, оценки релевантности страниц и понимания контекста.

🟢 Функции
- Итеративный цикл исследования: Система итеративно уточняет свои поисковые запросы.
- Асинхронная обработка: Поиск, парсинг веб-страниц и оценка контекста - выполняются параллельно для повышения скорости.
- Фильтрация дубликатов: Агрегирует и дедуплицирует ссылки в каждом цикле, проверяя, что одна и та же информация не будет обработана дважды.

Github
Google Colab

@ai_machinelearning_big_data


#opensource #llm #ai #ml #DeepResearcher


Репост из: Psy Eyes
Музыкальный генератор YuE был ускорен для работы в 2-3 раза быстрее (4 минуты вместе 12) благодаря народу в лице оптимизатора deepbeepmeep. Его сборки выходят с приставкой GP (GPU Poor), таким образом здесь имеем YuEGP.

Также в Pinokio подъехала версия, где на вход можно подавать музыкальный референс и перекладывать его стиль на ваши завывания/демки. Она запускается из сайдбара. Если кнопки не видно нажмите Update там же и перезапустите Pinokio.

Pinokio
Гитхаб YuEGP
Гитхаб YuE
Твит


Репост из: Метаверсище и ИИще
DeepSeek VL2 Small

DeepSeek представил версию своей новой модели DeepSeek VL2 Small - грубо говоря для разговора с картинками и видосами.

Средняя: 16 миллиардов параметров и Mixture of Experts (MoE)

Очень круто, что уже доступна на Hugging Face Space.
Пишут что нереально хороша в OCR - распознавании даже кривых текстов.
Я немного потыкал - действительно круто описывает картинки, но что более важно, имеет спец теги-токены, которые можно использовать в запросах, типа найди жирафа именно на заднем плане. Обязательно гляньте примеры внизу - из них понятно, что она умеет.

@cgevent




Репост из: Tips AI | IT & AI
Видео недоступно для предпросмотра
Смотреть в Telegram
🤖 agentrecipes — рецепты ИИ агентов.

Сайт, на котором можно узнать о рабочих процессов агентов с примерами кода, которые вы сможете легко скопировать и вставить в свои собственные приложения ИИ.

Пока есть 5 примеров. Добавлю сайт в канал, чтобы не потерять — потом примеров станет намного больше.

Ссылка [тут]

@tips_ai #tools


Репост из: DevOps
Видео недоступно для предпросмотра
Смотреть в Telegram
🔥 Transformer Lab — это настольное приложение с открытым исходным кодом для работы с большими языковыми моделями!

🌟 Оно позволяет загружать, обучать, дообучать, тестировать и использовать модели прямо на вашем компьютере. Поддерживаются популярные модели, такие как DeepSeek, Llama3, Qwen, Phi4, Gemma, Mistral, а также различные движки вывода, включая MLX, Hugging Face Transformers, vLLM и Llama CPP. Приложение доступно для Windows, macOS и Linux.

🔐 Лицензия: AGPL-3.0

🖥 Github

@devopsitsec


Репост из: Tips AI | IT & AI
Видео недоступно для предпросмотра
Смотреть в Telegram
Энтузиасты выпустили клон [Deep Research]

Агент ИИ, который анализирует большие объемы веб-данных, извлеченных с помощью [firecrawl_dev].

Это открытый исходный код. Работает на [aisdk]. Вы можете использовать этот клон не платив OpenAI 200$ за Deep Research.

Проект на [GitHub]

@tips_ai #tools


Репост из: Futuris
Видео недоступно для предпросмотра
Смотреть в Telegram
Ну и не прошло 12 часов как новый метод Deep Research повторили в домашних условиях и заопенсорсили, теперь можно через любую нейронку проводить глубокие исследования🕵‍♂

https://github.com/jina-ai/node-DeepResearch

Да и вообще скоро в любом бесплатном чате эта функция появится, немного подождать 👌


Репост из: GigaDev — разработка GigaChat
🚀 Релиз новой модели GigaChat-20B-A3B-instruct-v1.5!

Представляем обновленную версию с улучшенным alignment, что привело к значительному росту метрик арен

📈 Результаты:
• Arena Hard RU: 20.8 → 29.6 (+8.8)
• Arena General: 41.1 → 49.1 (+8)
• остальные метрики на тех же значениях

🔋 Поддержка контекста: 131К токенов

🎉 Важно! Модель теперь доступна в популярных инструментах:
llama.cpp
ollama
llama-cpp-python
lm-studio, небольшой гайд.

⚡️ На М4 Pro в Q6 достигает 52 token / sec

💾 Мы подготовили различные GGUF квантизации для тестирования под разные задачи и ресурсы.

🔗 Ссылки:
• HuggingFace (fp32, bf16, int8)
• GGUF версии (bf16, q8, q6, q5, q4)
• Ollama (bf16, q8, q6, q5, q4)


Репост из: Machinelearning
⭐️ Mistral AI только что дропнули Small 3!

Вот все, что вам нужно знать:

- 24B параметров
- 81% точности на MMLU и задержка 150 токенов/с
- Позиционируется как замена GPT-40-mini
- Конкурирует с Llama 3.3 70B и Qwen 32B
- в 3 раза быстрее, чем Llama 3.3 70B
- Лицензия Apache 2.0
- Доступны как предварительно обученные, так и настроенные контрольные точки
- без RL и без синтетических данных
- Доступно на la Plateforme, HF и других провайдерах

Великолепная маленькая модель, которая дополняет другие более крупные модели, такие как DeepSeek-R1.

HF: https://huggingface.co/mistralai/Mistral-Small-24B-Instruct-2501
Blog: https://mistral.ai/news/mistral-small-3/

@ai_machinelearning_big_data

#mistral #llm #ml #ai


Репост из: Метаверсище и ИИще
Видео недоступно для предпросмотра
Смотреть в Telegram
Ну вот, пошли интеграции с Блендором для 3Д генераторов

На гитхабе у Хуньяня 3Д 2.0 появился блендор-аддон.

Правда рядом с Блендором вам придется поднять апи-сервер хунька.

Инструкции тут:
https://github.com/Tencent/Hunyuan3D-2?tab=readme-ov-file#blender-addon

@cgevent


Репост из: Data Science | Machine Learning | Artificial Intelligence
R Learn How to Run DeepSeek-R1 Locally, a Free Alternative to OpenAI’s $200/Month o1 model

Hey everyone,

Since DeepSeek-R1 has been around for a bit and many of us already know its capabilities, I wanted to share a quick step-by-step guide I’ve put together on how to run DeepSeek-R1 locally. It covers using Ollama, setting up open webui, and integrating the model into your projects, it's a good alternative to the usual subscription-based models.

https://link.medium.com/ZmCMXeeisQb

https://redd.it/1i9xwbr
@artificialintelligence24x7

Показано 20 последних публикаций.