AI++


Гео и язык канала: не указан, Русский
Категория: Технологии


Interesting in my opinion AI's and all that goes with it

Связанные каналы

Гео и язык канала
не указан, Русский
Категория
Технологии
Статистика
Фильтр публикаций


Репост из: AI Product | Igor Akimov
Из комментов тоже достаю.
Рейтинг качества Text-to-Speech софта
https://huggingface.co/spaces/TTS-AGI/TTS-Arena
Соответственно идете по списку сверху внизу и выбираете решение, подходящее по цене.
Например, Топовый ElevenLabs стоит 100 баксов за 10 часов в месяц (500000 символов)
https://elevenlabs.io/pricing

PlayHT со второго места - 40 баксов за 5 часов и 100 баксов за анлим
https://play.ht/pricing/


Apple has recently unveiled 4M-21, an advanced vision-language model that combines various AI capabilities in one modal. Operating under the Apache-2.0 license, 4M-21 supports:

- Image captioning
- Depth estimation
- Object detection
- Instance segmentation
- Image generation
- And much more

Discover more about 4M-21 through the following resources:
- [Research Paper](https://arxiv.org/pdf/2406.09406)
- [Code Repository](https://github.com/apple/ml-4m)
- [Interactive Demo](https://huggingface.co/spaces/EPFL-VILAB/4M)

📢 @ai_plus_plus


Репост из: эйай ньюз
Видео недоступно для предпросмотра
Смотреть в Telegram
Там Китайцы обновили свою модель для видео генерации Kling (пост про нее). Теперь она умеет оживлять фото, "Image-to-Video", как и Luma, а также может продлить видео вплоть до 3 минут – будет генериться по кусочкам, где каждый кусочек контролируется отдельным промптом.

Пёсель очень круто бежит, да так что уши трясутся ❤️.

@ai_newz


Репост из: Not Boring Tech
🔎 Появился новый апскейлер видео — EvTexture улучшает шакальные и мыльные ролики сразу во много раз до уровня высокого разрешения. Работает чётко и быстро.

Просто загрузите свой видос и появится ощущение, как будто протёрли линзу камеры. Воскресить неудачные видео без фокуса больше не составит труда.

Гайд по установке и сама тулза лежит тут.

@notboring_tech


Репост из: Machinelearning
🔥Microsoft просто, без громкого анонса (опять!),выпустили новый интересный способ обучения моделей "Instruction Pre-Training, модели и датасеты.

При предварительном обучении с нуля модель 500M, обученная на 100B токенах, достигает производительности модели 1B, предварительно обученной на 300B токенах.

Доступны:
👀 Датасеты
🦙Llama 3 8B с качеством, сравнимым с 70B!
🔥 Общие модели + специализированные модели (медицина/финансы)


abs: https://arxiv.org/abs/2406.14491
models: https://huggingface.co/instruction-pretrain

@ai_machinelearning_big_data


Репост из: Борис опять
Недавно BM25, алгоритм поиска из 80-х, победил нейросетевой поиск на LLM.

Мне стало очень интересно разобраться, как это работает, и я написал статью на Хабр, где этот алгоритм реализуется с нуля.

https://habr.com/ru/articles/823568/

Материал подойдет начинающим: ничего кроме знания Python не нужно.

Просьба читать, лайкать и кричать об этой статье на улицах. 😇


GPT4o vs Sonnet 3.5
1 : 0

@ai_plus_plus


Репост из: Нейродвиж
Видео недоступно для предпросмотра
Смотреть в Telegram
Зацените этот потрясающий дубляж комедии «Операция "Ы"» — почувствуете всю мощь новой нейронки Merlin Clone.

Она всухую уделывает ElevenLabs в качестве перевода! Правда, выбор языков пока скудный: всего десятка, среди которых есть и русский.

Всем новым аккаунтам дают минуту бесплатного перевода, а потом... вы знаете, что делать 😁


Репост из: Ppprompt | пппро AI от @ponchiknews
Видео недоступно для предпросмотра
Смотреть в Telegram
А знаете что еще нейросетки хорошо делают? Помогают вам сэкономить.

1. Идем в интернет-банк свой и выгружаем историю операций (transactions history) за последний год в виде csv (или что там дают).

2. Заходим в Claude.ai, выбираем в выпадашке опрятный, свежий, чистый Claude 3.5 Sonnet (если нет акка, воспользуйтесь одним из сотен ботов в тг с доступом к Claude API)

3. Прикладываем файл + пишем промпт:

Act as a financial coach. Analyze my transactions from the document provided. Your goal is to help me reduce my savings. Pay extra attention to all recurring payments. List 20 specific suggestions ranked from the one that will help me save the most to the one that will help me save the least.

4. …

5. PROFIT! В комментах поделитесь, сколько получится сэкономить за следующий год, если взять реально работающие для вас рекомендации из списка.

@ppprompt


1. Microsoft is training its first large AI model, MAI-1.
2. MAI-1 aims to reach the level of GPT-4.
3. MAI-1 is a 500 billion parameter Mixture of Experts (MoE) model.
4. The model's training will conclude this month.
5. Microsoft seeks to reduce reliance on OpenAI.
6. OpenAI collaborates with competitors like Salesforce while using Microsoft's Azure.
7. Microsoft acquired Inflection AI and appointed Mustafa Suleyman to lead Microsoft AI.
8. Microsoft uses Inflection AI's datasets and its own synthetic datasets for training MAI-1.

Microsoft's new AI model, MAI-1, aims to match GPT-4. This 500 billion parameter model's training will conclude this month. Microsoft seeks to reduce reliance on OpenAI, which collaborates with competitors while using Microsoft's Azure. Recently, Microsoft acquired Inflection AI and appointed Mustafa Suleyman to lead its AI efforts, using a combination of Inflection's and its own datasets for training.

Source: The Information, Slashdot.

📢 @ai_plus_plus


Репост из: эйай ньюз
DeepSeek Coder V2

Опенсорсная модель знающая 338 языков и умеющая кодить на уровне лучших проприетарных моделей - немного отстаёт лишь от Claude 3.5 Sonnet. Она в 3 раза быстрее LLaMa 70B из-за fine-grained MoE архитектуры и MLA, своего эффективного варианта Attention. Это позволяет сделать очень дешёвое API (дешевле Claude 3.5 Sonnet в 50 раз на генерации и в 35 раз на инпуте).

Для тренировки взяли чекпоинт на 4 триллиона токенов от оригинального DeepSeek V2 и дообучили его на 6 триллионах токенов микса кода (60%), математики (10%) и обычных токенов (30%).

Кроме большой модели на 236 миллиардов параметров выпустили ещё и Lite модель, которая кодит на уровне LLaMa 3 70B. Там всего 16 миллиардов параметров и полностью заполненный контекстом KV Cache занимает меньше 2 гигов, так что квантизированная до 4 бит модель прекрасно запускается на 11 гигабайтах видеопамяти.

Если вы уже пробовали использовать эту модель с ollama и она у вас сбивалась на китайский, то это из-за бага в промпте у ollama. Этот баг пофиксили сегодня утром.

Веса: 236B / 16B
Пейпер

@ai_newz


Репост из: РЕПТИЛОИДНАЯ
Сможете решить загадку?

В твиттере срач на 1.7 млн просмотров. Кто-то говорит, что легко, кто-то — сложно.

Сама загадка из теста для ИИ на абстрактное мышление и понимание паттернов.

Мне хватило буквально полминуты. Ответ — завтра.

🔴 @reptiloidnaya




Репост из: Not Boring Tech
Видео недоступно для предпросмотра
Смотреть в Telegram
🦠 Учёные из Венгрии изобрели нано-роботов, которые манипулируют отдельными клетками! Лазерно-оптический пинцет точечно контролирует клетки, которые в сотни тысяч раз меньше сантиметра.

Мини-пакман выполняет любые манипуляции — захватывает, перемещает и высвобождает клетки, а также сканирует их в 3D. В отличие от прошлых методов, клетки не разрушаются и сохраняют свою работу.

Геном можно контролировать без повреждений, звучит как новая эра в медицине.

@notboring_tech


Репост из: AGI_and_RL
Видео недоступно для предпросмотра
Смотреть в Telegram
Прямо сейчас происходит хайп MCTS (теперь с ллмами)
В RLе у нас MCTS используется в куче *Zero алгоритмов и там он на некоторых играх показывает оверхуман (EfficientZero насколько я понимаю самый работоспособный и быстрее всех учится из зерошек), ну надо и к ллмам его тогда добавить. Они итак "умные", мб это их еще забустит. Ну вроде да.

И вот код к статье где цель делать LLMы (агентов) с MCTS

Tree Search for Language Model Agents
https://jykoh.com/search-agents

https://github.com/kohjingyu/search-agents

Вроде должно работать с ГПТшками и ллама3 (с инференсом на vllm) но я сам не проверял


Репост из: РЕПТИЛОИДНАЯ
Видео недоступно для предпросмотра
Смотреть в Telegram
Копи-паст объектов из реального мира все ближе.

1. Распознавание объектов в реалтайме (я тоже такое делал пару лет назад)
2. Генерация меша.
3. Генерация текстур.
4. AR.

Под капотом моделька 3D-генерации Rodin (уже доступна, можно поиграться).


🔴 @reptiloidnaya × #ai #generativeai #ar


Репост из: Борис опять
Anthropic зарелизили Claude 3.5

Я, конечно же, бросился тестировать его на абсолютно непрактичных задачах.

Вот промпт:
Using SVG, draw a blue cube half behind a red cube on top of a yellow cube, with a purple cube in the background to the right


На первой картинке выдача Claude 3.5, на второй GPT-4 (GPT-4o выдает почти такой же результат).

Claude 3.5 всё сделал почти по ТЗ, а GPT-4 нарисовала квадраты вместо кубов и перепутала порядок.

Мне так интересна способность рисовать кубы потому, что эти модели не учат композиции изображений, так что это какая-никакая мера генерализации


Репост из: AI Insider
Видео недоступно для предпросмотра
Смотреть в Telegram
ElevenLabs научили генерить любые звуки для видео.

Закидываете свой ролик а нейросеть сама накидает десятки готовых аудиоэффектов.

ИИ с предельной точностью распознает происходящее и выдает звуки: музыкальные инструменты, шаги, пение, взрывы и даже речь.

Браузерная версия лежит тут.

Показано 18 последних публикаций.