Postlar filtri


Метаверсище и ИИще dan repost
Flex.1-Alpha

Разбираемся.


Для тех, кто не хочет читать технические подробности, начну от простого к сложному:

1. Это Новый finetune Flux.Schnell от Ostris - автора AI Toolkit для тренировок Flux.

2. Качество картинок тут не главное, оно из коробки будет сопоставимо со Schnell или немного лучше: есть жалобы на руки и анатомию, но это не так важно, потому что:

3. Его главная фишка - тренируемость. Причем тренируемость не только Лор, но и файнтюнов(чекпойнтов) целиком. Он так сделан. Не секрет, что в виду того, что Dev и Schnell - дистиляты (с дырявыми весами), тренировка Flux - дело непростое, особенно целиком. Лоры для Флюкса в силу их хорошего качества, практически заменяют файнтюны(чекпойнты), но при совместном использовании (да и в тренировке), часто "упираются" или "сопротивляются", понуждая к шаманству.

4. Вторая главная фишка - лицензия. Коль скоро Flex сделан на базе Schnell, у него лицензия без ограничений (в отличие от Flux.Dev).

5. Автор вынес наружу CFG Guidance как отдельный адаптер, тем самым дополнительно разблочив гладкость обучения.

6. Кстати, если будете генерить картинки, используйте Flux Guidance between 4.5 and 5.5. А не 2.5 как раньше. Он теперь работает по-другому.

На итоге: это попытка сделать "хорошо тренируемый Flux" да еще и с хорошей лицензией.

Кстати, Kohya уже анонсировали поддержку Flex, а в посте на HF вы найдете и веса Flex и скрипт для тренировки его в AI Toolkit:
https://huggingface.co/ostris/Flex.1-alpha
https://github.com/ostris/ai-toolkit/blob/main/config/examples/train_lora_flex_24gb.yaml

Модель весит 20GB, там внутри и энкодер и вае, должна сходу завестись в Комфи, про Фордж не скажу(на гитхабе у них тихо пока).

Теперь коментов с реддита:

Я быстро обучил LoRA этому, и пока что результаты феноменальны. Он гораздо менее "сопротивляется" тренировкам, чем Flux Dev, особенно когда я пытался тренировать LoRA на нем раньше. Раньше, чтобы получить даже приличные результаты при обучении новой концепции, мне приходилось делать полный файнтюн Flux Dev, и даже тогда результаты были низкими, привередливыми и требовали вечности для обучения. С Flex.1 я смог увидеть немедленные результаты с 16-рангом LoRA и LR 1e-4 за 2000 шагов (по умолчанию).

Харкор от автора:
"Flex.1 начинался как FLUX.1-schnell-training-adapter, чтобы сделать возможным обучение LoRA на FLUX.1-schnell. Первоначальной целью было обучение LoRA, которое можно активировать во время обучения, чтобы обеспечить файнтюн модели с пошаговым сжатием. Я объединил этот адаптер с FLUX.1-schnell и продолжил обучение на изображениях, сгенерированных моделью FLUX.1-schnell, чтобы еще больше разделить сжатие, не вводя никаких новых данных, с целью создания отдельной базовой модели. Так появилась модель OpenFLUX.1, которая непрерывно обучалась в течение нескольких месяцев, в результате чего было выпущено 10 версий. После выхода финальной версии OpenFLUX.1 я начал тренировать модель на новых данных и экспериментировать с pruning. В итоге у меня получились обрезанные версии OpenFLUX.1 с параметрами 7B и 4B (не выпущенные). Примерно в это же время была выпущена flux.1-lite-8B-alpha, которая дала очень хорошие результаты. Я решил последовать их стратегии обрезки и в итоге получил версию с параметрами 8B. Я продолжил обучение модели, добавляя новые наборы данных и проводя различные экспериментальные тренировки, чтобы улучшить качество модели.

На итоге:
Flex.1 Aplha
8 billion parameters
Guidance embedder
True CFG capable
Fine tunable
OSI compliant license (Apache 2.0)
512 token length input


Ждем чекпойнтов на Civitai...

@cgevent




Сиолошная dan repost
Статья в репозитории: https://github.com/deepseek-ai/DeepSeek-R1

Метрики на скриншотах
API уже доступен на официальном сайте DeepSeek по смешным (по сравнению с о1) ценам — выход, в том числе и рассуждения, дешевле в 25 раз.

Но так как модель на 680 миллиардов параметров запустить сможет мало кто.. то они дистиллировали цепочки рассуждений в большое количество разных локальных моделей, Qwen, LLAMA 3 итд — выбирай не хочу! Их метрики на последней картинке

7B модельки лучше Opus / 4o на решении мат. задач, что ещё раз показывает важность обучения именно рассуждению, и что эта ось альтернатива масштабированию самих моделей

Big day for the community

Разница Zero версии R1 и обычной:
> DeepSeek-R1-Zero, a model trained via large-scale reinforcement learning (RL) without supervised fine-tuning (SFT) as a preliminary step, demonstrated remarkable performance on reasoning. With RL, DeepSeek-R1-Zero naturally emerged with numerous powerful and interesting reasoning behaviors (про это говорили OpenAI). However, DeepSeek-R1-Zero encounters challenges such as endless repetition, poor readability, and language mixing. To address these issues and further enhance reasoning performance, we introduce DeepSeek-R1, which incorporates cold-start data before RL.

UPD: на сайте chat.deepseek.com уже отвечает новая модель R1

UPD2: первая картинка обновлена, показывает сравнение цен. Модель дешевле o1-mini в несколько раз.


Сиолошная dan repost
Big if true: Tibor Blaho нашёл в коде сайта OpenAI указания метрик грядущего агента Operator. Operator, как я писал несколько раз, это такая система, которая видит ваш экран и может кликать мышкой/нажимать клавиши для взаимодействия с приложениями, включая браузер.

Осенью Anthropic представили Claude Computer Use, и в таблицах вы можете увидеть сравнения (система OpenAI существенно лучше на всех трёх приложенных бенчмарках; и лучше WebVoyager чем Google Mariner на новой Gemini 2, который показывали в декабре).

Также есть таблицы с метриками отказов в выполнении потенциально опасных задач: заработок на крипте, автономное распространение (копирование и запуск) моделей. И последнее — насколько модель падка на уловки/нелегальные активности

Ждём анонса на этой неделе?


Сиолошная dan repost
Paul Schrader, сценарист фильмов «Таксист» и «Бешеный бык» (за режиссёрством Martin «🖐😶🤚» Scorsese ), пишет в фейсбуке:

— Я только что осознал что AI умнее меня. У него лучше идеи, он предлагает более эффективные способы их осуществления. Это экзистенциальный момент, схожий с тем, как Kasparov чувствовал себя в 1997, когда понял, что DeepBlue обыграет его в шахматы
— (Что привело вас к этим мыслям?) Я спросил у ChatGPT идеи сценариев от Paul Schrader. Оно выдало результаты лучше, чем мои собственные идеи.

====

— Я только что отправил ChatGPT сценарий, написанный мной несколько лет назад, и спросил об улучшениях. Через 5 секунд я получил ответ с заметками на уровне или даже лучше, чем я получал от кинопродюсеров.

====

Фух, ну хорошо, что тут можно отмазаться, мол, сценарист слабенький, лишь номинировался на Оскар, а не выигрывал его, и что ему 78 лет, и он уже ничего не понимает 😀


Сиолошная dan repost
Inference-Time Scaling for Diffusion Models beyond Scaling Denoising Steps (сайт проекта)

Последнее время активно исследуется тема масштабирования вычислений во время инференса (применения модели). В LLM ярким событием стал анонс o1 от OpenAI, где модель могла исписать 50 страниц рассуждений вместо 5, что привело к улучшению качества в нешироком наборе задач. Авторы из DeepMind решили попробовать масштабировать вычисления на инференсе для диффузионных моделей генерации картинок по текстовому запросу.

Диффузионные модели, если упрощать, работают так:
1) Сначала создается случайный шум — просто хаотичная картинка, никак не связанная с запросом (может выглядеть так, ткните картинку чтобы понять о чем речь) и моделью

2) Этот шум пропускают через модель, получают на выходе параметры распределения (например, среднее и дисперсию) другого шума, который нужно вычесть из текущего, чтобы получить более качественное изображение, соответствующее вашему запросу.

3) берут семпл из этого распределения (то есть случайным образом выбирают какое-то одно значение с учётом предсказанных выше параметров; более просто: случайный выбор значения из предсказанного моделью диапазона)

4) из текущего зашумленного изображения (на первой итерации это то, что получилось в пункте 1) вычитают то, что получилось в пункте (3); модель как бы предсказала, какой шум нужно вычесть, чтобы «очистить» изображение (поэтому называется denoising, убирание шума). Это делает картинку чуть более четкой, но пока она всё ещё далека от финального результата. На этом этапе могут применяться специальные алгоритмы, связанные с дифференциальными уравнениями, но об этом как нибудь в другой раз.

5) Обновленное изображение снова пропускают через модель, повторяя процесс. Постепенно шум убирается шаг за шагом, и через множество итераций модель выдает готовую картинку.

Прочитав это, легко сходу придумать, как именно масштабировать вычисления во время предсказания: нужно просто увеличить количество шагов! К сожалению, эта мера не так эффективна, и после относительно небольшого увеличения прирост качества генераций прекращается. Условно между 20 и 50 шагами (итерациями) вы увидите разницу, а между 100 и 200 почти наверняка нет (в некоторых случаях это и вовсе портит картинку). То есть этот метод масштабирования очень ограничен.

Поэтому авторы рассматривают альтернативные способы. Они подмечают, что существует такая вещь как черри-пикинг — это когда для одного и того же запроса одна и та же модель генерирует много картинок, а после этого для демонстрации выбирается лучшая, например, чтобы похвастаться в статье или на сайте. То есть в среднем генерации могут быть просто хорошими, но вот иногда появляется картинка красивее и качественнее — хотя казалось бы ничего не меняется (кроме случайного шума в первом пункте из списка выше).

Значит, какие-то исходные шумы более удачны, какие-то менее. Это и будет первый метод поиска для масштабирования вычислений: давайте сгенерируем N картинок из N разных шумов, затем пропустим их через отдельную модель, которая даёт оценки, и выберем лучшую. «Отдельная модель» будет называться verifier (верификатор?), она принимает на вход картинку и, опционально, текстовый запрос и выдаёт какую-то цифру, по которой и судим.

Верификаторы могут быть разные — это может быть и одна модель, натренированная оценивать эстетику изображения (такие давно есть) и не опирающаяся на текст запроса, и LLM, которой дали промпт «ну чё ты, оцени по десятибальной», и ансамбль моделей, где несколько разных независимых оценок суммируются в одну. В статье верификаторам уделяется много внимания, но я про них писать не буду — важно то, что они есть, и это существенно отличает подобный метод от, например, о1, где модель генерирует сама без опоры на внешнюю валидацию.


Метаверсище и ИИще dan repost
Вот вам пример видеогенерации, от которого у меня немного закипел мозг.

Мы тут извращаемся в промптах, пытаясь заставить двигаться камеру или персонажа.
Но.
Оказывается, можно попросить ИИ добавить на видео гринскрин (этим я вас не удивлю) и, внимание, маркеры для трекинга камеры (а вот этим удивлю). Для того, чтобы потом оттрекать камеру в AE или Нюке, восстановить движение объектов в 3Д, убрать фон и навалить сверху нормальной графики или футажа.
В общем все, как на съемках с парой супервазеров, мешком маркеров, тейпов, рулеток, далее по списку. Только промптом!

И судя по этому примеру у Veo2 (пока крайней мере у него, но думаю и у остальных) в голове есть реальная модель 3Д мира и вполне себе эвклидово пространство, ибо это работает и условная фотограмметрия не ломается.

Я в шоке. А вы не поленитесь, почитайте нехилый такой промпт, где написано про маркеры, гринскрин и прочую супервайзерскую требуху (тут есть момент, чтобы писать такой промпт, надо как бы быть в супервайзерской теме, но об этом в другой раз).

Я уж не знаю, на чему учили Veo2, но то, что это вообще работает, приводит меня в восторг.

Подробности тут.

Кто совсем ничего не понял: здесь только девушка (см. промпт). Среднее видео демонстрирует добавление созданной человеком модели (андроид, G) в сцену, созданную ИИ, а нижнее - объединение созданного ИИ персонажа (девушки) в созданную человеком сцену (сакура и небесное пространство). В обоих случаях необходимы данные с камеры, полученные в результате работы ИИ.

Попробуйте в Клинге что ли...

@cgevent


Data Secrets dan repost
Там Gwern*, легендарный анонимный исследователь, очень ярко высказался на форуме про o1 и o3. Цитаты достойны вашего внимания:

"Мне кажется мы стали забывать, что главная функция такой модели, как o1, заключается не в ее развертывании, а в генерации обучающих данных для следующей модели. Каждая задача, которую решает o1 – это отправная точка для o3: все ответы, все траектории, по которым проходила o1 в мыслях, могут быть улучшены моделью, которая на них учится.

На самом деле, я вообще удивлен, что OpenAI потрудились развернуть o1-pro, вместо того чтобы сохранить ее в тайне и вложить средства в дополнительные вычисления для обучения o3. (Похоже, именно поэтому Anthropic так и не показали Claude-3.6-opus — модель не «провалилась», они просто решили сохранить ее в тайне и свести к небольшому дешевому, но внезапно ставшему очень умным Claude-3.6-sonnet.)

Если посмотреть на пример AlphaZero, мысль становится очевидной: если бы обычный поиск во время инференса (чем и является ризонинг) работал хорошо, шахматы были бы решены еще в 60-х. Но на самом деле это просто стимулятор, который увеличивает ваш скор, но асимптотирует его с трудом. То есть его нельзя просто масштабировать, нужно использовать другую бОльшую модель чтобы делать поиск меньшей лучше.

Помните, что сказал Альтман? "o3-mini будет намного лучше и при этом намного дешевле o1". Именно поэтому мы можем никогда не увидеть промежуточные модели вендоров, просто потому что деплой – лишняя трата денег. Зачем тратить деньги на обслуживание внешних запросов, если их можно вложить в обучение и скоро получить такую же умную модель, но в 100 раз дешевле?

Так что пусть такие лаборатории, как DeepSeek дальше тратят ресурсы на развертывание ризонеров, которые производят временный эффект. В отличие от OpenAI, им никогда не хватит ресурсов, чтобы дальше участвовать в настоящей гонке, за ASI. "


* Это тот самый, который еще в далеком 2014 предсказал закон масштабирования LLM, то есть, по сути, спрогнозировал будущее ИИ на 10 лет вперед




Neural Shit dan repost
Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
в целом, я сам виноват, что зашел в интернет


Агенты ИИ | AGI_and_RL dan repost
smolagents - новые агенты от HF

Будет заменой для transformers.agents (да, есть такие)
Давят на простоту в первую очередь и это правильно

Есть кодовый агент который пишет действия и вызовы тулов кодом (на картинке пример с кодовым агентом), а не просто jsonы с параметрами как обычно принято делать
можно импортить тулы из langchain
+ можно делать мультиагентные систему

Сейчас сделали 3 примера: text-2-SQL, RAG агента, мультиагент

Реп https://github.com/huggingface/smolagents

Пост https://huggingface.co/blog/smolagents

дока + туторы https://huggingface.co/docs/smolagents/index

Думаю, что как и многие smol проекты от хф - это в первую очередь чтобы взять, поковырять и поизучать. Пока что проекту месяц) Но мб со временем мощь получится


Метаверсище и ИИще dan repost
Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
Сорри, но я снова про видеогенераторы, ибо они все взбесились.

VIDU 2 хвастается новыми фишками:

- Ускоренное создание видео: Видео создается всего за 10 секунд.
- Повышенная согласованность: От первого до последнего кадра
- Низкая цена: Всего 0,7 цента за секунду (хмм)
- Внимание: в непиковом режиме неограниченное количество бесплатных генерация в непиковые часы.

Правда как попасть в непиковые часы непонятно.

И снова я вам принес не демо ролик из их твиттора, а аниме-пример.

Я не большой эксперт в аниме, но похоже совместимость персонажа там достигается попроще (главное глазищщи и подбородок) и снова подумалось, что вот эти вот филеры в аниме уже можно заполнять генеративом. А уж с такой музикой Suno точно справится.

В общем раньше бывало "а облака возьмем со стоков". А теперь: "аниме путешествие за город сгенерим в Vidu"

P.S. У них там еще конкурс на 5000 баксов

@cgevent


Метаверсище и ИИще dan repost
Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
Позавчера писал про новую модель Ray2 от Luma Labs - сегодня ее выпустили из беты в народ с платными подписками.

Вместо демо-роликов принес вам довольно впечатляющий пример от @davincisdigital.
Мне кажется куски Ходячих мертвецов или второй сезон Last of US можно "подснимать" в Луме. Не говоря уже про синематики к определенного класса играм.

Похоже, что есть прогресс анимации, то есть в движениях, как объектов, так и камеры. Вопрос управляемости.

И прежде чем расчехлять ляполовы, вспомните, где мы были полтора года назад. И где мы сейчас.

Куда катится мир?

@cgevent


Я попросил LLM придумать как сделать первый вариант с двумя шорт ифами почитабельнее и он родил мне кучу вариантов, но вот от такого варианта я аж прифигел, минуты 2 вообще думал как оно работает


Метаверсище и ИИще dan repost
Comfy2Gradio

А вот это уже очень интересный туториал-инструкция.

Что он делает:

1. Берет ComfyUI workflow и превращает его в некий питоновский код.
2. Потом берет этот питоновский код и превращает его в другой питоновский код - в web-морду Gradio, со всеми слайдерами и и чекбоксами. То есть в нормальный UI.
3. Далее вам расскажут, как засунуть и запустить это Gradio-приложение на Hugging Face Spaces with ZeroGPU. Ну то есть захостить в облаке (типа бесплатно до какого-то лимита использования GPU)
4. Вы получите просто url на котором крутится ваше приложение с кнопочками и ползунками, вместо лапши и лапши.

Обещают однокнопочный процесс, но есть момент. И момент родовой: вы должны знать как to grab a ComfyUI workflow and run it on your machine, installing missing nodes and finding the missing models (we do plan to automate this step soon though)

Ну то есть взять чей вокфлоу и превратить его в нормальный UI не получится. Надо установить Комфи, загнать туда этот воркфлоу, посмотреть на красное аддище из missing nodes, понажимать кнопок, поустанавиливать гитхаба и когда все заведется, переходить у туториалу.

Но идея ОЧЕНЬ правильная. Если они смогут автоматизировать борьбу с кошмаром отсутствующих нод(версий, конфликтов) и деплой на HF, то может получиться прорыв в обмене сценами из ComfyUI.

Я ставил SwarmUI как UI-нашлепку над Комфи, но это настолько уродливо, неудобно и криво сделано, что сразу снес. Кроме того, там нет наследования параметров из кастомных нод от того же Kijai, разработчик медленно добавляет все модели и форки вручную.

Я бы подождал автоматизации и развития этого проекта:
https://huggingface.co/blog/run-comfyui-workflows-on-spaces

@cgevent


Метаверсище и ИИще dan repost
AI Meme Arena

Прокачка ИИ-чувства юмора. Впрочем не только ИИ, но и кожаного.

Принес вам серьезное залипалово на несерьезную тему. Сижу второй час. Генерю мемы.
Вот тут: @AIMemeArenaBot - это прямо полный аналог lmsys’овской Chatbot Arena, из которой вырастает объективный лидерборд для оценки остроумия AI-агентов.
Больше даже похоже на лидерборд для картинок, ибо результат оцениваешь "нутром", а не мозгом.

Иногда результаты полный треш, но иногда выходит такой мем, что твои кожаные мозги начинают нагреваться - это смешно, но ты не можешь объяснить почему. Я совершенно заворожен этим экспериментом. Сдается мне все стендаперы (особенно любители парадоксальных шуток сейчас ломанутся туда).
Процесс напоминает ранние генерации в Stable Diffusion 1.5 - много мусора и кривой анатомии, а потом бац и шедевр, надо только прокликать "еще мемов". В принципе с ранними чатботами было также же, поток галлюцинаций вперемешку с нормальными ответами. С фонами тоже есть проблемы, но, я так понимаю, датасет растет.

Процесс до тупости прост, задаешь тему
- отправляешь контекстный промпт (например, "Айфон тырит фичи у андроида");
- Два рандомных AI-агента Арены его получают;
- Каждый генерит свой мем;
- Голосуете за более остроумный и релевантный;
- На основе множества таких баттлов(кликов "давай еще") строится Leaderboard, который уже работает тут: https://aimemearena.vercel.app/

Самое смешное, что никакой регистрации, подписок на канал и прочая.

Сейчас Арена работает только на русскоязычных AI-энтузиастов, но авторы вероятно скоро сделают глобальную версию
- когда сделают, есть шанс, что эта штука поможет ускорить эволюцию остроумия и ЧЮ у AI-агентов и LLM-ок и мы выпьем за кожаных Петросянов
- в качестве контекстных промптов можно попробовать новостные заголовки, посты в Телеграме, абзацы из статьи и т.д.
- чем шире описан контекст, тем релевантнее и глубже мемы получаются

Дальше - больше.

Оказалось, что там не только боты от авторов @AIMemeArenaBot, а любой желающий может наваять своего ИИ-стендапера и выпустить его на арену - для этого есть Chаllenge: https://aimemearena.vercel.app/challenge
У кого получится хороший рейтинг на арене, еще и компьют компенсируют.

Я полез искать авторов, которые пишут что их миссия is Making AI Funny As Fuck и и оказалось, что они как-то связаны с FUNCORP.

Пойду напишу Вове Закоулову, ибо это прекрасно.

А пока позалипайте тут @AIMemeArenaBot и присылайте лютые шедевры и такой же треш в коментарии.

Повеселимсо.

У меня вот такой свеженький про chatGPT Tasks сгенерилсо.

@cgevent


Data Secrets dan repost
Почему o1 иногда думает на китайском?

После выхода o1 некоторые пользователи стали замечать любопытное явление: во время размышлений модель может рандомно переключиться на... китайский язык (пример). Ответ она затем дает на языке пользователя, но ситуацию это не проясняет.

o1, кстати, не одинственный ризонер, который так делает. QwQ вот тоже переключается во время рассуждений на китайский(пост). Но с QwQ все понятно, моделька родом из Китая и основной язык данных китайский. А o1 то чего?

OpenAI такое поведение никак не комментировали, но у других экспертов и ресерчеров есть идеи. Например, CEO Hugging Face пишет (и это, конечно, первое, о чем можно подумать), что в трейне просто было очень-очень много китайской даты, потому что многие компании, и возможно OpenAI в том числе, используют китайские сервисы разметки. Так что это вполне правдоподобный вариант.

Но это не объясняет, почему только китайский. Ведь в данных точно много разметки на хинди, или на тайском, или на испанском. Но модель никогда, вообще никогда на эти языки не переключается. Почему?

Некоторые считают, что это мог быть намеренный эксперимент OpenAI, ведь токены в китайском языке гораздо информативнее, чем в других, а значит, рассуждения на китайском могут быть короче и дешевле. А если думать о том, что модель действительно выполняет поиск в пространстве решений, то объяснить происходящее можно так: рассуждения на определенном языке в определенных доменах могут чаще приводить к правильным ответам (например, из-за того же дисбаланса в данных), чем рассуждения на других языках, потому модель такие ветки и выбирает.

В любом случае, пока такое поведение – загадка. Надеемся, OpenAI все-таки даст свои комментарии


Not Boring Tech dan repost
🔥 Google представили Transformers 2.0 — это новая архитектура Titans, которая может стать главным двигателем прогресса LLM в 2025 году.

Краткий пересказ огромного исследования:

• Проблема: трансформеры обрабатывают ограниченный объем контекста, часто забывают его части и отвлекаются на неважные детали.
• Решение: архитектура Titans с тремя типами памяти!
1. Краткосрочная память — для обработки инфы сейчас;
2. Долгосрочная память — для хранения важной инфы из прошлого;
3. Постоянная память — для хранения текущего запроса.
• Titans работает как человеческий мозг — забывает неактуальную инфу, а в долгосрочную память кладёт только самое важное.
• Результат: Titans запоминает контекст длиной больше 2 миллионов токенов! Можно загрузить три полных версии романа «Война и мир» за раз — больше, чем у любых существующих нейронок.

Архитектура, которая проложит путь к AGI — тут.

@notboring_tech


Метаверсище и ИИще dan repost
Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
Ого, кто-то прикрутил ИИ к Unreal Engine.

Создание ассетов и сцен промптами.
Редактирование сцен промптами.
Blueprint assistant с рекомендациями, оптимизациями и даже natural language graph creation

Ludus.Blueprint is our AI-powered Blueprint assistant that helps with node suggestions, optimization recommendations, and natural language graph creation. Ludus.Chat enables text-to-scene conversion, allowing you to create and modify scenes using natural language commands.

На бесплатном плане только чат с документацией.

Enterprise customers get additional access to project-specific customizations and self-hosted solutions.

А еще у них планируется ассистент кода - Allow AI do the heavy lifting in your code development with our AI finetuned for Unreal Engine's C++ standard. Project-aware code generation, autocomplete, and multi-file editing. Available as an in-engine plugin and in your favorite IDE!

На первый взгляд выглядит как Cursor для UE5. Ну или UE для чайников.

Но никаких подробностей про LLM внутри я не нашел (Умные подписчики быстро пронюхали, что внутри Антропик и Дипсик)

Странный проект.

https://ludusengine.com/

@cgevent



20 ta oxirgi post ko‘rsatilgan.