Postlar filtri


Machinelearning dan repost
💵Трамп сегодня ​​представит масштабный план по развитию инфраструктуры ИИ.

CBS сообщает, что он включает возвращение проекта Stargate.

OpenAI, Softbank и Oracle планируют инвестировать $500 млрд в течение следующих четырех лет.

Целью
инвестиций является поддержка лидерства США в сфере искусственного интеллекта. Ожидается, что официальный анонс проекта состоится в скором времени.

На данный момент Соединённые Штаты удерживают лидирующие позиции благодаря таким компаниям, как OpenAI, Anthropic и Microsoft.

Но Китай активно наращивает свои позиции, ежемесячно выпуская новые модели, которые работают не менее эффективно, но с большей скоростью и меньшими затратами.

В рамках инициативы Stargate планируется строительство нескольких гигантских дата-центров, причем первый из них будет открыт в штате Техас.

Оставшиеся ресурсы будут направлены на создание и обучение новых моделей ИИ.

AGI появится раньше, чем мы все ожидаем, а нас ждет настоящая гонка вооружений и ещё более стремительное развитие ИИ.

▪️Новость

#ai #news


DeepSeek поделились интересным примером, того как их модель R1-Zero после обучения через rl "сама научилась останавливаться" и перепроверять свои решения. Причем ее этому не учили. Вот такой вот трансфер.

А что думаете Вы? Черипик или нет, верим?

Пишите в комментариях свое мнение.

https://github.com/deepseek-ai/DeepSeek-R1


Original post link: t.me/dealerAI/1067
Forwarded and filtered by @smartfeed_bot


Там, кажется, Anthropic наконец-то скоро выйдет из спячки

CEO стартапа Дарио Амодеи дал интервью Wall Street Journal и пообещал, что в ближайшем будущем Anthropic подарит нам новые более умные модели, а также улучшенную память для Claude и голосовой режим.

Также прозвучали слова о том, что к 2026 стартап запустит кластер размером 1 млн GPU (ничего такого никогда ранее Anthropic не заявляли).

AGI, кстати, как и ранее, Амодеи прогнозирует к 2027.

Полностью интервью можно посмотреть здесь, длится всего 35 минут


Original post link: t.me/data_secrets/5970
Forwarded and filtered by @smartfeed_bot


LLM под капотом dan repost
Какой из промптов будет давать более точный ответ?

Промпты почти одинаковые, меняется только порядок.


from openai import OpenAI
client = OpenAI()

prompt1 = f"How many times is word 'RAG' mentioned in the text? Answer with a number.\n{text}"
prompt2 = f"{text}\nHow many times is word 'RAG' mentioned in the text? Answer with a number."

for p in [prompt1, prompt2]:
completion = client.chat.completions.create(
temperature=0,
model="gpt-4o-2024-11-20",
messages=[
{"role": "user", "content":p}
]
)
print(completion.choices[0].message.content)


Сможете ответить сходу и объяснить почему?

Если сложно сказать, попробуйте выполнить несколько раз и убедиться сами. Абзац текста я добавлю в комментарии.

Это новая практическая задачку на построение интуиции для курса.

Второй вопрос - а какой из промптов будет давать более точный ответ в этом случае и почему? 😜


for p in [prompt1, prompt2]:
completion = client.beta.chat.completions.parse(
model="gpt-4o-2024-11-20",
temperature=0,
response_format=Response,
messages=[
{"role": "user", "content": p}
]
)

print(completion.choices[0].message.parsed)



Ваш, @llm_under_hood 🤗


PS: Это новая задачка, которую я решил добавить в практическую часть курса. Уж больно она наглядная и неожиданная.


Knowledge Accumulator dan repost
Strangely, Matrix Multiplications on GPUs Run Faster When Given "Predictable" Data! [2024]

Человеческая инженерия - забавная вещь. Мы строим очень сложные механизмы, являющимися небоскрёбами из различных абстракций, не держа в голове всевозможные спецэффекты их взаимодействия. Из-за этого при их реальном применении возникают приколы, об одном из которых написан вот этот блогпост.

Оказывается, если взять видеокарту и попросить её умножить 2 большие матрицы фиксированного размера, то скорость выполнения зависит от значений на входе. Казалось бы - количество умножений и сложений фиксированное и такого быть не должно, но разница аж в 10-20%. Как так?

Для понимания этого перескажу некоторые аспекты работы видеокарты (сам не эксперт, пожалуйста, поправьте неточности):

Итак, видеокарта - это конструкция из транзисторов и других элементов, по которым течёт ток (внезапно). Он пропускается через всю схему какое-то количество раз в секунду, и это называется тактовой частотой. На то, чтобы пропускать ток, уходит часть мощности видеокарты - в случае A100 это около 80W.

Эта мощность потребляется видеокартой даже тогда, когда на ней не происходит никаких больших вычислений, что бы GPU ни делала. Когда на видеокарте начинают происходить вычисления, то по ней начинают бегать данные и транзисторы переключают свои значения.

Переключение значения транзистора - это энергозатратная операция. В момент вычислений затраты резко возрастают и становятся выше максимально доступной мощности), из-за чего тактовая частота вынуждена понижаться и вычисления замедляются.

Автор проводит дополнительные замеры - что, если ограничить мощность GPU вручную до меньших значений? Соотношение усугубляется - матрицы из нулей перемножаются аж в 2.2 раза быстрее при ограничении в 150 ватт.

При зафиксированной мощности в 200 ватт, при ограничении частоты в 600 MHz мощности хватает на всё и время работы не зависит от данных. При поднятии скорости это соотношение начинает расти, поскольку в этом случае её хватать перестаёт.

Автор пробует подавать разные виды входов - равномерное распределение, нормальное, нормальное + шахматная маска, бернулли и т.д. - результаты можно найти в посте.

По результатам ещё одного замера удаётся "разоблачить" маркетинг от Nvidia. На бумаге количество флопсов на H100 в 3 раза больше, чем у A100, поскольку считаются они по формуле (кол-во ядер) x (макс. частота) x (флопсы на инструкцию). Однако, по графику видно (прикреплён к посту), что поддерживать такой теоретический максимум видеокарта не способна при доступном лимите мощности

Таким образом, в реальности она работает лишь в 2 раза быстрее. Учитывая то, что их мощности это 700W и 400W, получается, что "реальные" флопсы на ватт между поколениями выросли весь скромно.

Всё это лишь укрепляет мой оптимизм в AI-инжерению. Когда алгоритм будет решать задачу целиком, получая на вход общие ограничения - "спроектируй железку, умножающую случайные матрицы как можно быстрее, с такими-то ограничениями" - результат будет непостижим для нашего глупого мозга, но эффективность всё окупит.

@knowledge_accumulator


Ваши задачи требуют мощных вычислительных ресурсов? Локальные мощности не справляются с обучением нейросетей?

immers.cloud предлагает решение:

💰 Экономия: тарифы от 23 рублей/час, оплата только за фактическое время использования
⚡️ Быстрый старт: видеокарты и серверы готовы к работе за пару минут.
📈 Гибкость и масштабируемость: 11 видеокарт на выбор, быстрый старт и масштабирование 
🔧 Удобство: готовые образы для ML задач, чтобы не тратить время на настройку

Платформа также предлагает образ Ubuntu 22.04 с предустановленными драйверами, библиотеками CUDA 12.3 и CudNN: с ним можно развернуть поверх него необходимые инструменты для обучения, разработки или работы с нейросетями.

🎁 Для наших подписчиков действует бонус: +20% бонус к пополнению баланса


Original post link: t.me/data_secrets/5956
Forwarded and filtered by @smartfeed_bot


LLM под капотом dan repost
Что бы вы хотели знать о проблемах и задачах крупных компаний в Европе?

На Enterprise RAG Challenge в конце февраля придет с keynote Stephan Gillich. По его роду деятельности, у него есть куча инсайтов о крупном бизнесе в Европе. Он расскажет про задачи, которые компании пытаются с решать с помощью AI, что у них из этого выходит, и на что есть спрос.

Например, одна из таких вещей - OPEA - это LangChain для компаний, но из Linux Foundation. В него вкладываются компании вроде AMD, Intel, ByteDance, SAP и China Unicom. И при этом про него в русскоязычном сегменте мало кто слышал.

Кстати, Stephan говорит, что спрос на локальные решения сейчас на самом деле очень большой, и Project Digits от NVidia вышел в очень удачное время.

Эти топики уже интересны, и будет про них очень здорово услышать подробнее. Но, может быть, еще есть какие-то вопросы вокруг этих тем? Задавайте свои вопросы в комментарии, я потом их соберу, обработаю и вынесу на Q&A сессию после Keynote.

Ваш, @llm_under_hood 🤗


Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
🤗 Hugging Face не так давно выпустила собственную low-code библиотеку для просто создания ИИ- агентов ⚡️

Smolagents - это библиотека на 100% с открытым исходным кодом, которая позволяет запускать мощные агенты, используя всего три строки кода.

↳ Импортируйте необходимые модули.
↳ Выберите агента
↳ Укажите LLM и инструменты, к которым он должен получить доступ.
↳ Запустите агент!

Сделано!

- Поддерживает более 40 LLM
- Предоставляет один общий доступ к инструментамHF Hub.
- CodeAgent, который записывает свои действия в коде.

Установка:


pip install smolagents

Пример работы:

from smolagents import CodeAgent, DuckDuckGoSearchTool, HfApiModel

agent = CodeAgent(tools=[DuckDuckGoSearchTool()], model=HfApiModel())

agent.run("How many seconds would it take for a leopard at full speed to run through Pont des Arts?")


GitHub
Подробнее


Original post link: t.me/ai_machinelearning_big_data/6587
Forwarded and filtered by @smartfeed_bot


Градиент обреченный dan repost
На together.ai появилась бесплатная Llama 3.3 70B по API.

🔸 На Free tier'е у них 60 запросов в минуту/60k токенов. Если добавить карту, то будет 600/180k.

🔸 Работает без VPN и мобильных, совместима с OpenAI клиентом. Можете встроить в свой пет-проектик.

https://api.together.ai/models/meta-llama/Llama-3.3-70B-Instruct-Turbo-Free

import os
import openai


os.environ["TOGETHER_API_KEY"] = "your_free_key"

client = openai.OpenAI(
api_key=os.environ.get("TOGETHER_API_KEY"),
base_url="https://api.together.xyz/v1",
)

response = client.chat.completions.create(
model="meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo",
messages=[
{"role": "system", "content": "Ты — ассистент Шерлока Холмса."},
{"role": "user", "content": "Кто убил садовника?"},
]
)

#Хорошая задача, мистер Холмс! Позвольте мне собрать все имеющиеся у меня данные и мы начнем расследование.

#Садовник, как я понимаю, был найден мертвым на территории поместья...


Нейроинтерфейсы dan repost
(Впрочем, надо отметить, что организаторы, как со стороны Пятигорского университета, так и со стороны МАКИ, вложили в организацию конференции большой труд, и проблемы, по-видимому, были связаны с недостаточными для проведения такой большой конференции ресурсами и отсутствием в команде людей, хорошо разбирающихся в тонкостях оргнизации научных конференций).

- Один из симпозиумов конференции был посвящен памяти одного из основателей конференции Бориса Митрофановича Величковского, ушедшего из жизни в 2022 году. Симпозиум запомнился очень ярким и чрезвычайно содержательным выступлением его сына Бориса, который рассказывал о наиболее плодотворных годах работы Б.М. -- они прошли в Германии и Канаде. Однако непростой период работы Б.М. после возвращения в Россию остался почти совсем не освещенным. В конференции участвовали все три руководителя направлений созданного им в Курчатовском институте центра когнитивных исследований (поначалу это был Институт когнитивных исследований, далее он был превращен руководством Курчатника в отделение, отдел, и, наконец, в лабораторию), но почему-то никому из них не предложили выступить.

- С сайтом конференции все время происходили разные приключения, а сейчас и вовсе осталась только информационные странички 2024 года на портале Ломоносов, и, в частности, негде смотреть программу даже последней конференции, не говоря уже о предыдущих (кажется, их и раньше не сохраняли) -- по основному адресу https://conf.cogsci.ru/ показывается лишь сообщение от хостинга "Please renew your subscription".


Нейроинтерфейсы dan repost
Volga Neuroscience Meeting

Впечатления о конференции 2023 года (Нижний Новгород, загородный отель "Чайка")

• Сайт: https://neuroconf.unn.ru/vnm-2023/
• Раз в два года, следующая в 2025 году (?)

Одна из серий конференций, организуемых Нижегородским госуниверситетом и привязанных к Волге. В доковидные времена участники конференции плыли по Волге на выделенном исключительно для них теплоходе, что создавало особую атмосферу и способствовало привлечению очень крупных зарубежных ученых и научной диаспоры. В 2023м конференция поначалу проплыла примерно пару часов по Оке, затем высадилась на ее берегу и обосновалась там же в большом и довольно пафосном доме отдыха, который делила с его обычными гостями.

Плюсы

- Несмотря на тяжелое положение отечественных нейронаук и резко ограничившиеся возможности приглашения ведущих мировых ученых, уровень Volga Neuroscience не снижается, и даже, кажется, растет. Стало, правда, меньше звезд, но все-таки более значим состав рядовых участников, а он очень радовал. И каким-то образом конференции удается обходиться почти совсем без фриков и псевдонауки.

- Хорошим качеством отличались все основные жанры -- keynotes, секции/симпозиумы, постерные секции -- причем и содержательно, и организационно.

- Торжественные ужины в честь открытия и закрытия конференции плавно переходили в дискотеки, в которых приняли участие не только молодежь, но и многие из участников солидного возраста, включая весьма известных ученых.

Минусы

- Непривычно высокий для российских конференций оргвзнос. Впрочем, в него входит проживание и питание, а молодые ученые могут получить гранты, покрывающие оргвзнос (вместе с этими расходами).

- Культурная программа была в явном диссонансе с научной. На торжественных ужинах в честь открытия и закрытия конференции громкая музыка делала невозможными сколь-нибудь содержательные разговоры -- а ведь для большинства основная цель участия в конференциях -- это networking; пришлось слушать очень затянутое выступление некой певицы (которое было очень на любителя). С юмором на этих ужинах тоже переборщили: вел программу конферансье, который, надо сказать, вносил оживление, но как-то очень уж много и долго он говорил... он, кажется, сам имел какое-то отношение к науке, но, увы, совершенно не чувствовал жанр научной конференции. (Тут не лишне вспомнить, что у участников конференции на таком ужине нет выбора, тогда как в обычной жизни мы выбираем культурный досуг квждый сам и в соотвтетствии со своими вкусами). Музыка на дискотеках (которые сами по себе очень похвальное явление, их очень не хватает на большинстве конференций) почему-то была подчеркнуто импортозамещенная, сплошь какие-то калинки-малинки.

- В культурной программе конференции был Science Fail Night. Это очень неплохой жанр (чаще вместо Fail употребляется слово Fuckup, но, видимо, оно показалось организаторам недостаточно приличным), предполагающий, что выступающие рассказывают о своих научных факапах, обычно курьезных, но в то же время и поучительных в научном отношении. Здесь, однако, его превратили в сугубо увеселительное мероприятие, да еще и в формате конкурса (в нем ожидаемо победил рассказ о спаривании кроликов).

- Регистрация на конференцию в 2023 году совершенно нежиданно закончилась еще до дедлайна подачи тезисов, и многие из планировавших участвовать в конференции не смогли на нее попасть. Кроме того, как и раньше при проведении конференции в плавучем формате, большинству участников пришлось жить по двое в одном номере. По-видимому, желающих принять участие в конференции оказалось намного больше, чем ожидали организаторы. Проблемы не возникло бы, если бы регистрация, как это обычно принято, проходила уже после принятия решения о принятии тезисов (в этом случае большой наплыв желающих принять участие привел бы лишь к жесткому конкурсу тезисов) -- но, возможно, организаторы боялись оказаться в финансовом пролете в случае, если бы число участников оказалось ниже планировавшегося.


Нейроинтерфейсы dan repost
Постерная когнитивная конференция ("Когнитивная наука в Москве: новые исследования")

Впечатления о конференции 2023 года

• Сайт: https://conf.virtualcoglab.org/2023/2023program.html

• Раз в два года, следующая в 2025 году (?)

Конференция действительно исключительно постерная (не считая небольших саттелитных ивентов) и действительно проходит в Москве, но исследования на ней представляют отнюдь не только москвичи. На ней регулярно представляются работы по очень широкому спектру научных направлений, так или иначе касающихся когнитивной тематики, от лингвистики до интерфейсов мозг-компьютер. Конференция возникла на базе хорошо известного в свое время в среде специалистов Московского семинара по когнитивной науке.

Плюсы

- Устойчиво высокий научный уровень. Сюда почти не попадают псевдоученые, фрики, давно отошедшие от реальных исследований нучные начальники и прочие подобные деятели. Это происходит и благодаря серьезному отбору, и просто потому, что представители этих категорий участников конференций предпочитают вещать с трибун, а не стоять с постером и выслушивать критику от специалистов.

- Демократичность (свои постеры тут на совершенно равных условиях представляют и студенты, и известные ученые) и неформальная атмосфера, очень способствующая профессиональному общению.

- Даты проведения специально подбирается с расчетом, чтобы студентам выпускных курсов было удобно представить на конференции свои исследования.

- Пока что обходится без серьезных нарушений постерного формата, хотя и появилась уже традиция добавлять менее демократичные мероприятия (в последний раз это был круглый стол на закрытии -- впрочем, вроде бы вполне содержательный и вызвавший вполне живой интерес аудитории).

Минусы

- На конференции все-таки преобладают москвичи -- возможно, кого-то отпугивает название ("в Москве"), кому-то, может быть, сложно (или кажется сложным) оформить командировку в Москву на "всего лишь" постерную конференцию. Впрочем, кажется, немосквичей становится все больше.

- В 2023 году было, кажется, меньше ярких исследований, чем на первых конференциях этой серии. Возможно, это отражает общую ситуацию в когнитивных науках в стране.

Видео:

• Первая конференция -- 2011 год
https://youtu.be/Ql0HwGDg-3w

• Круглый стол «Несомненные достижения когнитивной науки в XXI веке» на конференции 2023 года https://t.me/bci_ru/2001


Нейроинтерфейсы dan repost
В последние годы ездить на международные конференции стало сложно, и приходится частично компенсировать недостаток научного общения путем участия во внутрироссийских научных конференциях. У меня накопились впечатления о нескольких таких конференциях за 2023-2024 годы, которые я хотел опубликовать в канале, но постоянно не хватало времени их дописать. Однако сейчас я посмотрел на свои записки и понял, что они и так уже стали безбожно длинными, так что пора поставить точку и что-то наконец выложить.

О Съезде физиологов 2023 года (aka XXIV съезд Физиологического общества им. И.П. Павлова) я довольно много писал в канале во время самого съезда и сразу после него (см поиск по слову съезд), поэтому в этой подборке его нет.

О конференции IEEE CSGB (в 2023м проходила в новосибирском Академгородке, в этом году будет на Алтае) я очень скоро напишу, так как в этом году мы с коллегами снова организуем на ней секцию/симпозиум по интерфейсам мозг-компьютер и некоторым близким нейронаучным тематикам.

Среди конференций должен был бы быть ярославский Брунер, которого коллеги очень хвалят, но я уже который год не могу на него попасть, поскольку не успеваю вовремя завершить дела конца года.

Еще я участвовал в некоторых конференциях, которые или не являются регулярно проводимыми, или с большой вероятностью будут проводиться существенно иначе, так что про них я тоже не стал писать.

Остались три.

Сразу скажу, что организация конференций -- это огромный и очень важный труд, и я чрезвычайно признателен организаторам всех конференций, в которых участвовал, за предоставленные ими возможности для общения с коллегами и обмена знаниями и опытом. Среди моих впечатлений есть и негативные, но описанием их я никоим образом не хотел бы "обесценить" работу коллег -- я лишь хотел бы обратить внимание на то, что вполне можно попытаться подправить в будущем. Ну и, разумеется, все это не более чем мои сугубо субъективные впечатления, никак не претендующие на выражение какого-то общего мнения.


То самое устное соглашение OpenAI и EpochAI


Original post link: t.me/data_secrets/5948
Forwarded and filtered by @smartfeed_bot


AI[ex]Time dan repost
Праздники и отпуск прошли, теперь пора и что-нибудь интересное разобрать. Впереди 9 часов в поезде и много отложенных статей — вечер обеспечен 🏃

Начнем с The Lessons of Developing Process Reward Models in Mathematical Reasoning. Исследование от команды Qwen на тему, как делать хорошие PRM (Process Reward Model) в математике, то есть модели, оценивающие промежуточные рассуждения модели. Ребята в последнее время очень часто радуют не только классными моделями, но и качественными статьями.

Для того, чтобы тренировать модель оценивать шаги рассуждений, нам нужна разметка, где каждому такому шаг присвоена некоторая метка. Вариантов тут немного:

- Использовать LLM-as-a-judge (просим другую модель оценить шаг) или ручную разметку.
- Использовать monte-carlo (MC) оценку шага, то есть для оценки шага делаем из него множество продолжений и смотрим, сколько из них завершились успехом. Метку можно определить как a) soft label — доля успешных продолжений или b) hard label — 1, если хотя бы одно продолжение успешно и 0 иначе.

Авторы делают большое кол-во экспериментов, из которых формулируют много интересных тезисов, например:

- MC методы неявно закладывают смысл value функции в оценку шага, то есть оценивают перспективность состояния для будущего решения задачи. Это может накладывать ограничения в умения модели находить неверные шаги.
- MC методы имеют меньший прирост качества от скейлинга данных по сравнению с LLM-as-a-judge и human annotation.
- Большая проблема MC методов заключается в том, что модели склонны решать задачи даже со множеством ошибок в рассуждениях. Это приводит к артефактам во время инференса.

Это только малая часть, в статье намного больше мыслей, подкрепленных обильными экспериментами, рекомендую почитать всем интересующимся реворд моделями.

Далее авторы предлагают алгоритм “консенсуса” между MC методом и LLM-as-a-judge, обученные модели показывают соту на математических бенчмарках и выложены в опенсурс (7B и 72B)


История о том, как молодой репортер ушел с престижной должности в огромной компании в маленький стартап и стал миллиардером

В 2016 году Джек Кларк занимал довольно высокооплачиваемую должность в Bloomberg. Но однажды он внезапно пришел к руководителю и сказал, что уходит в только что образовавшийся стартап. Тот отговаривал парня и убеждал, что это ужасная идея, но Кларк проигнорировал его и ушел.

Тем стартапом был OpenAI. В нем Джек проработал 4 года, а затем ушел и… стал одним из соучредителей Anthropic.

Сейчас его состояние оценивается в несколько миллиардов долларов.


Original post link: t.me/data_secrets_career/934
Forwarded and filtered by @smartfeed_bot


Нейроинтерфейсы dan repost
Экзоскелет научил опытных пианистов играть еще быстрее

For trained individuals such as athletes and musicians, learning often plateaus after extensive training, known as the “ceiling effect.” One bottleneck to overcome it is having no prior physical experience with the skill to be learned. Here, we challenge this issue by exposing expert pianists to fast and complex finger movements that cannot be performed voluntarily, using a hand exoskeleton robot that can move individual fingers quickly and independently. passive exposure to otherwise impossible complex finger movements generated by the exoskeleton robot at a speed faster than the pianists’ fastest one enabled them to play faster.

Furuya S, Oku T, Nishioka H, Hirano M. Surmounting the ceiling effect of motor expertise by novel sensory experience with a hand exoskeleton. Science Robotics. 10(98): eadn3802, 2025 Jan 15 https://doi.org/10.1126/scirobotics.adn3802 (Open Access)


Вышел первый обзор на 4090 c 48gb
Читаем!


Original post link: t.me/lovedeathtransformers/8940
Forwarded and filtered by @smartfeed_bot


Нейроинтерфейсы dan repost
Нейралинк тоже решил заняться генерацией искусственных мозговых данных

Neuralink сообщает об использовании им "мозгового симулятора" (brain simulator) для улучшения качества декодирования мозговых данных. Мол, интерфейсы мозг-компьютер подобны автономным автомобилям, поэтому "высококачественная симуляция моторной коры может ускорить проверку декодеров и дать возможность использовать методы оптимизации вроде обучения с подкреплением".

Я прочитал про это
https://t.me/nn_for_science/2343
Правда, судя по отсутствии заявлений об улучшении декодирования в сравнении с бейзлайном, его (пока?) нет, и в реальном времени удается лишь приблизиться к точности декодера, обученного на реальных данных (видео есть в твитте, причем там упоминается обезьяна Pager, хотя и не говорится, точно ли этот тот самый Пейджер, которого они когда-то показывали на известном видео, где он явно занимался читтерством). Собственно, они сами говорят, что находятся "in the early stages of generative brain modeling".

Обучение декодеров/классификаторов на синтетических данных -- тема, очень давно обсуждаемая в ИМК-сообществе, поскольку реальных данных всегда катастрофически не хватает. В нашей научной группе тоже кое-что в этом направлении делается (генерация ЭЭГ диффузионными моделями). Но пока что по-настоящему работающих решений никем предложено не было.


Data Secrets dan repost
o3 – не единственная новость от OpenAI на сегодня. Technology Review сообщает, что компания работает над секретом долголетия

Оказывается, последнее время OpenAI плотно работали со стартапом Retro, в который, кстати, уже несколтко лет основательно инвестирует Альтман. Главная цель Retro – повысить общую продолжительность жизни человека на 10 лет.

TR сообщают, что за год сотрудничества OpenAI с Retro уже разработали модель GPT-4b micro. Ее обучили предлагать способы реинжиниринга факторов белка для повышения эффективности их функций. Уже даже есть первые результаты: в статье написано, что с помощью модели ученым удалось изменить два фактора Яманаки так, что они стали более чем в 50 раз эффективнее.

Сама модель пока недоступна, и еще находится на уровне внутренних демо и тестирования в Retro. Технических деталей тоже немного. Известно только, что GPT-4b micro, также, как и AlphaFold, обучалась на последовательностях белков, но архитектура у нее другая.

Статья: www.technologyreview.com/2025/01/17/1110086/openai-has-created-an-ai-model-for-longevity-science/

20 ta oxirgi post ko‘rsatilgan.