Posts filter


Forward from: Khristina's neurons


Forward from: Khristina's neurons
Почему так? Оказывается (https://pubmed.ncbi.nlm.nih.gov/19377888/), на поджелудочной железе есть рецепторы мелатонина. Соответственно, когда мелатонин повышается, он подавляет поджелудочную железу и выработку инсулина, что в свою очередь и продлевает глюкозный пик. Приблизительный график уровня мелатонина вы, наверное, и так можете угадать:


Forward from: Khristina's neurons
Получается, что регулярно есть плотно на ночь — не самая лучшая стратегия в плане контроля уровня глюкозы на долгосроке.

А что вообще происходит?

Судя по всему, чувствительность к глюкозе у нас меняется в течение дня (для меня это новость). Вот тут (https://onlinelibrary.wiley.com/doi/10.1111/jdi.13810) проводили глюкозотолерантный тест утром и вечером, померили глюкозу и инсулин в крови. Увидели, что спайк глюкозы в крови в ответ на сахар продолжается дольше вечером, чем утром. Инсулин вечером “разгоняется” дольше и пикирует выше:


Forward from: Khristina's neurons
Нарушаем? (читать в notion)

Знаете эту тему, что на ночь есть “нельзя, потому что еда в животе гниет”?

Или вот другую тему, что надо обязательно завтракать?

Как человеку с минимальным уровнем жизнеспособности по утрам, который соответственно не всегда завтракает и иногда ужинает на ночь, мне стало интересно, есть ли реальные аргументы за и против?

Warning: в тексте используется слово “кушать” в нарушение литературных стилистических норм, рекомендуется убрать детей от экранов.

Давиться завтраком или нет?

Судя по всему, страшилка про “надо завтракать” выросла из кучи обсервационных наблюдений. В среднем, люди, которые не завтракают, толще и больше подвержены риску сердечно-сосудистых заболеваний (много ссылок тут https://www.mdpi.com/2072-6643/13/10/3331).

Однако, рандомизированные исследования, которые заставляли людей есть утром, не показали никаких позитивных изменений ни в весе, ни в анализах. (https://onlinelibrary.wiley.com/doi/full/10.1002/oby.22791,https://www.bmj.com/content/364/bmj.l42).

Более того, люди начинают есть больше, чем ели до этого, и набирать вес (https://pubmed.ncbi.nlm.nih.gov/28063876/)

Проблема рандомизированных исследований — как обычно, они слишком короткие (до 2 месяцев мониторинга), проблема обсервационных — причин лишнего веса и прочих проблем у незавтракающих может быть дофига других (стрессовая жизнь, фастфуд и прочее). Короче, ответа нет, если просто смотреть на эти исследования.

Далее, что по позднему ужину?

Тут все как вы, наверное, и ожидали: обсервационные исследования говорят, что кушать с 23 до 1 ночи коррелирует с повышенным шансом умереть пораньше, особенно если плотно. (https://www.nature.com/articles/s41387-024-00266-6)

Также люди, которые поздно ужинают, в среднем больше склонны к толстоте и метаболическим проблемам типа инсулинорезистентности.(https://www.sciencedirect.com/science/article/pii/S0002916522005688?via%3Dihub)

Рандомизированные исследования на тему позднего ужина оказались еще короче, чем на тему завтрака (длительность — 1-несколько дней), но с более любопытным результатом. Вот тут, например, (https://academic.oup.com/jcem/article/105/8/2789/5855227) описывается эксперимент, где участники завтракали и обедали одинаково в одно время, а потом было два варианта развития событий:

1. ранний плотный ужин (18.00) и легкий перекус (22.00), потом спать (23.00-07.00)
2. легкий перекус (18.00) и поздний плотный ужин (22.00), потом спать (23.00-07.00)

[Графики слева показывают средние значения глюкозы и инсулина в абсолютном времени. Графики справа совмещают по горизонтали что происходило относительно после плотного ужина, раннего и позднего]

Оказалось, что поздний ужин (красная линия) сильнее и дольше триггерит глюкозу чем такой же ужин, если бы он был съеден ранее (синяя линяя). Инсулин тоже возвращается в норму медленнее.


Forward from: gonzo-обзоры ML статей
Извините, не могу удержаться.




Forward from: partially unsupervised
Почти в каждом deep learning-based продукте, над которым я работал, на каком-то этапе где-то сбоку появляется небольшая линейная модель, обучаемая отдельно, иногда даже на классических фичах. Она, конечно, не может решать основную сложную задачу, но внезапно сильно помогает с каким-нибудь корнеркейсом. Например:
- определять резкую смену контекста (и необходимость сбросить стейт),
- детектить потенциальные ошибки или аномалии,
- слегка уточнять результаты сложного пайплайна,
- роутить инпут между компонентами,
- заполнять недостающий параметр, если в API вдруг не приходит какое-то поле, а менять что-то на клиенте слишком дорого,
- подсвечивать потенциальные проблемы человекам in the loop.

Этой модели никогда нет в изначальном дизайне: если проблема была заметна изначально, она бы зачастую решалась элегантнее - например, добавлением дополнительной головы в основную модель. Она появляется, когда все вроде почти работает, и не хватает совсем чуть-чуть.

Вот сейчас у меня есть матрица расстояний в чем-то вроде матчинга, и нужно оценивать уверенность матча, потому что иногда лучше ответить ничего, чем неправильно. Сначала берешь собственно дистанцию, потом хочется добавить еще пару эвристик типа расстояние до second best кандидата, их нужно как-то взвешивать... Так что не надо брезговать классикой, и умение выжать лишний процент из линейной модели все еще полезно.


Красивая навигация по статьям #NeuroIPS 2024, но переход к статьям, увы, у меня не работает


Одним нашим слонярой в Гугле стало больше!

Для несведущих: Михаил Галкин - гуру машинного обучения на графах и соавтор курса по графам знаний и машинному обучению на них.


Forward from: epsilon correct
Без громких анонсов 🚨 команда Google Scholar пару дней назад выпустила расширение, которое существенно упрощает чтение статей, не отвлекаясь на поиск референсов. Я на нём сижу уже пару месяцев, очень удобно, что такое доступно в хроме, без отдельного громоздкого приложения. Скачать можно тут. 👍


Forward from: Метаверсошная
Video is unavailable for watching
Show in Telegram
Умные очки с дисплеем есть не только у Цукера.

Вот например, девушка получила Hearview Glasses - очки, которые улавливают звук, распознают речь и выводят субтитры.

Основная аудитория - люди, у которых проблемы со слухом.
Цена $1300, вес 52 гр, 7 часов без подзарядки, точность распознавания текста 95%.

Субтитры выводятся на правую линзу, распознавание и перевод могут быть на несколько языков, в том числе на русский.


Forward from: Samvel K
Если на вашем митапе нет мокрой лабы на фоне с лаборантом, на экране не гнётся вундервафля, то даже не начинайте нас звать... @ambisinistra @logicview @samvelkoch in the place 😂


Ну я


Forward from: Love. Death. Transformers.
Раньше чтобы тебя не детектили системы как человека надо было носить одежду как справа. Теперь достаточно одежды как слева.

Я напомню что среди DSов есть секта:

ОБУЧЕНИЕ ВСЕ, вам достаточно сделать import openai и все. И почему они все ведут какие то курсы... На работу их не берут что ли...


Forward from: Boi diaries
Штош, пока ближний восток уверенными скольжениями ракет по хумусу влетает в третью мировую, макрорынок наполняется надеждами, а OpenAI влетает в военку поступью гиганта на кремниевых ногах - Китай клонировал обезьянку!

Пишут, что:
1) Клонировать приматов оказалось намного сложнее - и ученым пришлось модифицировать процедуру с Долли, а точнее - somatic cell nuclear transfer (SCNT) (по ссылке классный обзор прогресса в клонировании)
2) В предыдущей попытке 1/35 макак родилась живой, но умерла через день 🥺
3) Основной проблемой были кривые клетки плаценты, предшественники которых - трофобласты - заменили на здоровые, что значительно повысило успешность процесса, и привело к рождению Ретро 🥰
4) До этого, в 1999 году, макака Тетра была создана технологией деления эмбриона (embryo splitting) - но подобная технология позволяет создавать до 4 клонов за раз, в идеале ➟ маловато будет для тестирования!


Forward from: DataGym Channel [Power of data]
Коллеги запускают онлайн-интенсив по компьютерному зрению от ШАДа и Яндекс
Поработаем с диффузионными моделями и узнаем про начинку YandexArt

Регистрация до 24 ноября
Отбор с 6 до 29 ноября

https://shad.yandex.ru/cvweek


Forward from: Liza Loves Biology
И снова в эфире рубрика, посвященная обложкам журналов, которые вызывают эстетическое наслаждение. Это обложка последнего выпуска Science Signaling, а изображено на ней, как нетрудно догадаться, сердце. Обложка посвящена исследованию, в рамках которого было показано, что фермент биосинтеза пуринов Adssl1 способствует регенерации сердечной мышцы.


Forward from: вычислить по IP
В деле Илон против ящеров OpenAI появилась переписка между Сэмом Альтманом и Илоном Маском.

Сэм в 2015 загорелся идеей создать «Манхэттенский проект для для ИИ».

Иронично, что для объединения усилий с целью развития технологий Альтман выбирает название секретного проекта по разработке ядерного оружия.

Пишите корпоративные письма так, как будто их зачитают в суде ваши злейшие враги.


Forward from: Adjacent Possible
Ян ЛеКун отжег в недавней лекции:

Некоторые люди называют интеллект человеческого уровня AGI (artificial general intelligence), но мне не нравится этот термин. Не то, чтобы машины не могли достичь человеческого уровня интеллекта — просто человеческий интеллект не является общим. Мы вообще довольно специализированные животные. Просто нам трудно осознать свою специализацию, так как мы можем вообразить себе только подмножество из всех возможных интеллектуальных задач.

Существуют задачи, которые мы не способны представить себе даже в самых смелых мечтах. Поэтому нам кажется, что мы обладаем общим интеллектом, хотя это не так.


Forward from: уровни абстракции
потрясающий текст про закат компании ABBYY как наименьшее из последствий краха всей компьютерной лингвистики под натиском статистических моделей языка. Пластмассовый мир chatGPT победил все попытки построить детерминированные онтологии, а способ решения любой проблемы "завалить вычислительными мощностями", оказался более надежным и масштабируемым, чем любая попытка разобраться что же происходит внутри системы (и язык здесь только один из примеров)

по ссылке обзор развития компьютерной лингвистики от ранних моделей до трансформеров, которые появились как способ улучшить качество гугл-переводчика, расцвет ABBYY как одной из самых успешных российских ИТ-компаний, почти академическая культура физтехов внутри, «горький урок» больших данных и сгоревшие сотни миллионов долларов на амбициозную попытку построить дерево онтологий всех языков сразу (ABBYY compreno).

про мегапроект ABBYY compreno я когда-то очень давно случайно увидел статью и будучи студентом физиком, конечно, был очарован масштабом. это же такая мечта технаря в вакууме: давайте мы все тексты сведем к логическим инвариантам, соединим их стрелочками и построим граф всего языка. то есть к сущностям типа собака / стол / книга, которые не теряют своей сути при переезде между странами. тогда для перевода между языками можно будет делать преобразование в этот мета-язык и из него в еще один шаг переводить тексты в любой другой. впечатлился, посмотрел на страшные диаграммы простых предложений (скину их в комменты, зацените) и забыл об этом на долгие годы. но конечно и представить не мог, сколько копий было поломано и сколько ресурсов потрачено (получается, что впустую).

а самое забавное, что современные большие языковые модели примерно так и работают — все тексты переводят в свой мета-язык и обратно, только этот язык
1) математический (операции над текстом превращаются в операции над векторами в многомерных пространствах, писал об этом)
2) не интерпретируемый, то есть не сводимый к человеческим интуициями

рекомендую вспоминать об этом каждый раз, когда вы слышите тезис "оно не мыслит как человек, следовательно оно глупое". про подсчет букв в предложениях, математические навыки ЛЛМ или заковыристые логические задачки. самолеты тоже не летают как птицы, и ничего.

очень рекомендую прочитать целиком: https://sysblok.ru/blog/gorkij-urok-abbyy-kak-lingvisty-proigrali-poslednjuju-bitvu-za-nlp/

20 last posts shown.