AI feed


Гео и язык канала: не указан, Русский
Категория: Технологии


AI ideas pool

Связанные каналы

Гео и язык канала
не указан, Русский
Категория
Технологии
Статистика
Фильтр публикаций


Here are my slides from today's talk at Datafest Yerevan.

The talk was about non-transformer architectures, e.g., good old MLPs, CNNs, RNNs, and brand-new SSMs. It may be too dense with too many model names, but I think it may be useful as a reference for further exploration.

https://docs.google.com/presentation/d/19jpt6sSScUb1yKnlO3a47SsMRIL7UmqQZKkuADyI7nM/edit#slide=id.g2f6fb83b821_0_15


Original post link: t.me/gonzo_ML/2919
Forwarded and filtered by @smartfeed_bot


This is a daily stats digest!
Today the bot processed: 12 messages
Today you received: 1 messages
Our filtering prevented you from: 11 messages

Top 3 source channels:
Data Secrets: 5 message(s)
Machinelearning: 4 message(s)
Математика Дата саентиста: 2 message(s)


React to posts with 👍, 👎, ❤️, or 🔥. Spot spam? Mark it with 🤬 or 💩. Your input is valuable!
Text t.me/OlegBEZb if you want to see something else in the daily report


Репост из: Machinelearning
Новостной дайджест

✔️ Groq запустила LLaVA v1.5 7B, мультимодальную модель, которая работает в 4 раза быстрее, чем GPT-4o от OpenAI.

LLaVA v1.5 7B может отвечать на вопросы по изображениям, генерировать подписи и вступать в диалог с использованием текста, голоса и картинок.
Это первый опыт Groq с мультимодальными моделями, и более высокая скорость инференса в задачах с изображениями, аудио и текста может привести к созданию более совершенных ассистентов ИИ.
Groq предлагает эту модель бесплатно в режиме "Preview Mode" для разработчиков.
groq.com

✔️ Deep Seek-V2.5: open-source модель, сочетающая функции чата и понимание кода.

DeepSeek выпустила DeepSeek-V2.5, мердж своих моделей DeepSeek-V2-Chat и DeepSeek-Coder-V2.
DeepSeek-V2.5 унаследовала способности от оригинальных моделей к общению и работе с кодом и улучшила производительность в задачах написания текстов и следования инструкциям за счет более точного следования предпочтениям человека.

Модель показала высокие результаты в нескольких бенчмарках, особенно в тестах на китайском и английском языках.

в DeepSeek-V2.5 были сделаны улучшения в области безопасности и генерации кода: уменьшено влияние политик безопасности на обычные вопросы и на 5,1 % улучшен результат в заданиях на завершение кода.
Модель доступна онлайн и на HuggingFace.
platform.deepseek.com

✔️ vLLM v0.6.0: 2,7-кратное повышение пропускной способности и 5-кратное сокращение задержки.

vLLM выпустила новую версию v0.6.0, которая значительно быстрее и эффективней по сравнению с предыдущей версией.
Это достигнуто благодаря серии оптимизаций: разделение API-сервера и движка инференса, пакетная планировка нескольких потоков вывода одновременно и асинхронная обработка инференса.
blog.vllm.ai

✔️ Релиз фреймворка SGLang v0.3: 7-кратное ускорение DeepSeek MLA, 1,5-кратное ускорение torch.compile, поддержка LLaVA-OneVision.

SGLang - это фреймворк для LLM и VLM. Он делает взаимодействие с моделями быстрым и контролируемым за счет совместной разработки бэкэндной среды и фронтэнда.

В версии SGLang v0.3 получил поддержку оптимизаций для MLA: поглощение весов, групповые ядра декодирования, FP8 batched MatMul и FP8 KV cache quantization.

Вторым важным обновлением является интеграция torch.compile для линейных/нормальных/активационных слоев и объединение его FlashInfer attention и sampling kernels.
Torch.compile включен для размеров пакетов от 1 до 32 и поддерживает непрерывную пакетную обработку, а так же RadixAttention для кэширования префиксов.
lmsys.org

✔️ Chatbot Arena, на которую опирается AI-сообщество, не самый лучший бенчмарк.

Бенчмарк, созданный LMSYS, стал популярным инструментом для сравнения производительности различных моделей ИИ, но его методология вызывает вопросы о репрезентативности и объективности результатов.

Основная проблема Chatbot Arena заключается в том, что он полагается на субъективные оценки пользователей, которые могут предпочитать определенный стиль ответов или не замечать галлюцинации модели.

LMSYS пытается смягчить эти предубеждения, используя автоматизированные системы оценки, такие как MT-Bench and Arena-Hard-Auto, которые используют модели OpenAI GPT-4 и GPT-4 Turbo для ранжирования качества ответов. Однако, эффективность этих систем в полной мере не доказана.

Растущие коммерческие связи LMSYS и спонсорство от венчурных фирм, инвестирующих в некоторые из тестируемых моделей, также вызывают вопросы о беспристрастности платформы.
techcrunch.com

@ai_machinelearning_big_data

#news #ai #ml


This is a daily stats digest!
Today the bot processed: 21 messages
Today you received: 8 messages
Our filtering prevented you from: 13 messages

Top 3 source channels:
Data Secrets: 7 message(s)
Machinelearning: 5 message(s)
Love. Death. Transformers.: 2 message(s)


React to posts with 👍, 👎, ❤️, or 🔥. Spot spam? Mark it with 🤬 or 💩. Your input is valuable!
Text t.me/OlegBEZb if you want to see something else in the daily report


⬇️⬇️⬇️ Тема довольно значима вообще для всяких интерфейсов: удобный для производителей подход “one-size-fits-all” легко может создавать проблемы для части пользователей.

Но что касается конкретно влияния размеров клавиатуры фортепиано, то тут, строго говоря, пока что не хватает методически корректных исследований — к такому выводу несколько лет назад пришли авторы вот этого систематического обзора:

Ju-Yang Chi, Mark Halaki, Bronwen J. Ackermann. Ergonomics in violin and piano playing: A systematic review. Applied Ergonomics, 2020, 88: 103143 https://doi.org/10.1016/j.apergo.2020.103143 (препринт тут)


Original post link: t.me/bci_ru/3586
Forwarded and filtered by @smartfeed_bot


Тем временем в OpenAI обсуждают подписку на ChatGPT за $2000, чтобы выйти из дефицита бюджета

Напоминаем, что сейчас они в потенциальной яме размером в 5 миллиардов долларов. В компании не уверены, сколько пользователи готовы платить за подписку, но думают, что 2к бачей – в целом справедливая цена за предстоящие Strawberry и Orion.

"Мы за общедоступный AI!" – говорили они...


Original post link: t.me/data_secrets/4874
Forwarded and filtered by @smartfeed_bot


Репост из: LLM под капотом
Только что закончилась интересная презентация - AI Platform #aicase

Презентовали клиенту, который просил детективную историю (там поста три со всей историей). Пока перекапывали данные в поисках истины, я накрутил несколько ассистентов и интеграций, чтобы самим работать было удобно.

Интеграции были простые:

BI Assistant, который умеет отвечать на бизнес-вопросы по “упоротой” базе данных клиента (этой базе и всему софту - больше 20 лет, там 3 поколения разработчиков наслоили legacy на разных языках). Ассистент использует информацию о особенностях хранения данных, построения запросов и особенностей бизнеса. Я все это разузнал один раз, структурировал и забыл как страшный сон. Он строит отчеты и графики по мере необходимости. Причем в презентации я прямо сделал слайды "вопрос - график". А потом сказал, что эту часть мне написал Assistant.

Интеграция с государственными реестрами, которая вытягивает информацию о юридических лицах в стране, плюс любые изменения статусов. Благодаря первому ассистенту мы точно знаем какие коды (эквиваленты ОКВЭД) нам нужно выкачивать в первую очередь.

Поисковый lead generation ассистент, который пытается найти информацию про эти компании в интернете следуя простому Workflow. Ибо контактные данные в базе - это обычно данные бухгалтеров, а продавать нам надо другим людям.

Все это использовалось в детективном расследовании для разнообразной валидации. Не пропадать же добру?

Cегодня только что была презентация директорату со словами:
(1) вот что мы раскопали по вашим запросам
(2) вот что мы для соорудили для себя, и вот как оно работает
(3) а вот как это можно собрать в одну в AI платформу и внедрить у вас. Она может держать вашу CRM актуальной (даже AI ассистент сходу сказал, что там 6% контактов пора удалять), приводить новых лидов и помогать связываться с ними в важные для них моменты жизни.

Реакция директората: “Берем, все как вы сказали. Начните раскатывать это в друх странах, но имейте в виду, что это потом надо будет интегрировать на глобальном уровне. И позванивайте нам c апдейтами раз в месяц, хорошо?”

А что там под капотом у платформы? Какой агент, langchain или RAG? Ничего из этого не надо:

- Линейный Wokflow у Lead Generation с Checklist паттерном и интеграцией c Search API. Просто вызов OpenAI. Все как в кейсе про исправление ошибок в продуктах.
- Один структурированный промпт для BI Assistant. Я дистиллировал все информацию в формат, понятный для LLM. В процессе пришлось просто сделать схему читаемой и комментируемой (да и тем занималась LLM).
- Куча скучного кода без капли LLM для интеграции всего этого.

Как видите, все - очень просто. А на выходе - интегрированная платформа, которая решает набор задач клиента парой простых промптов. Люблю такие истории.

Ваш, @llm_under_hood 🤗


Репост из: Data Secrets
Итак, завозим наше краткое содержание сегодняшего интервью Андрея Карпаты. Было много интересного:

⚪️ "10 лет назад я впервые покатался на беспилотной машине в рамках демо, и подумал, что это была идеальная поездка. Однако нам все равно пришлось потратить 10 лет, чтобы перейти от демо к продукту, за который люди платят. Сейчас мы достигли некоторого подобия AGI в сфере self-driving, но пройдет еще очень много времени, пока все это будет глобализовано. То же самое ждет и языковые модели."

⚪️ Tesla круче других компаний, которые занимаются self-driving, хотя сейчас это и не заметно. "Я верю в Tesla, эта компания идет по правильной траектории, фокусируясь на AI. Это не просто self-driving компания, это крупейшая робототехническая компания с огромный потенциалом к расширению, и их подход к работе выведет Tesla на первое место уже в ближайшие годы."

⚪️ Трансформер - не просто очередной метод, но подход, который полностью изменил наш взгляд на ИИ, и на данный момент это единственная по-настоящему масштабируемая архитектура. Нам очень повезло, что мы наткнулись именно на трансформер в огромном пространстве алгоритмов. "Я верю, что трансформер лучше человеческого мозга во многих отношениях, просто эта модель еще не готова проявить себя сполна".

⚪️ Раньше бутылочным горлышком в ИИ была архитуктура. Теперь компании практически о ней не думают: за последние 5 лет классический трансформер изменился не так уж сильно. Акцент в наши дни перемещается на данные.

⚪️ Данные из Интернета, на самом деле, – далеко не самые лучшие данные для обучения модели. Это просто "ближайший сосед" идеальных данных. То, что мы действительно хотим от модели, – это умение рассуждать. А страницы из Интернета не могут ее сполна этому научить.

⚪️ Будущие за синтетическими данными, однако главная проблема синтетики – это энтропия и разнообразие. Его недостаточно, и это действительно препятствие. Тем не менее, текущие модели должны помогать нам создавать следующие, при этом "итоговые" модели могут оказаться на удивление крошечными (Андрей уже говорил об этом, подробнее мы писали тут).

⚪️ Андрей говорит, что ушел в образование, потому что не заинтересован в том, чтобы "заменить" людей, а нацелен на то, чтобы сделать их умнее и вдохновленнее. "Я хочу, чтобы люди были ЗА автоматизацию и мечтаю проверить, на что будет способно человечество, когда у каждого будет идеальный репетитор в лице ИИ".

⚪️ ИИ пока не способен создать курс, но идеально подходит для того, чтобы интерпретировать и подстраивать созданные людьми материалы для каждого студента в отдельности. "Я думаю, образование должно стать для людей скорее развлечением, чем трудом."


Репост из: Data Secrets
Красота: новая обложка журнала Time, посвященная ИИ-инфлюенсерам

Тройка лидеров:

1. Сундар Пичаи – CEO Google
2. Сатья Наделла – CEO Microsoft
3. Саша Луччони – AI & Climate Lead Hugging Face


А Сэм Альтман оказался на 4 месте. Обидно, наверное 😞

Кого еще узнали с обложки?


Репост из: Machinelearning
Это потрясающе! Новая 🤯 Llama 3 Reflection 70 превосходит, AnthropicAI
Claude 3.5 Sonnet и GPT-4o.


Reflection Tuning LLM обучена на синтетических структурированных данных, чтобы научиться рассуждать и самокорректироваться. 👀

1️⃣ Алгоритм начинает с вывода своих рассуждений в тегах .
2️⃣ Если модель обнаруживает ошибку в своих рассуждениях, она использует теги в разделе , чтобы сигнализировать об этом и попытаться исправить себя.
3️⃣ Удовлетворившись своими рассуждениями, модель предоставляет окончательный ответ в тегах .

Результаты модели:
🏆 89,9% MMLU, 79,7% MATH, 90,1% IFEval > Sonnet 3.5, GPT-4o
🥇 Лучший в мире открытый LLM (на момент выпуска)
🦙 Обучен на базе Llama 3.1 70B Instruct с новыми специальными токенами для , ,
🚀 405B модель в разработке, ожидается, что это будет лучшая из существующих моделей

🤗 Доступна на HF

📚 Набор данных и отчет об обучении будут готовы на следующей неделе.

Модель: https://huggingface.co/mattshumer/Reflection-Llama-3.1-70B

@ai_machinelearning_big_data

#llama #opensource #llm


Репост из: Machinelearning
Новостной дайджест

✔️ Anthropic запускает тарифный план Claude Enterprise для корпоративных клиентов.

Anthropic предлагает новый план подписки для Claude, ориентированный на корпоративных клиентов, предлагая административный контроль и повышенную безопасность.

Claude Enterprise поможет проанализировать информацию, ответить на вопросы о ней, создать графики и простые веб-страницы или действовать как корпоративный AI-ассистент. План также включает в себя функции Projects и Artifacts, где реализована функция совместной работы с контентом.

План Claude Enterprise отличается от существующих решений на рынке. Например, контекстное окно в Claude Enterprise - 500 000 токенов. ChatGPT Enterprise и подписка Claude Team предлагают контекстные окна размером меньше половины, чем Claude Enterprise.
techcrunch.com

✔️ Dell и Red Hat объявили о сотрудничестве и поддержке бекэнда для open-source AI.

Основная цель сотрудничества - предоставить пользователям более простой и безопасный способ разработки, тестирования и развертывания языковых и генеративных моделей.

RHEL AI объединяет лицензированные LLM Granite от IBM Research, инструменты выравнивания моделей, основанные на методологии LAB (Large-scale Alignment for chatBots), и подход к разработке моделей в рамках проекта InstructLab.

Решение RHEL AI реализовано в виде загрузочного образа Red Hat Enterprise Linux (RHEL) для развертывания на отдельных серверах в гибридном облаке и включено в состав Red Hat OpenShift AI, гибридной облачной платформы для MLOps. RHEL AI на серверах Dell PowerEdge будет доступен в третьем квартале 2024 года.
devopsdigest.com

✔️ Microsoft объявила о выпуске Copilot+ на ПК в ноябре 2024 г.

Пользователи смогут получить доступ к функциям Copilot+: Live Captions, Windows Studio Effects и Cocreator в Paint.

Новые функции Copilot+ будут доступны через бесплатные обновления Windows на ПК с процессорами AMD (включая новые Ryzen AI 300), Intel (включая новые Core Ultra 200V), Qualcomm Snapdragon X Elite и X Plus, разработанных экосистемными партнерами Microsoft - Acer, ASUS, Dell, HP, Lenovo, Samsung.
blogs.windows.com

✔️ Биогибридные роботы, управляемые электрофизиологическими импульсами мицелия грибов.

Исследователи из Корнеллского университета создали экспериментальных биогибридных роботов, которые могут потенциально реагировать на окружающую среду лучше, чем их полностью синтетические аналоги.

Команда использовала грибные мицелии, которые имеют способность чувствовать химические и биологические сигналы и реагировать на множество входных данных. Они разработали систему, которая может записывать и обрабатывать электрофизиологическую активность мицелия в режиме реального времени и преобразовывать ее в цифровой сигнал управления, передаваемый на исполнительные узлы робота.

Были построены 2 робота : мягкий робот в форме паука и колесный робот. Роботы выполнили три эксперимента, в которых они реагировали на естественные сигналы мицелия и на внешние стимулы (ультрафиолетовый свет).

В университете надеются, что их разработка может привести к созданию роботов, которые могут взаимодействовать с окружающей средой более естественным образом.
news.cornell.edu

✔️ Проект EnsLoss: Стохастические калиброванные ансамбли потерь для предотвращения переоценки при классификации.

EnsLoss, новый метод объединения потерь, который расширяет концепцию коллективного обучения и позволяет объединять потери в рамках эмпирической минимизации риска (ERM). В отличие от существующих методов объединения, EnsLoss сохраняет "легитимность" объединенных потерь, т.е. обеспечивает свойства сonvexity and calibration (CC).

В репозитории описан набор экспериментов, которые демонстрируют эффективность предлагаемого метода по сравнению с существующими методами, основанными на фиксированной функции потерь, а также оценивают его совместимость с другими методами регуляризации.
github.com

@ai_machinelearning_big_data

#news #ai #ml


Репост из: AI Для Всех
Видео недоступно для предпросмотра
Смотреть в Telegram
AlphaProteo: ИИ, который подбирает «ключи» для биологических замков

Среди авторов канала есть drug delivery & drug discovery scientist, поэтому сегодня разговор об этой сфере.

Одна из гиганских проблем разработки лекарств - побочные эффекты из-за неспецифических взаимодействий лекарства со всем подряд в нашем организме. Ее можно решить, например, инкапсулировав лекарство в наночастицу, которая распакуется, когда попадет внутрь целевой клетки из-за изменения pH. Тут возникает проблема доставки уже наночастицы в целевые клетки.

Для наглядности представьте, что вам нужно доставить посылку, только она магнитная: на нее всякое налипает, и она ко всему прилипает.
Ваша задача — создать такую посылку, чтобы она сильнее всего "прилипла" ровно к нужным дверям.
Для этого наночастицу "украшают" хитрым лигандами, которые взаимодействуют только с рецепторами, присутвующими в целевой клетке. И лиганды, и рецепторы - это белки. Мне нравится думать о них как о ключах и дверях.

Анонсированная 5 сентября модель AlphaProteo от DeepMind выглядит для такой задачи очень и очень полезной. Она не просто ищет существующие ключи, но и генерирует новые, позволяя ученым разрабатывать биоструктуры с полезными функциями.

Да, функциями. Это ещё один слой проблем и возможностей drug discovery. Функция белка ведь зависит от структуры, если мы прикрепили что-то к белку, его функция может измениться. В биологии на каждом шагу нежданчик, и DeepMind очень старается помочь предсказывать возможные варианты.

В качестве теста AlphaProteo сгенерил лиганды для двух целевых вирусных белков (BHRF1 и SC2RBD домен связывания рецептора спайкового белка SARS-CoV-2), и для пяти белков, участвующих в развитии рака, воспаления и аутоиммунных заболеваний (IL-7Rɑ, PD-L1, TrkA, IL-17A и VEGF-A).
А потом проверили в настоящей лаборатории.

Под капотом все те же сверхточные нейронные сети (CNN) и трансформеры, которые обрабатывают последовательности аминокислот и предсказывают их 3D-структуру с атомарной точностью, а также потенциальные функции.

Тренировочные данные - Protein Data Bank белков с известными структурами и функциями и более 100 млн белков авторства AlfaFold, отполировано обучением с подкреплением (reinforcement learning) и методами оптимизации энергетических ландшафтов.

Поиграться пока нельзя, возможно, добавят функционал в 🧬alphafold server
Пока только 📝пост
И 📖whitepaper


This is a daily stats digest!
Today the bot processed: 26 messages
Today you received: 4 messages
Our filtering prevented you from: 22 messages

Top 3 source channels:
Data Secrets: 11 message(s)
Machinelearning: 10 message(s)
gonzo-обзоры ML статей: 1 message(s)


React to posts with 👍, 👎, ❤️, or 🔥. Spot spam? Mark it with 🤬 or 💩. Your input is valuable!
Text t.me/OlegBEZb if you want to see something else in the daily report


Репост из: КиберОлег 🦄🤖🙌
Выгрузил 190 тысяч своих сообщений из телеграма!

На картинке топ моих частых слов, исключая уж совсем популярные “я” и пр.

Дальше я хотел их загрузить в какую-то из мобильных клавиатур (кстати, Microsoft SwiftKey неплохая), потому что стандартные меня бесят. 🤯

Но я ничего не нашел такого! Кто знает есть ли те, которые можно кастомизировать по словарям?

Дальнейший шаг потрейнить ллмку и сделать свою клавиатуру. Что посоветуете файнтюнить?

А пока можно попросить ллмку написать в “моем стиле”, все напутано но ок, сойдет как из альтернативной вселенной

____
“Привет! Нужно обсудить наш новый проект. Лёша уже скинул вариант модели, но есть сложности с генерацией. Прям вижу, что некий код в некоторых случаях выдаёт чета странное, возможно, проблема в юзере или сервере. Олег предложил вечером созвониться, чтобы глянуть картинку и решить, что делать дальше. Вика тоже подключится, она уже в курсе задачи.

Норм, если созвон будет через час? Мб обсудим и новые идеи для рекламы? Если нужно, скину текст и ссылки на примеры.

Короче, давай примерно в 7 вечера, окей? Если что, сорри за поздний запрос, просто нужно успеть до конца недели. Визу можно обсудить отдельно, когда все будет готово. Франция и Армения тоже в списке на следующую неделю. Будем надеяться на успех!”

_


ПС Если пост наберет 10 лайков, то выложу код, чтоб вы локально могли на своих проганть (хотя там изи) + трейн ллмки и интеграцию с клавиаутрой 😎

@cyberoleg


Видео недоступно для предпросмотра
Смотреть в Telegram
😖 Google DeepMind только что выпустили еще один крутой биотех инструмент с искусственным интеллектом: AlphaProteo

Это AI для разработки новых белков. Он поможет в разработке лекарств, для лечения рака, аутоиммунных заболеваний, а так же лечения множества других заболеваний 🧬

Ученые предрекают возможность создания нового белкового материала, который будет связываться с белками, участвующими в передаче сигналов между раковыми клетками, нарушая их функцию и вызывая их гибель

Исследователи смогу смоделировать и лучше понять, как функционируют биологические системы, сэкономить время на исследованиях, усовершенствовать разработку лекарств и многое другое. 🧵

Анонс
Статья

@ai_machinelearning_big_data

#deepmind #ai #ml #biology #biotech


Original post link: t.me/ai_machinelearning_big_data/5510
Forwarded and filtered by @smartfeed_bot


Разработчики PyTorch выкатили прикольный гайд про то, как организовать инференс LLM вообще без CUDA-ядер

Они предлагают заменить все ядра CUDA на рукописные Triton ядра в миксе с torch.compile. Это нужно для совместимости с ГПУ от AMD, Intel и др, а не только с Nvidia + для большей гибкости и низкоуровневости.

В статье подробно описывается, как и что нужно сделать, и в итоге показано, что с помощью некоторых дополнительных оптимизаций и танцев с бубном таким способом можно добиться ~80% производительности CUDA.

Получился интересный, но, к слову, достаточно ироничный гайд, учитывая трудности Nvidia на сегодняшний день 😀


Original post link: t.me/data_secrets/4864
Forwarded and filtered by @smartfeed_bot


Репост из: Нецифровая экономика
Не Поповым единым...

В 1901 году в Киеве выпускник университета Семен Айзенштайн провел для почтенной публики демонстрацию беспроволочного радио собственной конструкции. Ее почти присутствием (уважил родителя Семена, купца первой гильдии) генерал-губернатор Сухомлинов и так расчувствовался, что предложил Семену немедленно заняться выпуском таких устройств, полагая, что армии они будут крайне нужны.  Но тот считал, что знаний у него все еще недостаточно, и отправился учиться в Германию.

Вернулся он в 1905-м году, уже в Петербург. К тому времени делами радио занимался институт, открытый специально «под Попова», куда и перетекали все заказы (главными заказчиками, как и пророчествовал Сухомлинов, были военные). Попов умер год спустя, но его ученики были активны и талантливы, а военное ведомство к ним лояльно. Было глупо с ними соревноваться, но Семен решил попробовать.

Первая же задача — соединить беспроволочной связью Киев, Жмеринку и Одессу, была выполнена с блеском и открыла ему путь к госзаказам. Вслед за этим успешным проектом последуют и другие, а уж когда Сухомлинов возглавит военное ведомство, то заказы Айзенштейну и вовсе потекут рекой — военный министр будет считать этого бывшего студента своим личным открытием.

Задачи возросли и для расширения производства надо было искать деньги — и он нашел неожиданного компаньона в лице бывшего ссыльного народовольца Юрия Тищенко. Тот возглавлял рабочие комитеты Баку и одновременно был правой рукой миллионщика Гукасова. Собственные миллионы, сделанные на нефти, Тищенко щедро жертвовал на «дело рабочего класса». Дело это, правда, обернулось пожарами на нефтепромыслах, от которых замахнувшаяся было на мировое лидерство каспийская нефть так никогда и не оправится. Доходы Тищенко снижались, и народоволец вложил заработанное на нефти в компанию Айзенштейна, да еще вовлек в дело своего друга и классового врага Гукасова.

В 1908 году учреждается «Общество беспроволочных телеграфов и телефонов системы С.М. Айзенштейна», которое позже получит от Совмина право именоваться «российским» (РОБТиТ). К тому моменту в стране была уже жесткая конкуренция в области радио — два десятка российских компаний плюс мировые монстры, вроде Маркони и Сименса. Тем не менее устройства оригинальной системы Айзенштейна конкуренцию выигрывали.

У Айзенштейна - нюх на таланты: у него работает Папалекси, будущий академик и отец радиофизики, Львович, который станет главным в продвижении радио в СССР, а также Шейнберг, будущий главный инженер Маркони.

За шесть лет обороты выросли в 25 раз, а когда началась война, возросла и сложность задач: например, удалось построить мощную радиостанцию, которая позволяла держать связь со столицами стран Антанты; была разработана компактная полковая рация, которую можно было перевозить на лошади, начат выпуск первых отечественных радиоламп.

Приходит революция. Айзенштейн, социалист и человек прогрессивных взглядов, ждет от нее свобод: он внешне безропотно переживает национализацию и пробует сотрудничать с новой властью, например, оборудует Шуховскую башню. Однако бесконечные аресты удручают его. Аресты с целью грабежа он еще переносит, но когда его вновь обвиняют в саботаже (за что полагался расстрел) Айзенштейн решает, что с него хватит, и тайно бежит в Лондон, где находит себе работу на фирме старого знакомого Маркони.

РОБТиТ же будет «вписан» в советскую систему и станет зваться НПО «Вектор». Производство электроламп перейдет заводу «Светлана».

Во время второй мировой войны талант Айзенштейна пригодится армиям союзников, к десяткам патентов Российской империи он прибавил еще столько же английских, а после войны акционеры именно ему предлагают возглавить компанию English Electric Valve Company, выпускавшей радары. Созданная им компания, которая называется сейчас e2v оборудовала телескоп Хаббл, её клиенты - Боинг, Аэробус, НАСА, ЕКА.

Умер пионер российской радиосвязи в Лондоне в 1962 году, в 78 лет. В России о нем помнят, говорят и пишут мало - что, собственно, вовсе не означает, что он нашей памяти не достоин.

#техноистории от Саши Иванова


This is a daily stats digest!
Today the bot processed: 38 messages
Today you received: 2 messages
Our filtering prevented you from: 36 messages

Top 3 source channels:
Machinelearning: 10 message(s)
Data Secrets: 8 message(s)
Love. Death. Transformers.: 7 message(s)


React to posts with 👍, 👎, ❤️, or 🔥. Spot spam? Mark it with 🤬 or 💩. Your input is valuable!
Text t.me/OlegBEZb if you want to see something else in the daily report


Репост из: Data Secrets
Просто некоторые цитаты Франсуа Шолле: создателя Keras, ведущего исследователя Google DeepMind и автора книги "Deep Learning with Python"

⚪️ "Исследования в области глубокого обучения — это эволюционный процесс, движимый, на деле, очень плохо понятыми нам случайными эмпирическими результатами."

⚪️ "Математика в статьях по Deep Learning обычно бесполезна и, скорее всего, была помещена в текст исключительно для деловитости."

⚪️ "Ключ к хорошему исследованию – это понимание того, что именно порождает результаты, которые вы получили. Выяснить это не так просто, потому что такой процесс требует глубоких экспериментальных исследований (которые на самом деле проводят или стараются проводить очень немногие)."

Шолее, кстати, – один из учредителей премии ARC Prize, того самого ML-соревнования с призом в $1 млн. Оно нацелено на разработку новых архитектур, которые смогут побороть один из самых сложных существующих ИИ-бенчмарков: ARC AGI.


Репост из: Machinelearning
Новостной дайджест

✔️ Чат-боты больших языковых моделей усиливают ложные воспоминания человека.

Воздействие ИИ на появление ложных воспоминаний человека - актуальное направление исследований, особенно в контексте потенциального применения ИИ в деликатных сферах, таких как полицейская работа. Эксперимент с 200 участниками показал: чат-бот на основе LLM вызывал в 3 раза больше ложных воспоминаний, чем у контрольной группы, которая не общалась с чат-ботами.
36,4% ответов участников, взаимодействовавших с LLM, содержали заблуждения. Через неделю уверенность в этих ложных воспоминаниях все еще оставалась высокой.

Исследование выявило факторы риска: меньший опыт общения с чат-ботами, знакомство с другими технологиями ИИ и интерес к расследованиям преступлений увеличивали вероятность формирования ложных воспоминаний. Результаты показывают необходимость этических политик при внедрении ИИ-технологий в реальных сферах деятельности.
media.mit.edu

✔️ Самообучающийся алгоритм AI делает прогнозы на результаты матчей NFL сезона 2024 года.

Алгоритм использовал исторические данные и текущие тенденции для определения наиболее вероятных исходов каждого матча. В результате он сделал прогнозы формата: "against the spread", "over-under", и "money line" для каждого матча первого тура сезона.

AI использовал математические модели для анализа данных и выявления закономерностей в результатах матчей. Он учитывал различные факторы - состав команд, тренерский опыт и текущие травмы игроков. Прогнозы алгоритма могут быть полезны для болельщиков и любителей спорта, которые хотят получить более точную информацию о результатах матчей.
cbssports.com

✔️ OpenAI планирует создавать собственные чипы на базе готовящегося к выпуску техпроцесса A16 от TSMC.

Создание собственных чипов позволит OpenAI оптимизировать свою архитектуру для работы с моделями AI, что приведет к увеличению производительности и снижению энергопотребления при эксплуатации.

Также, свое производство позволит компании иметь полный контроль над объемами и поставками оборудования и, как следствие, снизить риски в логистике. Планы OpenAI по созданию собственных чипов являются частью более широкой стратегии компании по развитию своих технологий AI.
yahoo.com

✔️ GenAI для редактирования ДНК.

Profluent Bio создали OpenCRISPR-1, улучшенную версию предыдущей системы CRISPR для редактирования генов. OpenCRISPR-1 использует LLM, обученную на более чем миллионе оперонов CRISPR и предназначен в первую очередь для понимания структур и создания новых белковых структур.

OpenCRISPR-1 показал такую же эффективность в декомпозиции ДНК, как и существующие модели, но при этом он допускал меньше ошибок. Разработчики выложили OpenCRISPR-1 в открытый доступ, чтобы способствовать развитию и использованию системы в будущих исследованиях.

OpenCRISPR-1 поможет лечить генетические заболевания наиболее безопасным, быстрым и персонализированным способом. Несмотря на то, что до практического применения еще далеко, подобные инструменты открывают возможности для создания индивидуальных генных редакторов.
crisprmedicinenews.com

✔️ Clearview AI оштрафована голландскими властями за базу данных распознавания лиц.

Голландское агентство по защите данных (Dutch DPA) оштрафовало компанию Clearview AI на 30,5 миллионов евро за создание незаконной базы данных лиц. База данных содержит миллиарды фотографий лиц, включая лица голландских граждан. Clearview AI предлагает услуги по распознаванию лиц и собирает данные из социальных сетей.

По мнению Dutch DPA, использование услуг Clearview AI также является незаконным и может привести к штрафам для организаций.

Компания Clearview AI уже получала штрафы от регулирующих органов Великобритании, Австралии, Франции и Италии. Апелляцию на штраф голландских властей компания пока не подавала.
euronews.com

@ai_machinelearning_big_data

#news #ai #ml

Показано 20 последних публикаций.