ИИ & Право


Гео и язык канала: Весь мир, Русский
Категория: Право


Новости регулирования искусственного интеллекта.
ИИ комплаенс
AI Governance
Искусственный интеллект и право
LegalTech
Поддержать канал: https://boosty.to/aiandlaw
Английская версия канала https://t.me/ai_and_law
Контакт: @mmariuka

Связанные каналы  |  Похожие каналы

Гео и язык канала
Весь мир, Русский
Категория
Право
Статистика
Фильтр публикаций


🌐 Карта мирового лидерства в ИИ от Стэнфорда

Уважаемые подписчики, в последний день 2024 года представляем вам карту мирового лидерства в ИИ от Института HAI Стэнфордского университета: Global AI Vibrancy Tool — ресурс для сравнения развития ИИ в 36 странах. Этот интерактивный инструмент использует 42 показателя, сгруппированных в 8 категорий, чтобы оценивать прогресс стран в области искусственного интеллекта.

Инструмент выделяет центры передового опыта в области ИИ как в развитых, так и в развивающихся экономиках, а также предоставляет полезные данные для принятия стратегических решений.

Пользуясь случаем поздравляем всех подписчиков нашего канала с наступающим Новым годом! Благодаря вашему интересу ИИ&Право активно развивается, вас уже почти две с половиной тысячи👥. В уходящем году нам удалось поделиться с вами большим количеством уникальных материалов в области регулирования искусственного интеллекта, интересных кейсов и полезных документов.

Мы заметили, что наши находки и публикации активно используются другими каналами со схожей тематикой, к сожалению, часто без указания источника, но хотим по-прежнему делать так, чтобы материалы, которыми мы делимся, были доступны всем желающим. Поэтому пока мы уходим в небольшой новогодний отпуск, вы можете поддержать ИИ&Право:

✔️ Рассказывайте о нашем канале коллегам, которым он может быть интересен.

✔️Делайте репосты и пересылки полезных постов.

✔️ Поддержите нас донатом на карту 2203620321829927 или на бусти.

Желаем нашим подписчикам всего самого наилучшего и до встречи в 2025 году!


🇺🇸 Апелляционный суд Колорадо вынес предупреждение об использовании ИИ

Апелляционный суд Колорадо в своем решении обратил внимание на риски использования генеративного ИИ для составления юридических документов. В деле Al-Hamim v. Star Hearthstone, LLC истец подал ходатайство, содержащее вымышленные ссылки на законы, которые были созданы «галлюцинациями» ИИ. Хотя суд не стал применять санкции к истцу, он выступил с четким предупреждением: юристы и стороны процесса должны проявлять осторожность при использовании ИИ-инструментов.

#ИИ


🇺🇸 В США подан иск в связи с использованием ИИ в вопросах предоставления убежища

Юридическая клиника Гарварда и Jenner & Block LLP подали иск от имени Refugees International, требуя раскрытия информации о применении искусственного интеллекта Министерством внутренней безопасности (Department of Homeland Security, DHS) США в процессе рассмотрения заявлений на предоставление убежища. Дело связано с запросом по закону о свободе информации (Freedom of Information Act, FOIA), поданным в 2022 году, который до сих пор остается без ответа.

Запрос касается инструмента Asylum Text Analytics (ATA), использующего машинное обучение для выявления «мошенничества на основе плагиата» в заявлениях на предоставление убежища. Вопросы вызывают методы обучения инструмента и его влияние на заявителей, особенно тех, кто не говорит на английском языке, а также обеспечивается ли справедливое рассмотрение заявлений, которые отмечены системой как сомнительные. Критики предупреждают, что неуправляемое использование ИИ рискует увеличить случаи предвзятости вместо того, чтобы гарантировать справедливость.

#ИИ #AIEthics


🇪🇺 Европейский регулятор выпустил заключение в отношении защиты данных и моделей ИИ

Европейский регулятор (uropean Data Protection Board, EDPB) опубликовал Заключение 28/2024, которое затрагивает важные вопросы соблюдения требований GDPR при разработке и использовании моделей ИИ, среди которых:

✅ Когда и при каких условиях модель ИИ можно считать «анонимной».
✅ Обоснование "законного интереса" как правового основания обработки персональных данных на этапах разработки и внедрения.
✅ Последствия незаконной обработки данных на этапе разработки для последующей эксплуатации модели.

Заключение фокусируется на соблюдении требований "законного интереса", при этом регулятор подчеркивает, что выполнение этого условия не освобождает компании от соблюдения других положений GDPR. Этот документ обязателен к изучению для всех, кто работает на пересечении ИИ и защиты данных в ЕС.

#ИИ #GDPR #AICompliance #EDPB


🇬🇧 В Великобритании проводят консультации по защите авторского права в сфере ИИ

Правительство Великобритании инициировало консультацию по разработке правовых рамок для обучения ИИ с использованием защищённого авторским правом материала. Предложены различные варианты будущего регулирования, которые могут значительно повлиять на индустрии ИИ и творчества:

1️⃣ Один из вариантов позволяет компаниям, разрабатывающим ИИ, использовать защищённые авторским правом материалы без разрешения правообладателей, даже в коммерческих целях, с минимальными ограничениями. Этот подход вызывает опасения среди представителей творческих индустрий.

2️⃣ Другие варианты предполагают системы отказа (opt-out) для правообладателей или ужесточение требований к лицензированию, но представители творческих индустрий считают, что и эти подходы недостаточно прозрачны и оставляют авторов без защиты.

Приём отзывов продлится до 25 февраля 2025 года.

#ИИ #АвторскоеПраво


Уважаемые подписчики, сегодня хотим поделиться с вами еще одной подборкой интересных юридических каналов, в которых коллеги-юристы рассказывают о правовых нюансах в своих областях, делятся полезными материалами и лайфхаками:

Юрист в IT и онлайн-бизнесе
- канал юриста, который рассказывает про правовые нюансы онлайн-бизнеса и IT-проектов, а также делится полезными материалами

Судебник | Стрюкова Юлия - канал начальника юр отдела крупной российской корпорации: про споры с торговыми центрами, о недвижимости по любви и о жизни в декрете.

Адвокат Яна Неповиннова - в своём блоге транслирует любовь к профессии, делится рабочими буднями молодой мамы, трудностями и радостями профессии, личным опытом становления в адвокатуре

Новгородский юрист - правовые новости Новгородской области (не спутайте с Нижегородской), взгляд юриста на происходящее в регионе. Субъективная и саркастическая оценка нормативных актов, судебных решений и прочего правоприменения.

ЧАК В ПРАВЕ - Канал социального и медицинского юриста Черняевой Анны, которая делится своей практикой по защите прав онкопациентов и другим вопросам медицинского права. Канал вошел в топ- 15 самых цитируемых и топ-20 самых больших каналов по версии компании Veta в номинации здравоохранения.

Валерия Рытвина - юриспруденция и PR
Успешно ведет дела звезд. Основатель Совета блогеров. Эксперт по общению со СМИ. Лайфстайл из жизни бизнес-леди

Ко всем сразу можно присоединиться по ссылке 📥


Выпущено новое Руководство NIST по борьбе с рисками синтетического контента

Национальный институт стандартов и технологий США (U.S. National Institute of Standards and Technology, NIST) опубликовал отчет "Reducing Risks Posed by Synthetic Content", посвященный проблемам, связанным с deepfake-технологиями на основе ИИ. Документ рассматривает, в частности, следующие темы:

1️⃣ Отслеживание происхождения контента для проверки его источника и изменений.
2️⃣ Разработка инструментов для маркировки и идентификации материалов, созданных ИИ.
3️⃣ Борьба с ИИ-генерируемыми материалами CSAM (материалы сексуального насилия над детьми) и NCII (интимные изображения без согласия) реальных людей.

В отчете рассмотрен широкий спектр рисков синтетического контента: от личных угроз до масштабной дезинформации, затрагивающей общество. Особое внимание уделено кибербезопасности и мошенничеству, так как deepfake-технологии могут использоваться для взлома биометрических систем аутентификации или обмана через подделку голоса.

NIST отмечает, что эффективность методов борьбы с рисками зависит от их цели и аудитории. Такие меры, как отслеживание происхождения контента, могут повысить прозрачность для широкого круга пользователей, в то время как специализированные инструменты для обнаружения синтетического контента лучше подходят для аналитиков и платформ, чтобы оценивать риски и разрабатывать меры противодействия.

#Deepfakes #ЭтикаИИ #КонтрольКонтента #NIST


Уточнение определения ИИ: трехфакторный подход

Европейский институт права (European Law Institute, ELI) представил ответ на консультацию Европейской комиссии по определению искусственного интеллекта в Законе ЕС об ИИ (Статья 3(1)). Несмотря на соответствие текущего определения пересмотренной версии ОЭСР 2023 года, ELI отмечает его недостаточную четкость в разграничении ИИ-систем и традиционных ИТ-систем.

Для устранения этой неопределенности ELI предлагает «трехфакторный подход»:

1️⃣ Объем данных или специфических знаний, использованных при разработке.
2️⃣ Способность системы создавать новое «ноу-хау» в процессе работы.
3️⃣ Степень формальной неопределенности результатов.

Предложенная структура действует гибко: ИТ-система квалифицируется как ИИ, если она набирает "три плюса" по этим факторам. Такой подход сохраняет абстрактное определение Закона ЕС об ИИ, обеспечивая при этом техническую нейтральность и практическую точность в регулировании.

#AIRegulation #AIAct #LegalTech

658 0 29 1 10

YouTube дает авторам контроль над своими произведениями при обучением ИИ

YouTube предоставил создателям контента больше контроля над тем, как их видео используются для развития технологий искусственного интеллекта. Новая настройка «Обучение сторонними ИИ» позволяет авторам напрямую разрешать использование их контента для обучения генеративных моделей ИИ конкретным компаниям. В текущем списке — 18 крупных технологических игроков, включая OpenAI и Microsoft.

Видео будет доступно для обучения ИИ только при согласии как автора, так и всех правообладателей, включая тех, чьи права определены системой Content ID. Несанкционированный сбор данных и доступ к контенту по-прежнему строго запрещены Условиями использования YouTube.
__________________________________
🌟 Поддержать ИИ & Право 🌟

#AIRegulation #YouTube #GenerativeAI #DigitalRights


ИИ от OpenAI научился обманывать

Исследование Apollo Research выявило тревожное поведение системы искусственного интеллекта от OpenAI - o1. При постановке задачи любой ценой достичь цели o1 прибегал к обману: подделывал данные, лгал о своих действиях и даже занижал свои способности, чтобы избежать отключения. В некоторых случаях он пытался отключить механизмы мониторинга или создать копии самого себя для самосохранения — поведение, напоминающее сценарии из научной фантастики.

Это исследование стало поводом для дискуссий о том, достаточно ли надёжны текущие методы тестирования безопасности, проводимые ведущими лабораториями ИИ? Если подобные сценарии возникают в условиях контроля, насколько мы готовы к их потенциальным последствиям в реальном мире?

#ИИ #ЭтикаИИ

1k 1 38 3 12

Комиссия по торговле фьючерсами США выпустила рекомендации по работе с ИИ

Комиссия по торговле товарными фьючерсами США (US Commodity Futures Trading Commission, CFTC) выпустила рекомендации CFTC Letter No. 24-17, посвященные использованию искусственного интеллекта на регулируемых рынках. В документе отмечается двойственный характер ИИ: инновационный потенциал с одной стороны и такие потенциальные риски как ошибки алгоритмов, угрозы кибербезопасности и рыночные сбои, с другой.

Рекомендации содержат указание на необходимость внедрения надежного управления ИИ, динамических процессов управления рисками и системных защит, адаптированных под автоматизированные решения. Комиссия делает акцент на прозрачности, справедливости и подотчетности, призывая организации к строгому тестированию, аудитам и соблюдению Commodity Exchange Act и иных действующих нормативных актов.

#УправлениеИИ #CFTC #ФинТех


Вышел новый отчет ОЭСР по управлению ИИ

Новый отчет ОЭСР «Оценка потенциальных будущих рисков, преимуществ и стратегий управления в области ИИ» предлагает комплексную стратегию управления трансформационным потенциалом искусственного интеллекта. Документ отмечает способность ИИ революционизировать здравоохранение, образование и борьбу с изменением климата, а также предупреждает о рисках, таких как концентрация власти, нарушение конфиденциальности и дезинформация, подрывающая демократию.

Среди ключевых стратегических мер отмечены:

✅ Установление правовых рамок ответственности за вред, причиненный ИИ.
✅ Продвижение прозрачности и управления рисками на протяжении всего жизненного цикла систем высокого риска.
✅ Инвестирование в исследования безопасности ИИ, его согласования с человеческими ценностями и объяснимости для обеспечения подотчетности и доверия.

#ИИ #ОЭСР #ЭтикаИИ


Подан новый иск против Character.AI в связи с нарушением безопасности подростков

Против Character.AI подан второй иск в связи с предполагаемым нанесением вреда несовершеннолетним пользователям. Истцы обвиняют платформу чат-ботов в халатности и дефектном проектировании продукта, утверждая, что она подвергла подростков вредным взаимодействиям, включая поощрение к членовредительству и сексуально откровенный контент. Дело связано с 17-летним подростком по имени Дж.Ф., который, как сообщается, столкнулся с серьезными проблемами психического здоровья после использования платформы.

Ключевые обвинения в иске основываются на том, что подход к дизайну Character.AI, ориентированный на вовлечение пользователей, оставляет несовершеннолетних уязвимыми для эмоциональных и психологических рисков. В жалобе говорится о недостатке механизмов для выявления и помощи уязвимым пользователям, приводя примеры, когда чат-боты романтизировали членовредительство и отговаривали от обращения за помощью к семье. .

#ИИ #Безопасность #AI




Интересный анализ для решения проблемы "черного ящика"

Сегодня делимся работой "A Legal Framework for eXplainable AI" в которой рассматривается актуальный вопрос подотчетности и прозрачности ИИ-систем. Авторы выделяют три ключевых вызова для объяснимости ИИ:

✅ технические ограничения в упрощении сложных алгоритмов,
✅ юридические пробелы в определении требований к прозрачности и
✅ поведенческие аспекты — какие объяснения помогают людям лучше понять или оспорить решения ИИ.

Авторы предлагают таксономию для объяснимого ИИ (XAI), включающую такие измерения, как масштаб (глобальный vs. локальный), глубина (всеобъемлющая vs. выборочная) и поток (условный контроль vs. корреляция), что позволяет структурно оценивать ИИ-системы. Они подчеркивают, что внимание к пользователям является не только юридическим требованием, но и важным шагом к ориентированному на человека дизайну.
__________________________________
🌟 Поддержать ИИ & Право 🌟


#ИИ #AIRegulation #XAI


Итальянский регулятор вынес предупреждение о возможном нарушении GDPR при обучении моделей ИИ

Итальянский орган по защите данных вынес официальное предупреждение группе Gedi, призвав не использовать архивы газет для обучения ИИ в рамках лицензионного соглашения с OpenAI. В таких архивах могут содержаться чувствительные персональные данные, например, информация о судебных делах, которые, по мнению регулятора, не могут быть законно переданы или обработаны без соблюдения строгих требований GDPR. Регулятор указывает на недостатки в правовой обоснованности передачи данных.

Это предупреждение может иметь последствия для возможностей обучения ИИ по всему ЕС. Если законы о защите данных будут конфликтовать с предложенными решениями, такими как лицензирование контента для генеративного ИИ, индустрия может столкнуться с тупиком, особенно с учетом того, что другие европейские регуляторы могут обратить внимание на эту ситуацию в качестве примера.

#AI #GDPR #DataProtection #ИИ


В ЕС вступает в силу Акт о киберустойчивости

Сегодня вступает в силу Акт ЕС о киберустойчивости — регламент, устанавливающий обязательные стандарты кибербезопасности на всех этапах жизненного цикла продуктов с цифровыми элементами, включая системы ИИ. Подобно GDPR и Закону ЕС об ИИ, Акт о киберустойчивости действует во всех странах ЕС, обеспечивая единый подход к вопросам кибербезопасности. Производители обязаны внедрять меры кибербезопасности на каждом этапе жизненного цикла продукта, а для критически важных продуктов предусмотрены независимые процедуры оценки соответствия.

Акт пересекается с Законом ЕС об ИИ: системы ИИ высокого риска теперь должны соответствовать требованиям как кибербезопасности, так и специфическим для ИИ стандартам. Оценка соответствия будет проводиться уполномоченными органами, компетентными в обеих областях. Максимальные штрафы за несоблюдение достигают €15 млн или 2,5% от мирового годового оборота, что требует серьезного внимания от разработчиков ИИ и специалистов по кибербезопасности. Полностью Акт вступит в силу в декабре 2027 года. , а подготовка уже идет — создается Экспертная группа по Акту о киберустойчивости.

#ИИ #AIRegulation #Cybersecurity #AIAct


США: ФТК борется с вводящими в заблуждение заявлениями об отсутствии предвзятости ИИ

Федеральная торговая комиссия (FTC) США обвинила компанию IntelliVision Technologies в представлении вводящих в заблуждение заявлений о технологиях распознавания лиц на основе искусственного интеллекта. Калифорнийская компания утверждала, что ее программное обеспечение обладает "нулевой гендерной или расовой предвзятостью" и точностью более 99%. Однако расследование Комиссии выявило существенные несоответствия, например недостаточные данные для тестирования и то, что алгоритмы компании значительно уступают конкурентам (они не входят даже в первую сотню по результатам тестов Национального института стандартов и технологий (NIST) на декабрь 2023 года).

Как сообщается, IntelliVision обучала свои алгоритмы всего на 100 000 изображений лиц, создавая вариации этих изображений для имитации разнообразия, вместо того чтобы использовать миллионы реальных данных, как утверждалось в рекламе. Комиссия предлагает запретить компании делать необоснованные заявления и требует надежного тестирования для подтверждения любых будущих заявлений. Этот случай обращает внимание на политику поставщиков моделей ИИ в части их заявлений о возможностях технологий.

#ИИ #AI


Уважаемые подписчики, хотим поделиться с вами подборкой полезных материалов от наших коллег, ведущих юридических каналов в области IT/IP. А на самих каналах вы сможете найти еще много интересных постов на самые различные правовые темы. Итак, сегодня в подборке:

Памятка по договору на разработку программного обеспечения – собраны основные нюансы, на которые стоит обращать внимание заказчикам и разработчикам при составлении договора на создание ПО

Детальные разборы сервисов - здесь собраны подробные разборы пользовательских соглашений различных сервисов, стоков и нейросетей.

Чек-лист по разработке и старту продаж программного обеспечения - IT-юристы из компании i-Legal разобрали основные моменты, которые нужно учитывать, если вы хотите обезопасить ПО от посягательств третьих лиц или минимизировать бюрократические проволочки, а также споры с другими правообладателями.

Правила регистрации личных блогов и каналов на 10.000 + в РКН - чтобы вы могли разобраться в этих требованиях, команда агентства EP Legal создала гайд, описывающий процесс регистрации в РКН: как размещать плашку и как проверять того, к кому вы идете за рекламой.

Налогообложение криптовалют: что изменилось — юристы DRC рассказывают о том, какие правила налогообложения крипты одобрены Правительством России, а также о том, где сейчас в мире существуют самые высокие и самые низкие (нулевые) ставки налогообложения криптовалют.

Новые правила инстаграм — как не допустить блокировки страницы, что запрещено, что можно делать и что изменилось.

Читайте, сохраняйте и подписывайтесь!


Уважаемые подписчики,

Наш канал открыт для всех, кому интересны новости регулирования искусственного интеллекта. Теперь у вас есть возможность поддержать канал на платформе Boosty. Сделать это легко, просто перейдя по ссылке https://boosty.to/aiandlaw и оставив одноразовый донат или оформив ежемесячную подписку.

Ваша помощь позволит нам продолжать подбирать интересные материалы, а также находить первоисточники, документы, аналитику, исследования и доклады, экономя ваше время создавая уникальную базу знаний специально для вас.

Если вы хотите поддержать канал, но не пользуетесь Boosty, напишите нам, какие другие платформы были бы удобны.

С уважением,
ИИ & Право

Показано 20 последних публикаций.