Австрийская пресса продолжает
злорадно нагнетать: европейский регламент об ИИ
(AI Act) вот-вот убьёт последние ростки прогресса в дряхлом и отсталом ЕС. Сначала бессердечные бюрократы
взялись регулировать источники данных для моделей, а теперь они удушают прогресс дальше, требуя от профессиональных операторов ИИ «подтвердить свою компетентность» в работе с такими системами. Могут ли люди, которые ещё в прошлом году всерьёз пользовались факсами, принимать решения, касающиеся столь важной отрасли? Да с их париков на микросхемы сыплется пудра!
Статья написана бодро, и будущее она рисует самое неприглядное – публика в комментариях кипит от возмущения. Что же это получается, чтобы нарисовать картинку в «Миджорни» или получить справку в «ЧатГПТ», нужно иметь выданный государством сертификат «Компетентного оператора ИИ»? И всё это в то время, когда США вот-вот начнут реализацию проекта «Старгейт», который позволит передовым американцам рекомбинировать ещё больше данных с ещё большей скоростью?
(Кстати, о «Старгейте». Пусть объявил о нём Трамп, но сами работы над проектом
начались ещё при Байдене, причём чуть ли не в 2022-м. И самой интересной частью тут является, на мой взгляд, не «самый большой перемножатель матриц в мире», а источники его питания на 5 гигаватт. США впервые с конца девяностых резко увеличивают свою атомную генерацию)
Тем не менее, автор интересной статьи сильно упрощает ситуацию. Для того, чтобы в частном порядке получать от нейросетей
интересные рецепты пиццы с клеем, лицензия, конечно, не нужна.
Как отмечает в пространном комментарии мимо проходивший юрист, австрийская пресса вообще излишне драматизирует ситуацию: наличие компетенции будут требовать только у провайдеров и операторов систем ИИ; в первом случае речь идёт о компаниях, которые их разрабатывают, во втором – о компаниях, которые их используют, причём в тех областях, которые AI Act считает «рискованными» (здоровье, образование, право, etc). Штрафов за отсутствие лицензии пока не предусмотрено вообще – только за нарушение правил использования ИИ в конкретной области; более того, до сих, оказывается, нет не то что европейских, а хотя бы национальных стандартов сертификации этой самой «компетенции» работы с ИИ. Предполагается, что компании проявят сознательность и сами объяснят сотрудникам, что когда ИИ
предлагает съедать в день как минимум один камень для улучшения пищеварения, он, вероятно, может ошибаться.
С другой стороны, процесс запущен. Регуляция ИИ в ЕС – вопрос решённый. До рядовых пользователей она доберётся нескоро (если доберется вообще), но поставщикам ИИ-систем придётся соблюдать «невыносимые» и «безумные» европейские требования – точно так же, как десятилетием раньше к этому принудили соцсети. Резон – с т.з. государства – тут есть и вполне очевидный: любая ИИ-система была кем-то создана и с какой-то целью; у её работы
всегда есть бенефициар. Поэтому важно проверять не только входные данные, но и выходные: что и
с какой целью выдаёт вам система (чья штаб-квартира, между прочим, расположена за океаном, в другой стране). Люди склонны достаточно бездумно делегировать обязанности исполнительным моделям, а требовать от каждого перепроверять за нейросетью, будем откровенны, нереально. Поэтому,
как я и говорил, государства вводят цензуру, ограничивая как источники данных для рекомбинации, так и их возможный вывод для ИИ вне их юрисдикции.
(А ИИ
внутри их юрисдикции, вдобавок ко всему, ещё и рекомбинировать данные будут в соответствии с установленными правилами; т.е. будет не только «читать» и «говорить» правильные вещи, но и
«думать» – как идеальный гражданин)
Европейцы знают, что информация влияет на окружающий мир не меньше, чем материя, поэтому закономерно вводят регуляции, определяющие, как с этой информацией следует обращаться. И в европейской парадигме промышленный «оператор ИИ», конечно, должен иметь сертификат – как врач или электрик, потому что ИИ-системы уже используются и в медицине, и в управлении инфраструктурой.
А вот в передовых США AI Act пока нет. Никто и никогда не отнимет у американцев законное право на пиццу с клеем.