Технологические гиганты хотят регулирования ИИ, но на своих условиях
Глава OpenAI Сэм Олтмен удивил всех, когда предупредил Конгресс США об опасностях, связанных с искусственным интеллектом. Все выглядело так, будто технологические компании учли уроки соцсетей и решили внедрять ИИ по-другому, да еще и просят политиков о помощи.
Но неделей позже Олтмен рассказывал совсем другое журналистам в Лондоне. Он сказал, что попробует выполнять требования законодательства ЕС, но, если это окажется чересчур сложным, он просто прекратит работу на территории блока. В ответ на это еврокомиссар по внутреннему Тьерри Бретон обвинил Олтмена в «попытке шантажа». В июне они встретились и сообщили, что уладили разногласия по поводу регулирования.
Развитие искусственного интеллекта идет невероятно быстрыми темпами. Лишь за первые четыре месяца этого года сектор привлек более $1 млрд венчурного капитала, и технологию уже пытаются внедрить всюду – от зубных щеток до дронов. Как далеко все это зайдет и насколько быстро события продолжат развиваться во многом зависит от того, когда в дело вмешаются правительства. Технологические гиганты говорят, что поддерживают регулирование отрасли. Но в действительности все обстоит сложнее. В США Google, Microsoft, IBM и OpenAI попросили законодателей регулировать ИИ, что, по их словам, необходимо для того, чтобы гарантировать безопасность и конкурировать с Китаем. А в ЕС, где политики недавно одобрили законопроект c ограничительными механизмами для генерирующего ИИ, лоббисты тех же самых компаний выступают против мер, которые, по их мнению, лишь приведут к ограничению самого «горячего» сегмента технологической отрасли.
Правила регулирования техсектора серьезно отличаются по разные стороны Атлантики. ЕС принял всеобъемлющие законы о защите данных пять лет назад и сейчас внедряет строгие нормы для защиты конкуренции и модерации контента. В США же на протяжении более чем двух десятилетий не было почти никакого регулирования. Призывы ввести надзор там были инструментом пиара технологических гигантов и способом оказать давление на европейских законодателей, побуждающим их принимать более благоприятные для компаний решения, говорят многие чиновники, работающие над грядущим законом «Об искусственном интеллекте».
Технологические корпорации знают, что не могут игнорировать ЕС, особенно с учетом превращения его правил для соцсетей и защиты данных в глобальные стандарты. Закон «Об искусственном интеллекте», который будет принят в ближайшие два-три года, станет первой попыткой западных стран регулировать ИИ, и в нем будут предусмотрены серьезные наказания за нарушения. Если компания нарушит его положения, ей будет грозить штраф в размере до 6% годового оборота, а ее продукты могут запретить на территории блока. По оценкам, на ЕС будет приходиться 20-25% мирового рынка ИИ, который вырастет до более чем $1,3 трлн в течение десятилетия.
Это ставит техсектор в сложное положение. Крупнейшим провайдерам ИИ придется коренным образом переосмыслить собственную прозрачность, управление рисками и то, как они используют свои модели, считает Гри Хассельбальх, сооснователь аналитического центра DataEthics.
В отличие от прогресса в техсекторе, законотворчество продвигается очень медленно. В 2021 году Еврокомиссия опубликовала первый проект закона «Об искусственном интеллекте», положив начало процессу, в которым участвуют три органа власти, 27 стран и множество лоббистов. Переговоры растянулись на множество раундов и, вероятно, завершатся они лишь ближе к концу текущего года. В рамках законопроекта сначала был предложен риск-ориентированный подход, который предусматривает запрет ИИ в таких исключительных случаях, как для расчета социального рейтинга по китайскому образцу, а в остальном ИИ сможет работать с минимальным надзором или вообще без него.
Большая часть законопроекта посвящена правилам для «высокорисковых» случаев. Например, компании, выпускающие системы для прогнозирования преступлений или обработки откликов на вакансии, должны будут пользоваться исключительно высококачественными данными и заниматься оценкой рисков. Кроме этого, для глубинных фейков (дипфейков) и чат-ботов вводится правило прозрачности: люди должны знать, что разговаривают с ИИ, а сгенерированный или отредактированный с помощью ИИ фото- и видеоконтент необходимо соответствующим образом маркировать. Как таковой генерирующий ИИ не был отдельно упомянут в законопроекте, так как на тот момент он еще не был у всех на устах.
Развитие искусственного интеллекта идет невероятно быстрыми темпами. Лишь за первые четыре месяца этого года сектор привлек более $1 млрд венчурного капитала, и технологию уже пытаются внедрить всюду – от зубных щеток до дронов. Как далеко все это зайдет и насколько быстро события продолжат развиваться во многом зависит от того, когда в дело вмешаются правительства. Технологические гиганты говорят, что поддерживают регулирование отрасли. Но в действительности все обстоит сложнее. В США Google, Microsoft, IBM и OpenAI попросили законодателей регулировать ИИ, что, по их словам, необходимо для того, чтобы гарантировать безопасность и конкурировать с Китаем. А в ЕС, где политики недавно одобрили законопроект c ограничительными механизмами для генерирующего ИИ, лоббисты тех же самых компаний выступают против мер, которые, по их мнению, лишь приведут к ограничению самого «горячего» сегмента технологической отрасли.
Правила регулирования техсектора серьезно отличаются по разные стороны Атлантики. ЕС принял всеобъемлющие законы о защите данных пять лет назад и сейчас внедряет строгие нормы для защиты конкуренции и модерации контента. В США же на протяжении более чем двух десятилетий не было почти никакого регулирования. Призывы ввести надзор там были инструментом пиара технологических гигантов и способом оказать давление на европейских законодателей, побуждающим их принимать более благоприятные для компаний решения, говорят многие чиновники, работающие над грядущим законом «Об искусственном интеллекте».
Технологические корпорации знают, что не могут игнорировать ЕС, особенно с учетом превращения его правил для соцсетей и защиты данных в глобальные стандарты. Закон «Об искусственном интеллекте», который будет принят в ближайшие два-три года, станет первой попыткой западных стран регулировать ИИ, и в нем будут предусмотрены серьезные наказания за нарушения. Если компания нарушит его положения, ей будет грозить штраф в размере до 6% годового оборота, а ее продукты могут запретить на территории блока. По оценкам, на ЕС будет приходиться 20-25% мирового рынка ИИ, который вырастет до более чем $1,3 трлн в течение десятилетия.
Это ставит техсектор в сложное положение. Крупнейшим провайдерам ИИ придется коренным образом переосмыслить собственную прозрачность, управление рисками и то, как они используют свои модели, считает Гри Хассельбальх, сооснователь аналитического центра DataEthics.
В отличие от прогресса в техсекторе, законотворчество продвигается очень медленно. В 2021 году Еврокомиссия опубликовала первый проект закона «Об искусственном интеллекте», положив начало процессу, в которым участвуют три органа власти, 27 стран и множество лоббистов. Переговоры растянулись на множество раундов и, вероятно, завершатся они лишь ближе к концу текущего года. В рамках законопроекта сначала был предложен риск-ориентированный подход, который предусматривает запрет ИИ в таких исключительных случаях, как для расчета социального рейтинга по китайскому образцу, а в остальном ИИ сможет работать с минимальным надзором или вообще без него.
Большая часть законопроекта посвящена правилам для «высокорисковых» случаев. Например, компании, выпускающие системы для прогнозирования преступлений или обработки откликов на вакансии, должны будут пользоваться исключительно высококачественными данными и заниматься оценкой рисков. Кроме этого, для глубинных фейков (дипфейков) и чат-ботов вводится правило прозрачности: люди должны знать, что разговаривают с ИИ, а сгенерированный или отредактированный с помощью ИИ фото- и видеоконтент необходимо соответствующим образом маркировать. Как таковой генерирующий ИИ не был отдельно упомянут в законопроекте, так как на тот момент он еще не был у всех на устах.