Искусственный интеллект: «Брюссельский эффект»
|
Европейский союз хочет регулировать мировой искусственный интеллект, утверждают лондонские эксперты в статье, опубликованной в журнале «Экономист». И для этого есть прецедент: в 2018 году ЕС принял «Общий регламент по защите данных», который быстро стал мировым стандартом. Но — если не вмешается Америка.
каждой стране существуют свои внутренние законы, но не в случае с цифровой сферой. Когда Европейский союз разрабатывает новые нормативные положения в области технологий, они могут быстро распространиться по всему миру. Глобальные компании, как правило, принимают эти единые строгие правила в отношении своей продукции и рынков с тем, чтобы избежать необходимости соблюдения множества различных режимов. Некоторые правительства используют часть законодательства ЕС, чтобы помочь в конкуренции местным компаниям. Классический пример — так называемый «Брюссельский эффект», представляющий собой Общий регламент ЕС по защите данных (ОРЗД или General Data Protection Regulation — GDPR), вступивший в силу в 2018 году и быстро ставший мировым стандартом.
Неудивительно, что общее внимание было обращено на Брюссель, когда 21 апреля Европейская комиссия опубликовала предложенные ею законоположения по искусственному интеллекту (ИИ). И как верно замечает «Экономист», это сделало ее первым значительным регулятором, создавшим закон в этой области. Будут ли эти правила также широко приняты как и ОРЗД?— задаются объективным вопросом британские эксперты.
В последние годы наблюдались существенные изменения в развитии этических принципов в отношении ИИ, что соответствовало общей шумихе вокруг данной технологии. Многие надеются, что это ускорит экономический рост, другие беспокоятся о том, что это может нанести большой вред, например в том случае, если алгоритм станет дискриминировать определенные группы людей. По меньшей мере 175 стран, компаний и других организаций составили перечни этических принципов. Одна из ведущих мировых специалистов, молодой исследователь Шарлотт Стикс (Charlotte Stix) из Технического университета Эйндховена (Eindhoven Universiry of Technology) справедливо отмечает: «Многие из этих правил не объясняют, как на практике достичь „надежности" и „прозрачности", не говоря уже о том, каким образом эти принципы могут найти отражение в законах».
В связи с тем, что существует не так много норм действующего законодательства по вопросам ИИ, на которые можно было бы опереться, Европейская комиссия решила использовать принцип «снизу-вверх». Она создала «группу экспертов высокого уровня» в составе 52 членов для разработки предложений, сбора дополнительных материалов через заинтересованные стороны, а также опубликовала «Белую книгу», в которой все желающие могли высказать замечания и отправить комментарии онлайн (это сделали 1250 человек). Результатом этой работы стал документ объемом более 100 страниц, содержащий 85 статей и не менее девяти приложений, в которых предпринимается попытка уменьшить потенциальный вред применения ИИ и максимально расширить его возможности.
Британские эксперты считают, что вместо того, чтобы регулировать все возможные случаи применения ИИ, положения ЕС сосредоточены на самых проблематичных из них. Некоторые случаи такого применения будут полностью запрещены, в том числе услуги, использующие «техники, действующие на подсознание» для манипулирования людьми. Другие, такие как распознавание лиц и кредитный рейтинг, считаются «высоко рискованными» и поэтому подпадают под действие строгих правил о прозрачности и качестве данных. Как и в случае с ОРЗД, штрафы за нарушения строгие: до 30 миллионов евро (36 миллионов долларов) или 6% общемировой выручки, в зависимости от того, что окажется больше (например, в случае с такой крупной компанией, как «Фейсбук», это составит более 5 миллиардов долларов).
Однако, замечает «Экономист», в данном случае дьявол кроется в деталях даже в большей степени, чем обычно. Распознавание лиц в целях обеспечения соблюдения законов в общественных местах, которое создает угрозу повсеместного наблюдения, запрещено, но только если это делается в режиме реального времени и исключает любые другие «существенные общественные интересы», такие как поиск пропавших без вести детей. Все сервисные услуги ИИ, связанные с высокой степенью риска, должны быть проверены на соответствие правовым нормам, однако зачастую это может сделать сам провайдер. Государствам ЕС рекомендуется создавать нормативно-правовые «песочницы», в которых компании могут протестировать новые услуги, не опасаясь наказания.
Неудивительно, что многие заинтересованные стороны недовольны. Защитники прав человека критикуют невнятный язык и лазейки в законодательстве. Сара Чандер (Sarah Chander) член организации «Европейского цифрового права» считает, что существует чрезвычайно важный вопрос: «достаточно ли надежна нормативно-правовая база». «Экономист» в свою очередь замечает, что деловые круги, напротив, жалуются на регуляторное бремя, и Бенджамин Мюллер (Benjamin Mueller) из Центра инноваций данных (аналитический центр, который активно поддерживается высокотехнологическими компаниями), предупреждает, что этот европейский закон «ограничит сферы, в которых искусственный интеллект может быть использован на практике».
Эксперты журнала «Экономист» уверены, что в законодательном процессе ещё многое изменится, на что могут уйти годы, возможно, даже больше, чем те четыре года, которые потребовались на создание ОРЗД. Однако, по мнению Ану Брэдфорд (Anu Bradford) из Колумбийской школы права, автора книги об «Эффекте Брюсселя», — даже если дела пойдут быстрее, у ЕС могут возникнуть трудности с установлением глобальных правил или, по крайней мере, жёстких норм. В случае некоторых применений ИИ, таких как алгоритмы, которые могут быть усовершенствованы без необходимости обучения на больших объемах данных, провайдеры, возможно, примут решение, что для Европы целесообразно создание специальных версий. А лоббисты, весьма удивленные успехом ОРЗД, активизируют усилия, чтобы их голоса были услышаны в Брюсселе.
Эксперты журнала делают заключение: все же судьба «Закона об искусственном интеллекте», как его можно было бы назвать, вполне может решиться в Америке. Если ОРЗД штурмом захватил мир, то отчасти потому, что Конгресс США не только не смог принять какое-либо собственное законодательство о защите данных, но и не позаботился о том, чтобы сотрудничать с законодателями в Брюсселе. Новая администрация хочет добиться большего, но пока трансатлантическое сближение в области ИИ и других технологий идет медленно. Только если обе стороны будут работать вместе, они смогут дать отпор амбициям Китая в области технологического господства и сдержать цифровой авторитаризм.
Почему начнутся массовые нарушения прав человека, если не регулировать искусственный интеллект
На стыке права и технологий: как, где и зачем регулируют искусственный интеллект
Уже сегодня искусственный интеллект начинает активно менять мир вокруг нас и то, каким образом мы живем, учимся и работаем. Однако отсутствие должного контроля за ним и регулирования может привести к серьезным негативным последствиям для современного общества. Современный мир входит в эру информационных технологий, где многое будет зависеть от скорости и масштаба развития и внедрения искусственного интеллекта (ИИ). Так, например, США и Китай, являющиеся на сегодняшний день сверхдержавами в области ИИ, уже разработали национальные стратегии. Эти документы направлены на дальнейшее доминирование и стимулирование технологических разработок в отрасли. В то же время, многие эксперты и консультанты в один голос утверждают, что в ближайшие годы ИИ лишит работы представителей ряда профессий (например, водителей, кассиров и переводчиков).Очевидно, что развитие ИИ идет семимильными шагами, но вместе с возможностями оно также несет и определенные вызовы. В связи с этим, одним из ключевых вопросов становится вопрос должного регулирования, так как без него могут иметь место массовые нарушения прав человека, такие как утечка персональных данных, дискриминация по признаку расы или нарушение права на неприкосновенность частной жизни. В настоящее время не многие страны приняли законы, регулирующие применение ИИ, но есть юрисдикции-пионеры, чей опыт изучается законодателями из других стран.
Так, например, с 1 июля 2019 в штате Калифорния, США вступил в силу закон, который нацелен на ограничение использования в интернете чатбота с целью покупки или продажи товаров или услуг в коммерческих сделках или влияния на голосование на выборах. Закон требует, чтобы чатбот проинформировал своего собеседника о том, что последний общается с ботом, а не человеком. В противном случае генеральный прокурор обладает полномочиями по наложению штрафов до $2 500 за каждое нарушение, а также средствами правовой защиты.
Другой закон, который был принят в американском штате Иллинойс, регулирует использование ИИ в процессе найма на работу. Так, положения закона обязывают работодателей, набирающих сотрудников в штате Иллинойс: 1) заблаговременно уведомить кандидатов об использовании ИИ в процессе видео собеседования; 2) предоставить кандидатам информацию о работе ИИ и особенностях оценивания; 3) получить до собеседования согласие кандидата на его оценку искусственным интеллектом. Кроме того, закон устанавливает конкретных лиц, с которыми работодатель может поделиться видео собеседования, а также обязывает работодателя и других лиц, владеющих материалами видео собеседования, удалить их в течение 30 дней со дня получения соответствующего запроса от кандидата.
В июне же текущего года Франция приняла довольно противоречивый закон, который запрещает публикацию статистической информации о решениях французских судей и устанавливает санкцию за нарушение нового закона в виде лишения свободы на срок до пяти лет. Таким образом, данный закон фактически призван помешать компаниям, специализирующимся на прогнозировании и анализе судебных процессов, публично раскрывать тенденции в поведении судей по вопросу вынесения ими судебных решений.
А в мае нынешнего года американский город Сан-Франциско, считавшийся «дружелюбным к технологиям», запретил использование программного обеспечения для распознавания лиц полицией и другими правительственными учреждениями. Месяцем позже данному примеру последовали города Сомервилл (штат Массачусетс) и Окленд (штат Калифорния). Как видно, если ранее законы по регулированию и ограничению использования ИИ в США принимались отдельными штатами и городами, то в ближайшее время уже ожидается принятие федерального закона. Так, в настоящее время в Конгрессе находится законопроект, который запретит всем государственным жилищным организациям, получающим финансирование от Министерства жилищного строительства и городского развития, использовать технологии распознавания лиц.
Очевидно, что в последнее время попытки законодателей урегулировать отдельные сферы робототехники и ИИ набирают все большую популярность. Однако, следует заметить, что чрезмерное регулирование может нанести вред развитию и внедрению инноваций и технологий. Например, французский закон, ограничивающий публикацию информации об анализе и прогнозировании судебных решений, был встречен как минимум с недоумением и серьезно раскритикован юридическим сообществом. Данный закон не рассматривается ни как шаг, направленный на повышение прозрачности в области правосудия, ни как мера, стимулирующая развитие инновационных компаний в сфере права.
Подобные ограничения могут существенно повлиять на рост и развитие стартапов и компаний, специализирующихся в сфере ИИ, и повлечь за собой уход инноваций, налогов и новых рабочих мест в другие юрисдикции. С другой стороны, отсутствие должного регулирования может привести к массовым нарушениям прав человека. Как видно, вопросы, связанные с правом и технологиями, будут в ближайшее время активно обсуждаться общественностью во всем мире. В связи с этим, законодатели вскоре встанут перед дилеммой степени регулирования ИИ и должны будут найти «золотую середину», которая устроит общество, инноваторов и правительство.
The Federalist (США): эксперт по искусственному интеллекту объясняет, как техгиганты манипулируют вашим сознанием
Он — один из тех серых пиджаков, которые нажимают на кнопки в «Матрице», но при этом рад устроить нам, ее пленникам, экскурсию. Так автор охарактеризовал своего собеседника, эксперта по искусственному интеллекту, который рассказал, как технологические гиганты манипулируют нашим сознанием. Кстати, по его мнению, Китай ближе всех к «адской антиутопии».
Эксперт по искусственному интеллекту и выпускник Оксфордского университета объясняет, как технологические гиганты манипулируют сознанием, распознают речь и насаждают групповое мышление.
Выпускник Оксфордского университета Джастин Лейн (Justin Lane) — эксперт по искусственному интеллекту и предприниматель. Пустого сотрясания воздуха он не терпит. Он изучает познание — как человеческое, так и искусственный интеллект — а также религию и конфликты.
Его интересы привели к любопытным полевым исследованиям в Северной Ирландии, где он изучал соперничающих экстремистов из Ирландской республиканской армии и Ассоциации обороны Ольстера. В конечном итоге он применил свои гуманитарные выводы к программированию ИИ и многоагентному компьютерному моделированию.
Он умудрился поступить в бакалавриат в Балтиморе, штат Мэриленд, либералом из Партии зеленых, а вышел из английских башен слоновой кости горячим сторонником Второй поправки (которая гарантирует право граждан на хранение и ношение оружия — прим. перев.). Теперь он считает себя умеренным, но «с либертарианским душком».
Когда мы впервые встретились, Лейн работал в Центре разума и культуры в Бостоне. Крепко испорченный капитализмом многообещающий ученый стал соучредителем международной компании по анализу данных, которая работает с известными корпоративными и академическими клиентами. Он — один из тех серых пиджаков, которые нажимают на кнопки в «Матрице», но при этом рад устроить нам, ее пленникам, экскурсию.
Мне из-за моего ноутбука наш технократический колпак кажется гигантским черным облаком, откуда извергается ливень полуправды и ядовитых фактов. Глаза роботов вглядываются в темноту, наблюдая, как растворяются наши души.
Лейн же настроен более оптимистично. Он уверяет меня, что мир технологий — всего лишь набор сложных инструментов. Главное — уметь ими пользоваться. И вот мы с добрым доктором устроили виртуальную встречу за коньяком и кофе (он из Словакии, я — из Америки, и к тому же до полудня я не пью).
Джо Аллен: Что вы скажете как сетевой аналитик, как выглядят неумытые массы с точки зрения всевидящего Бога? Я просто параноик, или они действительно хотят нас прищучить?
Джастин Лейн: Компании вроде Google, Facebook или Twitter, или аналитические фирмы вроде моей собирают огромные объемы данных о пользователях. Это то, что сейчас называется «супермассивами» или «большими данными».
Большинство компаний изучают массовые данные и ищут закономерности. Как правило, конкретное содержание не интересует ни компанию, ни специалиста по обработке данных, ни их алгоритмы. Это просто инженерные системы, которые изучают закономерности, чтобы отслеживать и вовлекать отдельных пользователей.
Но должны быть и базы данных с индивидуальной степенью детализации. Может, у Твиттера, или в корпоративной базе данных, или где-нибудь в базе данных разведки. Эта личная информация может быть использована в гнусных целях. И это чревато очевидными этическими последствиями.
Вспомним, как работает слежка в Китае: ты сказал что-то плохое про режим, и твоя оценка в системе социального кредита упала. Не факт, что там вообще смотрят общую картину, тебе просто возьмут и скажут: «Нет, в такой-то день вы ругали правительство, и теперь билет на поезд вам не положен».
Я бы сказал, что Китай сегодня ближе всех к той адской антиутопии, которой мы все боимся. А большинство американских корпораций больше заинтересованы в том, чтобы получать деньги за каждый клик. Как по мне, разница принципиальная
— А разве нельзя воспользоваться этой обширной картой общественного мнения для манипуляций покруче сбора данных в штабе Барака Обамы или аферы Дональда Трампа с Cambridge Analytica?
— Возможностей для манипуляции общественным мнением — масса. Среднестатистическим пользователем манипулируют одновременно активно и пассивно.
Активно манипулируют всяким, кто хотя бы единожды включал телевизор или радио. Маркетинг вообще так работает: нам внушают, что когда нам что-нибудь понадобится, это должен быть конкретный бренд. В этом гений рекламы. Он просто масштабируется до уровня, который мы и представить себе не можем — благодаря данным в социальных сетях и количеству пользователей на каждой платформе.
Наряду с этим есть и пассивная манипуляция — что конкретно та или иная компания допускает у себя на сайте, как подают или алгоритмически меняют информацию, которую мы видим.
С психологической точки зрения мы знаем, что чем чаще повторять ту или иную информацию, тем скорее ее запомнишь. Это называется «обучением». Поэтому когда соцсети решают цензурировать ту или иную информацию, они затрудняют или перекрывают пользователям доступ к ней.
В каком-то смысле, я считаю, это этический императив: есть определенные обстоятельства — например, когда страдают дети или нападают на беспомощных, которые не могут ответить. Но «редактирование» мнений пользователей — это серая зона. Кого, спрашивается, вы защищаете, удаляя определенные политические мнения? Или скрытой блокировкой пользователей?
И в этом смысле нами открыто манипулируют. Хорошо это или плохо, во многом зависит от ваших взглядов и политической ориентации, потому что, похоже, что с консерваторами это случается чаще, чем с либералами. Эту разницу хорошо видно, когда одни говорят о «ненавистнических высказываниях», а другие спрашивают: «Ну и какие конкретно высказывания вы ненавидите?».
— То есть следить за нашей речью на этих платформах приставлен «полицейский» искусственный интеллект?
— Да, однозначно. «Фейсбук» сообщает, что свыше 90% оскорбительного контента выявляется алгоритмически благодаря системам искусственного интеллекта. И только позже эти метки проверяют живые люди. И так они по сути самообучают ИИ на основе помеченного контента.
Это всего лишь домысел, но если консерваторов цензурируют чаще, чем либералов, это может быть связано с тем, что людей определенных политических взглядов легче задеть. Тогда получается, что предвзятость цензуры, которую мы наблюдаем в социальных сетях, нельзя взять и списать на политические симпатии владельцев технологических компаний, их цензоров-рецензентов или специалистов по обработке данных, разрабатывающих алгоритмы.
Поскольку «Фейсбук» тренирует свои алгоритмы на десятках миллионов пользовательских жалоб на оскорбительный контент, отчасти предвзятость всей системы отражает то, что одни кричат громче других. Если консерваторы не начнут активно жаловаться на оскорбительный для них контент, то их мнения так и не попадают в базу данных и, как следствие, не отразятся в алгоритмах.
[Тут Лейн хитро улыбается].
Поэтому вот что могут сделать консерваторы — было бы очень интересно поглядеть, как это сработает на «Фейсбуке»: жаловаться всякий раз, когда видишь нечто, на что обязательно бы пожаловались в обратной ситуации. Не исключено, что алгоритмы соцсетей научатся тому, что левацкие взгляды тоже бывают оскорбительными, и будут иначе на них реагировать. В общем, это был бы любопытный социальный эксперимент.
— Вот вы выросли в консервативных кругах. Каково вам приходилось в университетской среде?
— После последнего курса я поехал в Европу — это было единственное место, где я мог изучать компьютерное моделирование человеческого поведения, как мне хотелось. Сначала я поехал в Белфаст, где человеческая природа и культурные убеждения давно и прискорбно переплелись с насилием.
Это Великобритания, владеть оружием там запрещено. Тем не менее за годы Смуты от огнестрельного оружия и бомб погибли тысячи людей. Это еще раз подтвердило мое убеждение, что человеческая природа превыше всякого общественного закона.
Затем я перебрался в Оксфорд, где, можно сказать, балансировал между двумя мирами. С одной стороны, я был активным членом Общества Хайека — там собирались либертарианцы и звали на свои мероприятия самых разных людей. Приглашенные лекторы критически высказались по вопросам экономики, свободы и нравственности.
С другой стороны, мой опыт в среде университетского городка показал, что участвовать в дебатах можно лишь в унисон с хором согласных.
И это большая проблема в университетах Лиги плюща. Университет Брауна следил, скольких консерваторов приглашают выступать в студенческих городках: оказалось, что свыше 90% гостей — либералы или левые. Такой же герметичный мирок сформировался даже в Оксфорде, хотя по-своему они намного лучше других. Бастионом свободы слова по-прежнему остается Чикагский университет.
Когда я закончил свое исследование в Оксфорде, я продолжил работу в Бостонском университете и был неприятно удивлен, как плохо стало в американской университетской среде. Можно сказать, это открыло мне глаза: там вообще не приветствуют критическое мышление, а поощряют лишь заученные до автоматизма ответы.
Если ваш вывод противоречит критическим теоретикам — которые в основной своей массе неомарксисты и последователи интерсекциональности — высказывать свое мнение вам попросту не дадут. А будете настаивать, вас быстренько «отменят» — объявят бойкот. Как по мне, это очень нездорóво и рождает деспотию и экстремизм.
Вот, например, профессор Бостонского университета Ибрам Кенди [Ibram Kendi, основатель нового Центра антирасистских исследований] отпускал расистские и трансфобские комментарии. Но университет за него горой. А вот за республиканцев, которые сомневаются в Кенди и на которых нападают левые студенческие организации, там заступаться не принято. Увы, похоже, что эта модель набирает обороты по всей Америке
Джо Аллен — такой же примат, который задается вопросом, зачем мы вообще слезли с деревьев. Много лет работал монтажником в концертных турах. В перерывах между концертами изучал религию и науку в Университете Теннесси и Бостонском университете.