Дефицит реальности: как Южная Корея потеряла контроль над ИИ
Дефицит реальности: как Южная Корея потеряла контроль над ИИ
1 час назад 24 Даже власти были заведены сгенерированным ИИ изображением сбежавшего волка в Тэджоне. Фото: Раздаточный материал

Вирусная «богиня бейсбола», волк, которого так и не стал, и эпидемию дипфейков. Генеративный ИИ переписывает реальность Южной Кореи

Молодая женщина на трибунах просто вздохнула, повернула голову и села, выглядя невероятно собранной, в то время как 15 миллионов незнакомцев на мгновение влюбились в того, кто никогда не существовал.

Согласно подписи к одному из многих постов, она была «средней корейской женщиной». Её поклонники быстро короновали её «богиней бейсбола», анализируя каждую её деталь с тем же форензическим энтузиазмом, присущим интернет-одержимости, пока пятисекундный ролик стал вирусным в онлайн-сообществах Южной Кореи.

Потом кто-то заметил табло.

Графика трансляции в левом верхнем углу изображения показывала действующего питчера Hanwha Eagles, противостоящего бывшему отбивающему Doosan Bears в матче, который не мог бы состояться.

Богиня была вымыслом — собранной алгоритмом и неотличимой, для миллионов зрителей, от настоящей.

Через несколько дней в социальных лентах начали заполняться подражающие клипы. Пользователи устраивались рядом со звездой BTS Чонгуком на стадионных сиденьях и перемещали вымышленных зрителей в паддоки Формулы-1 и арены НБА, создавая присутствие там, где раньше её не было.

В Южной Корее, где генеративный ИИ быстро превратился из новшества в повседневный инструмент, такие ролики проверяют, как быстро синтетический контент может стать реальностью — и как легко развлечения могут превратиться в дезинформацию, вред репутации, политические манипуляции и общественную путаницу.

Волком, которого никогда не было

Расширяющаяся пропасть между синтетическим образом и реальностью была обнажена в апреле, когда общегородская охота на Нёкгу — двухлетнего волка, который сбежал из вольера в парке и зоопарке O-World в центре Тэджона, вызвала девятидневные поиски.

Пока власти прочёсывали регион, офисный работник лет сорока лет использовал генератор изображений на базе ИИ, чтобы подделать фотографию светло-коричневого волка, небрежно переходящего реальный перекрёсток рядом со школой.

Изображение оказалось достаточно убедительным, чтобы ввести в заблуждение собственных сотрудников по чрезвычайным ситуациям Тэджона, которые включили его в публичные оповещения с призывом жителей оставаться дома, а также показали его на телевизионном пресс-брифинге.

Цифровые следователи и фактчекеры информационных агентств в конечном итоге выявили явные несоответствия в изображении. Полиция арестовала создателя по обвинению в препятствовании служебным обязанностям. Но ущерб уже был нанесён: сфабрикованный волк на короткое время стал лицом настоящей общественной чрезвычайной ситуации.

«Если смотреть легкомысленно, это можно просто рассматривать как развлечение или хобби», — сказал Ким Мён Джу, исполнительный директор Корейского института безопасности искусственного интеллекта, в программе This Week in Asia.

«Но если такое поведение станет чрезмерным или затянувшимся, разрыв между фантазией и реальностью может увеличиться. Чрезмерное погружение в ИИ может углубить недовольство, способствовать побегу от реальности и создать порочный круг, в котором общее удовлетворённость жизнью ещё больше снижается.»

Побег от реальности

Южная Корея стремительно внедрила генеративный ИИ.

Почти половина населения — 44,5 процента в 2025 году — использовала такие инструменты, согласно недавнему правительственному опросу: уровень проникновения, отражающий как мирового уровня цифровую инфраструктуру страны, так и культурный аппетит к технологической новизне, предшествующий нынешнему ИИ на десятилетия.

Южнокорейцы также потребляют больше «AI-slop» — низкокачественного, алгоритмически оптимизированного контента, разработанного под клики — чем любая другая группа населения на Земле, согласно отчёту видеомонтажной платформы Kapwing за 2025 год.

Те же генеративные инструменты, которые порождают вирусных бейсбольных богинь, используются для общения с пожилыми жителями через кукол-компаньонов на базе искусственного интеллекта, для заполнения рынков электронных книг машинными книгами — один из американских издателей, Luminary Books, по сообщениям, ежегодно выпускает до 9 000 электронных книг с помощью ИИ — и для выпуска «новостного» контента с такой скоростью, с которой не может сравниться человеческое редакционное суждение.

В стране, которую иногда прозвали «республикой пластической хирургии» из-за острого культурного акцента на внешности и имидже, ИИ нашёл плодородную почву как то, что Ким называет «инструментом, который обеспечивает косвенное удовлетворение подавленных желаний и разочарований»: цифровое зеркало, откалиброванное для отражения чего-то лучшего, чем оригинал. 

Офисные работники смотрят на свои мобильные телефоны во время обеденного перерыва в Сеуле. Фото: Reuters

Президент Ли Чжэ Мён неоднократно пытался позиционировать ИИ как краеугольный камень экономического будущего Южной Кореи. В январе страна приняла комплексный закон об ИИ, направленный на баланс между инновациями и этическими гарантиями в секторах с высоким воздействием, таких как здравоохранение, транспорт и финансы.

Однако критики отмечают, что его наказания значительно уступают тем, что предусмотрены Законом Европейского союза об искусственном интеллекте: этот разрыв может оказаться значимым, поскольку вред технологии становится всё труднее игнорировать.

Южная Корея уже испытала некоторые из этих вредов в самой сильной форме.

В 2024 году страну потрясла эпидемия дипфейк-порнографии, когда массовое создание и распространение сексуально откровенных изображений, созданных ИИ, направленных против женщин и несовершеннолетних, в основном распространяемых через зашифрованные чаты Telegram. Многие жертвы были школьницами, чьи образы были манипулированы одноклассниками.

С тех пор ИИ стал не менее мощным политическим оружием. Сфабрикованные телевизионные репортажи ложно внесли кандидата в мэры в список восходящих политических лидеров журнала Time. Песни K-pop, сгенерированные с помощью ИИ, использовались для восхваления политиков и высмеивания их оппонентов перед выборами.

Власти заявляют, что мобилизовали сотни сотрудников для мониторинга манипулируемого контента перед местными выборами в следующем месяце. 

Люди проходят мимо ручья в Чхонге, Сеул, в прошлом месяце. Почти половина населения Южной Кореи подверглась воздействию инструментов ИИ. Фото: AP

Экономические последствия тоже начинают ощущаться. Почти 98 процентов из 211 000 потерь рабочих мест среди молодежи в период с июля 2022 по июль 2025 года произошли в отраслях с высокой подверженностью автоматизации ИИ, согласно южнокорейскому информационному агентству AJP со ссылкой на данные Банка Кореи.

Занятость в секторе профессиональных, научных и технических услуг снизилась на 105 000 в феврале по сравнению с прошлым годом — это самое резкое снижение с момента введения текущей системы промышленной классификации в 2013 году.

В сфере образования студентов Сеульского национального университета застали на использовании искусственного интеллекта для списывания на выпускных экзаменах в декабре прошлого года, что привело к отмене оценок. Университет Ёнсе и Корейский университет ввели аналогичные меры против того, что студенты теперь открыто называют «читерством с помощью ИИ».

Тем временем, поддерживаемое правительством внедрение учебников, созданных с помощью ИИ, в начальных и средних школах вызвало широкую критику после того, как учителя сообщили о повсеместных фактических ошибках и пожаловались на дополнительную нагрузку на проверку фактов и проверку планшетов в классах перед каждым уроком.

«Здоровый и гуманный»?

Несмотря на выпуск первых этических рекомендаций по ИИ ещё в 2020 году, Южная Корея последовательно ставит развитие выше ценностей, по словам Чон Чан-бэ, председателя совета директоров Международной ассоциации по искусственному интеллекту и этике.

"A major reason is that AI-related ethical crises have not yet emerged on the same visible scale seen in countries like the US or China, but government agencies, academics, companies and citizens all need to begin discussing and researching solutions before larger problems emerge," he said.

"Given the scale of AI's influence, society needs to begin studying the problems that could arise from widespread AI use now, and prepare solutions proactively ... AI should not simply be treated like any ordinary technology. Its harmful consequences could affect human beings far more deeply than many previous technologies." 

Активисты в масках вновь протестуют против дипфейков сексуальных преступлений в Сеуле в 2024 году. Фото: AFP

Определённая степень злоупотребления и чрезмерной зависимости ИИ может в конечном итоге оказаться неизбежной, по мнению Кима, который утверждал, что вместо того чтобы зацикливаться на патологизации подобного поведения, обществам следует задавать более фундаментальный вопрос о том, что составляет полноценную человеческую жизнь в эпоху синтетического опыта.

«Общество может в конечном итоге прийти к выводу, что отказ от определённых форм поведения, вызванного ИИ, на самом деле способствует здоровой и гуманной жизни», — сказал он. «Если вокруг этой идеи возникнет широкий общественный консенсус, могут последовать новые формы гражданского образования и общественной осведомлённости. В конечном итоге это может стать решением для смягчения этих проблем.»

Пока же богиня бейсбола останется сидеть на своём месте — спокойной, сияющей и полностью воображаемой. И толпа будет продолжать смотреть.

South China Morning Post

Что означают планы Китая по «всеобъемлющему» новому закону об ИИ для будущего технологий?

Государственный совет изложил свои планы по «ускорению комплексного законодательства для эффективного развития» технологии

Китай впервые подтвердил, что разрабатывает «всеобъемлющий закон» об искусственном интеллекте.

Инсайдеры отрасли заявили, что этот шаг показывает, что Китай накопил достаточно практического опыта и ускоряет своё управление.

В законодательном плане на год, опубликованном на прошлой неделе Госсоветом кабинета министров Китая, изложены планы по «улучшению управления ИИ и ускорению комплексного законодательства для разумного развития ИИ».

В ней говорится, что правительство будет действовать быстрее для совершенствования законодательства, касающегося защиты и регулирования данных, вычислительной мощности, алгоритмов, прав собственности, кибербезопасности и цепочек поставок.

Это был первый случай, когда китайские власти использовали столь детальную формулировку для описания планируемого законодательства по ИИ. В прошлогоднем рабочем плане было просто указано, что власти будут «способствовать законодательной работе по развитию ИИ».

В то же время Всекитайский народный конгресс, национальный законодательный орган Китая, в третий год подряд включил законодательство по ИИ в список вопросов, подлежащих рассмотрению.

Ван Цзянтао, директор центра операций по соблюдению данных в шанхайской юридической фирме Joint-Win Partners, заявил, что изменённая формулировка «подчеркивает острую готовность страны ускорить создание правовой базы».

Она добавила, что термин «всеобъемлющее законодательство» означает, что власти будут учитывать множество элементов, включая данные, алгоритмы и кибербезопасность, вместо того чтобы сосредотачиваться на одной области.

Китай впервые поднял идею закона об ИИ в 2017 году, когда Государственный совет опубликовал «планы развития нового поколения ИИ», конкретно запрашивая набор законов, этики и политики к 2030 году.

С тех пор правила безопасности и этики, связанных с ИИ, были введены в поправках к действующим законам, а также в нормативные акты, направленные на защиту конфиденциальности пользователей, обеспечение безопасности данных и маркировку фотографий и видео, созданных ИИ, как таковые.

В последние годы бизнес, связанный с ИИ, в Китае резко вырос, чему способствуют местные органы власти, стремящиеся возродить вялую экономику с помощью передовых технологий.

Сейчас технология используется во всём — от образования и ухода за пожилыми людьми до государственного управления, а последний пятилетний план содержит 53 упоминания об искусственном интеллекте в 100-страничном документе.

Но на самом высоком уровне всегда существовали опасения по поводу рисков, связанных с ИИ, и президент Си Цзиньпин неоднократно заявлял, что он должен быть «безопасным, надёжным и контролируемым».

В январе он заявил провинциальным чиновникам, что необходимо не только использовать возможности для развития, которые предоставляет ИИ, но и укрепить управление, согласно докладу, опубликованному в этом месяце в Qiushi, ведущем теоретическом журнале Коммунистической партии.

«Новый раунд научно-технической революции и промышленной трансформации, представленный ИИ ... стимулирует многогранное развитие, но также несёт определённые потенциальные риски», — сказал он.

Инсайдеры отрасли согласились, что правовая система отстала от стремительного развития ИИ. Ван сказала, что научилась из своей юридической практики, что вопросы, которые необходимо срочно решать, включают источники обучающих данных, защиту авторских прав, атрибуцию ответственности, этику и прозрачность в отношении алгоритмов.

Она также отметила, что власти не внесли законодательство на раннем этапе, чтобы оставить пространство для развития отрасли.

«После многих лет стремительного развития технологические пути, основные риски и промышленный ландшафт ИИ стали яснее», — сказала она. «Продвижение всеобъемлющего закона в данный момент приведёт к систематическому установлению правил.»

Поиск в юридической базе данных China Judgements Online показал, что количество исков, связанных с ИИ, значительно увеличилось за последние годы. В таких случаях судьям часто приходилось балансировать между защитой прав и страхом, что суровое решение может затруднить развитие отрасли.

Во всём мире комплексные законы об ИИ по-прежнему редки.

Закон Европейского союза об ИИ, вступивший в силу в августе 2024 года, классифицировал приложения ИИ по уровню риска, который они представляют, используя четырёхуровневую систему классификации.

В прошлом году Япония также приняла закон, прояснивший обязанности и обязательства соответствующих заинтересованных сторон, включая правительство, исследовательские институты, операторов и общественность.

Лю Юнь, ассистент исследователя из Университета Цинхуа, на круглом столе по проекту китайского закона, который проходил в Ханчжоу на прошлой неделе, сообщил, что эти законопроекты могут дать некоторые инсайты.

Он отметил, что два возможных подхода: один из ЕС, ориентированный на риски, или японский, ориентированный на продвижение отрасли.

Однако он добавил, что Китай также должен реализовать политику, связанную с ИИ, изложенную в текущем пятилетнем плане.

Основным конфликтом в Китае был баланс между развитием и безопасностью, рассказал на мероприятии Сунь Сяося, декан Института цифрового верховенства права Чжэцзянского университета.

Он отметил, что фундаментальная напряжённость, которую нужно решить в законодательстве об ИИ, — это балансирование между развитием и безопасностью, добавив, что необходимо выявлять риски на протяжении жизненного цикла технологии.

Он предупредил, что оценка рисков сейчас возлагает слишком много вины на ИИ, и отметил, что некоторые страны слишком склонны к «жёсткому» управлению.

0 комментариев
Архив