Choose Country and Language

Конгресс должен остановить новый инструмент искусственного интеллекта, используемый для эксплуатации детей

Нам нужна помощь законодателей для борьбы с насилием над детьми в Интернете с помощью ИИ

Крупнейший игровой релиз заменяет актеров искусственным интеллектом

Мир игр сотрясают споры об искусственном интеллекте, которые могут пошатнуть многомиллиардную индустрию.

Сексуальные хищники используют новый мощный инструмент для эксплуатации детей - ИИ-генераторы образов. Согласно недавнему отчету британской организации Internet Watch Foundation, пользователи одного форума в темной паутине всего за месяц выложили в общий доступ почти 3 000 сгенерированных ИИ изображений сексуального насилия над детьми.

К сожалению, существующие законы о сексуальном насилии над детьми устарели. Они не учитывают уникальные опасности, которые таит в себе ИИ и другие новые технологии. Законодатели должны действовать быстро, чтобы установить правовую защиту.

Национальная КиберТиплайн (CyberTipline) - система оповещения о подозрениях на эксплуатацию детей в Интернете - получила ошеломляющие 32 миллиона сообщений в 2022 году, по сравнению с 21 миллионом всего за два года до этого. Эта и без того тревожная цифра, несомненно, будет расти с развитием платформ искусственного интеллекта, генерирующих изображения.

Платформы ИИ "обучаются" на существующих визуальных материалах. Источниками для создания изображений жестокого обращения могут быть лица реальных детей, взятые из социальных сетей, или фотографии реальных случаев эксплуатации. Учитывая десятки миллионов изображений жестокого обращения в Интернете, существует практически неисчерпаемый объем исходного материала, на основе которого ИИ может создавать еще более вредные изображения.

Самые продвинутые изображения, сгенерированные ИИ, теперь практически неотличимы от неизмененных фотографий. Следователи обнаружили новые изображения старых жертв, изображения "постаревших" знаменитостей, которые в сценариях насилия изображены как дети, и "обнаженные" изображения, взятые из других доброкачественных фотографий одетых детей.

Масштабы проблемы растут с каждым днем. Программное обеспечение для преобразования текста в изображение может легко создавать изображения насилия над детьми на основе того, что хочет увидеть преступник. Многие из этих технологий можно скачать, поэтому преступники могут создавать изображения в режиме оффлайн, не опасаясь разоблачения.

Использование искусственного интеллекта для создания изображений сексуального насилия над детьми - это не преступление без жертв. За каждым изображением ИИ стоят реальные дети. Люди, пережившие эксплуатацию в прошлом, подвергаются повторной виктимизации, когда создаются новые изображения с их изображением. А исследования показывают, что большинство тех, кто хранит или распространяет материалы о сексуальном насилии над детьми, также совершают насилие собственноручно.

Взрослые также могут использовать платформы ИИ, генерирующие текст, такие как ChatGPT, чтобы лучше заманивать детей, обновляя старую тактику. Преступники уже давно используют поддельные сетевые личности, чтобы знакомиться с молодыми людьми в играх или социальных сетях, завоевывать их доверие и манипулировать ими, заставляя отправлять откровенные изображения, а затем "секстортировать" их за деньги, больше фотографий или физические действия.

Но ChatGPT позволяет с шокирующей легкостью маскироваться под ребенка или подростка с помощью юношеских выражений. Современные преступники могут использовать платформы искусственного интеллекта для создания реалистичных сообщений с целью заставить подростка вступить в онлайновое взаимодействие с человеком, которого он считает своим ровесником. Еще страшнее то, что многие современные инструменты ИИ способны быстро "учиться" - и, следовательно, обучать людей - тому, какие методы обхаживания являются наиболее эффективными.

Искусственный интеллект
Искусственный интеллект (ИИ) стремительно развивается, принося нам беспрецедентные выгоды, но в то же время создавая серьезные риски, такие как химическая, биологическая, радиологическая и ядерная (CBRN) угроза (Cyberguy.com)

Искусственный интеллект (ИИ) стремительно развивается, принося нам беспрецедентные выгоды, но в то же время создавая серьезные риски, такие как химическая, биологическая, радиологическая и ядерная (CBRN) угроза (Cyberguy.com)

Президент Байден недавно подписал указ, направленный на управление рисками ИИ, включая защиту частной жизни и персональных данных американцев. Но нам нужна помощь законодателей, чтобы справиться с насилием над детьми в Интернете с помощью ИИ.

Для начала нам необходимо обновить федеральное юридическое определение материалов о сексуальном насилии над детьми, чтобы включить в него изображения, созданные ИИ. В соответствии с действующим законодательством, обвинители должны доказать причинение вреда реальному ребенку. Но это требование не соответствует современным технологиям. Команда защиты может заявить, что материалы, созданные ИИ для сексуального насилия над детьми, не изображают реального ребенка и поэтому не причиняют вреда, хотя мы знаем, что изображения, созданные ИИ, часто берут за основу исходные материалы, жертвами которых становятся реальные дети.

Во-вторых, мы должны принять политику, обязывающую технологические компании постоянно отслеживать и сообщать об эксплуатационных материалах. Некоторые компании проактивно проверяют наличие таких изображений, но это не является обязательным требованием. Только три компании были ответственны за 98% всех кибертипов в 2020 и 2021 годах: Facebook, Google и Snapchat.

Законы о сексуальном насилии над детьми во многих штатах определяют "обязательных репортеров", или специалистов, таких как учителя и врачи, которые по закону обязаны сообщать о подозрениях в насилии. Но в эпоху, когда большую часть своей жизни мы живем в сети, сотрудники социальных сетей и других технологических компаний должны иметь аналогичные обязанности по информированию, предусмотренные законом.

Наконец, нам нужно переосмыслить то, как мы используем сквозное шифрование, при котором только отправитель и получатель могут получить доступ к содержимому сообщения или файла. Несмотря на то, что у этого метода есть свои применения, например, в банковских или медицинских документах, сквозное шифрование также может помочь людям хранить и обмениваться изображениями насилия над детьми. Чтобы проиллюстрировать, как много злоумышленников могут остаться незамеченными, вспомните, что из 29 миллионов сообщений, полученных CyberTipline в 2021 году, всего 160 поступило от Apple, которая поддерживает сквозное шифрование в сообщениях iMessages и iCloud.

Даже если у правоохранительных органов есть ордер на доступ к файлам преступника, технологическая компания со сквозным шифрованием может заявить, что она не может получить доступ к этим файлам и ничем не может помочь. Несомненно, индустрия, построенная на инновациях, способна разработать решения для защиты наших детей - и сделать это приоритетом.

Технологии ИИ и социальные сети развиваются каждый день. Если законодатели примут меры сейчас, мы сможем предотвратить широкомасштабный вред, наносимый детям.

Тереза Хуизар - генеральный директор Национального детского альянса, крупнейшей в Америке сети центров помощи жертвам насилия над детьми.

Изначально опубликовано на FoxNews 3 января 2024 г., автор Teresa Huizar.

Logo of the Stop Child Abuse non profit (ngo/ong) organization

Существует множество способов принять участие и внести свой вклад в предотвращение жестокого обращения с детьми. Действуйте и выбирайте то, что подходит именно вам.

Publish modules to the "offcanvs" position.