Choose Country and Language

Искусственный интеллект может помочь "нормализовать" сексуальное насилие над детьми, когда графические изображения появляются в Интернете: эксперты

Изображения, созданные искусственным интеллектом, открывают двери для тревожной тенденции, направленной на детей

Представляет ли искусственный интеллект угрозу для человечества?

Корреспондент Fox News Грейди Тримбл в программе "Специальный репортаж" рассказывает о последних опасениях, что эта технология выйдет из-под контроля

Искусственный интеллект открывает двери для тревожной тенденции создания людьми реалистичных изображений детей в сексуальной обстановке, что может увеличить количество случаев сексуальных преступлений против детей в реальной жизни, предупреждают эксперты.

Платформы искусственного интеллекта, способные имитировать человеческий разговор или создавать реалистичные изображения, взорвались популярностью в конце прошлого года до 2023 года после выпуска чатбота ChatGPT, который стал переломным моментом в использовании искусственного интеллекта. В то время как любопытство людей по всему миру было возбуждено этой технологией для выполнения рабочих или школьных заданий, другие использовали платформы в более неблаговидных целях.

Национальное агентство по борьбе с преступностью (National Crime Agency, NCA), ведущее агентство Великобритании по борьбе с организованной преступностью, предупредило на этой неделе, что распространение созданных машиной откровенных изображений детей оказывает "радикализирующее" воздействие, "нормализуя" педофилию и агрессивное поведение в отношении детей.

"По нашим оценкам, просмотр этих изображений - как реальных, так и сгенерированных искусственным интеллектом - существенно повышает риск того, что преступники сами перейдут к сексуальному насилию над детьми", - заявил Генеральный директор NCA Грэм Биггар (Graeme Biggar) в недавнем отчете.

Грэм Биггар
Генеральный директор Национального агентства по борьбе с преступностью Грэм Биггар во время заседания Совета полиции Северной Ирландии в Джеймс Хаус, Белфаст, 1 июня 2023 г. (Фото: Liam McBurney/PA Images via Getty Images)

По оценкам агентства, в Великобритании насчитывается до 830 000 взрослых, или 1,6% взрослого населения, которые в той или иной степени представляют сексуальную опасность для детей. По словам Биггара, эта цифра в 10 раз превышает количество заключенных в тюрьмах Великобритании.

По словам Биггара, большинство случаев сексуального насилия над детьми связано с просмотром откровенных изображений, а с помощью искусственного интеллекта создание и просмотр сексуальных изображений может "нормализовать" насилие над детьми в реальном мире.

"[Приведенные цифры] отчасти отражают лучшее понимание угрозы, которая исторически недооценивалась, а отчасти - реальный рост, вызванный радикализирующим влиянием Интернета, где широкое распространение видео и изображений насилия над детьми и их изнасилования, а также групп, делящихся и обсуждающих эти изображения, привело к нормализации такого поведения", - сказал Биггар.

Компьютер с искусственным интеллектом
Иллюстрации искусственного интеллекта на ноутбуке с книгами на заднем плане на этой иллюстративной фотографии 18 июля 2023 г. (Фото: Jaap Arriens/NurPhoto via Getty Images)

В США происходит аналогичный взрыв использования искусственного интеллекта для создания сексуальных изображений детей.

"Детские изображения, включая изображения известных жертв, перерабатываются для этих действительно злых целей", - сказала в прошлом месяце Ребекка Портнофф, директор по науке о данных в Thorn, некоммерческой организации, занимающейся защитой детей, в интервью Washington Post.

"Идентификация жертв - это уже проблема "иголка в стоге сена", когда правоохранительные органы пытаются найти ребенка, находящегося в опасности", - сказала она. "Простота использования этих инструментов - значительный сдвиг, равно как и реалистичность. Это делает все более сложным"

Популярные сайты с искусственным интеллектом, которые могут создавать изображения по простым подсказкам, часто имеют рекомендации сообщества, запрещающие создавать тревожные фотографии.

Девочка-подросток
Девочка-подросток в темной комнате.(Getty Images)

Такие платформы обучаются на миллионах изображений со всего Интернета, которые служат для ИИ строительными блоками для создания убедительных изображений людей или мест, которых на самом деле не существует.

Midjourney, например, призывает к содержанию PG-13, которое избегает "наготы, половых органов, фиксации на обнаженной груди, людей в душевых или на унитазах, сексуальных образов, фетишей" В то время как DALL-E, платформа для создания изображений OpenAI, допускает только контент с рейтингом G, запрещая изображения, демонстрирующие "наготу, сексуальные действия, сексуальные услуги или контент, который иным образом призван вызывать сексуальное возбуждение" Однако, согласно различным отчетам об искусственном интеллекте и сексуальных преступлениях, на темных веб-форумах люди с дурными намерениями обсуждают обходные пути для создания тревожных изображений.

Полицейская машина
Полицейская машина со знаком 911.(Getty Images)

Биггар отметил, что созданные ИИ изображения детей также бросают полицию и правоохранительные органы в дебри расшифровки фальшивых изображений от изображений реальных жертв, которым нужна помощь.

"Использование ИИ для этих целей усложнит выявление реальных детей, нуждающихся в защите, и еще больше нормализует сексуальное насилие над детьми среди преступников и тех, кто находится на периферии правонарушений. Мы также считаем, что просмотр таких изображений - как реальных, так и созданных искусственным интеллектом - повышает риск того, что некоторые правонарушители перейдут к сексуальному насилию над детьми в реальной жизни", - сказал Биггар в комментарии, предоставленном Fox News Digital.

"В сотрудничестве с нашими международными партнерами-полицейскими мы объединяем наши технические навыки и возможности, чтобы понять угрозу и обеспечить наличие необходимых инструментов для борьбы с материалами, сгенерированными ИИ, и защиты детей от сексуального насилия"

Сгенерированные ИИ изображения также могут использоваться в мошенничестве, связанном с секс-вымогательством, и в прошлом месяце ФБР выпустило предупреждение об этих преступлениях.

Глубокие подделки часто включают в себя редактирование видео или фотографий людей, чтобы сделать их похожими на кого-то другого с помощью искусственного интеллекта глубокого обучения, и используются для преследования жертв или сбора денег, включая детей.

"Злоумышленники используют технологии и сервисы манипулирования контентом, чтобы использовать фотографии и видео - как правило, взятые из аккаунта человека в социальных сетях, открытого Интернета или запрошенные у жертвы - для создания изображений на сексуальную тематику, которые кажутся правдивыми и похожими на жертву, а затем распространяют их в социальных сетях, на общественных форумах или порнографических сайтах", - заявило ФБР в июне.

"Многие жертвы, среди которых были и несовершеннолетние, даже не подозревают, что их изображения были скопированы, подделаны и распространены, пока кто-то не обратит на это их внимание"

Изначально опубликовано на FoxNews 20 июля 2023 г., автор Emma Colton.

Logo of the Stop Child Abuse non profit (ngo/ong) organization

Существует множество способов принять участие и внести свой вклад в предотвращение жестокого обращения с детьми. Действуйте и выбирайте то, что подходит именно вам.

Publish modules to the "offcanvs" position.