Изображения, созданные искусственным интеллектом, открывают двери для тревожной тенденции, направленной на детей
Представляет ли искусственный интеллект угрозу для человечества?
Корреспондент Fox News Грейди Тримбл в программе "Специальный репортаж" рассказывает о последних опасениях, что эта технология выйдет из-под контроля
Искусственный интеллект открывает двери для тревожной тенденции создания людьми реалистичных изображений детей в сексуальной обстановке, что может увеличить количество случаев сексуальных преступлений против детей в реальной жизни, предупреждают эксперты.
Платформы искусственного интеллекта, способные имитировать человеческий разговор или создавать реалистичные изображения, взорвались популярностью в конце прошлого года до 2023 года после выпуска чатбота ChatGPT, который стал переломным моментом в использовании искусственного интеллекта. В то время как любопытство людей по всему миру было возбуждено этой технологией для выполнения рабочих или школьных заданий, другие использовали платформы в более неблаговидных целях.
Национальное агентство по борьбе с преступностью (National Crime Agency, NCA), ведущее агентство Великобритании по борьбе с организованной преступностью, предупредило на этой неделе, что распространение созданных машиной откровенных изображений детей оказывает "радикализирующее" воздействие, "нормализуя" педофилию и агрессивное поведение в отношении детей.
"По нашим оценкам, просмотр этих изображений - как реальных, так и сгенерированных искусственным интеллектом - существенно повышает риск того, что преступники сами перейдут к сексуальному насилию над детьми", - заявил Генеральный директор NCA Грэм Биггар (Graeme Biggar) в недавнем отчете.

По оценкам агентства, в Великобритании насчитывается до 830 000 взрослых, или 1,6% взрослого населения, которые в той или иной степени представляют сексуальную опасность для детей. По словам Биггара, эта цифра в 10 раз превышает количество заключенных в тюрьмах Великобритании.
По словам Биггара, большинство случаев сексуального насилия над детьми связано с просмотром откровенных изображений, а с помощью искусственного интеллекта создание и просмотр сексуальных изображений может "нормализовать" насилие над детьми в реальном мире.
"[Приведенные цифры] отчасти отражают лучшее понимание угрозы, которая исторически недооценивалась, а отчасти - реальный рост, вызванный радикализирующим влиянием Интернета, где широкое распространение видео и изображений насилия над детьми и их изнасилования, а также групп, делящихся и обсуждающих эти изображения, привело к нормализации такого поведения", - сказал Биггар.

В США происходит аналогичный взрыв использования искусственного интеллекта для создания сексуальных изображений детей.
"Детские изображения, включая изображения известных жертв, перерабатываются для этих действительно злых целей", - сказала в прошлом месяце Ребекка Портнофф, директор по науке о данных в Thorn, некоммерческой организации, занимающейся защитой детей, в интервью Washington Post.
"Идентификация жертв - это уже проблема "иголка в стоге сена", когда правоохранительные органы пытаются найти ребенка, находящегося в опасности", - сказала она. "Простота использования этих инструментов - значительный сдвиг, равно как и реалистичность. Это делает все более сложным"
Популярные сайты с искусственным интеллектом, которые могут создавать изображения по простым подсказкам, часто имеют рекомендации сообщества, запрещающие создавать тревожные фотографии.

Такие платформы обучаются на миллионах изображений со всего Интернета, которые служат для ИИ строительными блоками для создания убедительных изображений людей или мест, которых на самом деле не существует.
Midjourney, например, призывает к содержанию PG-13, которое избегает "наготы, половых органов, фиксации на обнаженной груди, людей в душевых или на унитазах, сексуальных образов, фетишей" В то время как DALL-E, платформа для создания изображений OpenAI, допускает только контент с рейтингом G, запрещая изображения, демонстрирующие "наготу, сексуальные действия, сексуальные услуги или контент, который иным образом призван вызывать сексуальное возбуждение" Однако, согласно различным отчетам об искусственном интеллекте и сексуальных преступлениях, на темных веб-форумах люди с дурными намерениями обсуждают обходные пути для создания тревожных изображений.

Биггар отметил, что созданные ИИ изображения детей также бросают полицию и правоохранительные органы в дебри расшифровки фальшивых изображений от изображений реальных жертв, которым нужна помощь.
"Использование ИИ для этих целей усложнит выявление реальных детей, нуждающихся в защите, и еще больше нормализует сексуальное насилие над детьми среди преступников и тех, кто находится на периферии правонарушений. Мы также считаем, что просмотр таких изображений - как реальных, так и созданных искусственным интеллектом - повышает риск того, что некоторые правонарушители перейдут к сексуальному насилию над детьми в реальной жизни", - сказал Биггар в комментарии, предоставленном Fox News Digital.
"В сотрудничестве с нашими международными партнерами-полицейскими мы объединяем наши технические навыки и возможности, чтобы понять угрозу и обеспечить наличие необходимых инструментов для борьбы с материалами, сгенерированными ИИ, и защиты детей от сексуального насилия"
Сгенерированные ИИ изображения также могут использоваться в мошенничестве, связанном с секс-вымогательством, и в прошлом месяце ФБР выпустило предупреждение об этих преступлениях.
Глубокие подделки часто включают в себя редактирование видео или фотографий людей, чтобы сделать их похожими на кого-то другого с помощью искусственного интеллекта глубокого обучения, и используются для преследования жертв или сбора денег, включая детей.
"Злоумышленники используют технологии и сервисы манипулирования контентом, чтобы использовать фотографии и видео - как правило, взятые из аккаунта человека в социальных сетях, открытого Интернета или запрошенные у жертвы - для создания изображений на сексуальную тематику, которые кажутся правдивыми и похожими на жертву, а затем распространяют их в социальных сетях, на общественных форумах или порнографических сайтах", - заявило ФБР в июне.
"Многие жертвы, среди которых были и несовершеннолетние, даже не подозревают, что их изображения были скопированы, подделаны и распространены, пока кто-то не обратит на это их внимание"