Эксперты призвали законодателей устранить лазейки в действующем законе о материалах, посвященных сексуальному насилию над детьми
Законодатели, эксперты в области технологий бьют тревогу по поводу потенциальных опасностей ИИ
Кара Фредерик, директор по технологиям Фонда "Наследие", рассуждает о необходимости регулирования искусственного интеллекта, в то время как законодатели и технологические титаны обсуждают потенциальные риски.
Наблюдательный совет по интернету бьет тревогу в связи с растущей тенденцией сотрудничества сексуальных преступников в сети для использования искусственного интеллекта с открытым исходным кодом для создания материалов о сексуальном насилии над детьми.
"Существует техническое сообщество в среде преступников, особенно на форумах темной паутины, где они обсуждают эту технологию", - сказал Дэн Секстон (Dan Sexton), директор по технологиям Internet Watch Foundation (IWF), в своем отчете The Guardian на прошлой неделе. "Они делятся изображениями, они делятся моделями [ИИ]. Они делятся руководствами и советами"
Организация Секстона обнаружила, что преступники все чаще обращаются к моделям ИИ с открытым исходным кодом, чтобы создавать незаконные материалы о сексуальном насилии над детьми (CSAM) и распространять их в Интернете. В отличие от закрытых моделей ИИ, таких как Dall-E от OpenAI или Imagen от Google, технологии ИИ с открытым исходным кодом могут загружаться и настраиваться пользователями, говорится в отчете. По словам Секстона, возможность использовать такую технологию распространилась среди преступников, которые выходят в темную сеть, чтобы создавать и распространять реалистичные изображения.

"Контент, который мы видели, по нашему мнению, на самом деле создается с помощью открытого программного обеспечения, которое загружается и запускается локально на компьютерах людей, а затем изменяется. И эту проблему гораздо сложнее решить", - сказал Секстон. "Его учили, что такое материалы о сексуальном насилии над детьми, и учили, как их создавать"
По словам Секстона, в онлайновых обсуждениях, которые ведутся в темной паутине, фигурируют изображения детей знаменитостей и общедоступные изображения детей. В некоторых случаях изображения жертв насилия над детьми используются для создания совершенно нового контента.
"Все эти идеи вызывают озабоченность, и мы видели, как они обсуждаются", - сказал Секстон.

Кристофер Александр, главный аналитик Pioneer Development Group, рассказал Fox News Digital, что одна из новых опасностей этой технологии заключается в том, что она может быть использована для приобщения большего количества людей к CSAM. С другой стороны, ИИ можно использовать для сканирования Интернета в поисках пропавших людей, даже используя "возрастную прогрессию и другие факторы, которые могут помочь найти детей, ставших жертвами торговли людьми"
"Итак, генеративный ИИ - это проблема, ИИ и машинное обучение - это инструмент для борьбы с ней, даже просто путем обнаружения", - сказал Александр.
"Чрезвычайная опасность, создаваемая этой технологией, будет иметь огромные последствия для благополучия Интернета. Там, где эти компании не справляются, Конгресс должен решительно взяться за дело и принять меры по защите детей и Интернета в целом"
Тем временем Джонатан Д. Асконас, доцент кафедры политики и научный сотрудник Центра изучения государственного управления при Католическом университете Америки, сказал Fox News Digital, что "законодатели должны действовать уже сейчас, чтобы укрепить законы против производства, распространения и владения CSAM на основе ИИ, а также закрыть лазейки, оставшиеся с прежних времен"
По словам Секстона, IWF, который занимается поиском CSAM в Интернете и помогает координировать их удаление, может оказаться перегруженным советами по удалению такого контента из Сети в эпоху ИИ, отметив, что распространение таких материалов уже широко распространено в Сети.
"Сексуальное насилие над детьми в Интернете уже, как мы считаем, является эпидемией общественного здравоохранения", - сказал Секстон, по сообщению The Guardian. "Так что это не сделает проблему лучше. Потенциально это только усугубит ее"
Зивен Хейвенс, директор по политике в Bull Moose Project, сказал Fox News Digital, что Конгресс должен принять меры, чтобы защитить детей и Интернет.

"Используя уже имеющиеся изображения реальных жертв насилия, искусственный интеллект CSAM мало чем отличается от CSAM, созданного не искусственным интеллектом. Она столь же морально развращена и отвратительна. Чрезвычайная опасность, создаваемая этой технологией, будет иметь огромные последствия для благополучия Интернета", - сказал Хейвенс. "Там, где эти компании не справляются, Конгресс должен решительно взяться за дело и принять меры по защите детей и Интернета в целом"
Майкл Ли - автор Fox News. До прихода на Fox News Майкл работал в Washington Examiner, Bongino.com и Unbiased America. Он освещает политику уже более восьми лет.