США создадут Институт безопасности искусственного интеллекта для разработки стандартов и обеспечения их соблюдения компаниями
Генеральный директор ИИ-компании рассказывает о новой платформе надежности контента
Генеральный директор компании Seekr Technologies Пэт Кондо (Pat Condo) рассказал Fox News Digital о сотрудничестве с Беаром Гриллсом (Bear Grylls), направленном на повышение уровня цифровой медиаграмотности среди молодежи.
Эксперты рассказали Fox News Digital, что план администрации Байдена по созданию комиссии по безопасности искусственного интеллекта (ИИ) может оказаться "необходимым", но не "достаточным" для устранения потенциальных рисков, связанных с развивающейся технологией.
"Скорее всего, [алгоритм] - это не то место, где лежит большая часть риска", - сказал Фил Сигел, основатель Центра моделирования повышенной готовности и реагирования на угрозы (CAPTRS). "Скорее всего, риск заключается в том, что пользователи используют его во вред или просто неправильно"
В понедельник президент Байден подписал указ, который, по словам Белого дома, включает "самые масштабные меры, когда-либо принятые для защиты американцев от потенциальных рисков систем искусственного интеллекта" - требование к компаниям уведомлять правительство при обучении новых моделей и делиться результатами "тестов на безопасность при чтении"
"Эти меры обеспечат безопасность, надежность и надежность систем искусственного интеллекта до того, как компании представят их общественности", - говорится в распоряжении Белого дома.
Администрация также объявила о создании Института безопасности ИИ - под надзором Национального института стандартов и технологий, - который будет "устанавливать строгие стандарты для всестороннего тестирования с целью обеспечения безопасности перед публичным выпуском"

Выступая на саммите Блетчли-Парк в Великобритании, министр торговли США Джина Раймондо заявила в среду, что администрация Байдена будет использовать свой новый Институт безопасности ИИ для оценки известных и возникающих рисков "передовых" моделей ИИ и что частный сектор "должен сделать шаг вперед"
Сигел сравнил подход Белого дома с тем, как авиакомпания проверяет план "безопасности", но не проверяет процедуры технического обслуживания, подготовку пилотов или экипажей.
"Все они необходимы", - сказал он. "Точно так же совет по безопасности не может просто проверять алгоритмы. Она должна проверить процедуры для пользователей"

"Мы можем заставить поставщиков технологий помогать", - продолжил он. "Как мы заставляем банки обеспечивать процедуры KYC (знай своего клиента) для предотвращения отмывания денег, мы можем потребовать от поставщиков технологий обеспечивать KYC для безопасности пользовательских приложений", - добавил Сигел.
Центр моделирования повышенной готовности и реагирования на угрозы регулярно решает подобные проблемы, изучая процесс принятия решений и интуицию пользователей в здравоохранении, инженерном деле, государственной политике и других отраслях, и обучая их в играх, чтобы улучшить эти навыки. Таким образом, поведение пользователей остается главной проблемой - как и в случае с ИИ.
Многие критики ИИ с начала этого года подчеркивают огромное количество подводных камней, которые таит в себе эта технология: от технологии глубокой подделки, срывающей выборы и создающей материалы о насилии над детьми, до использования алгоритмов, созданных ИИ, для взлома даже самых сложных систем цифровой безопасности и доступа к конфиденциальной информации.

Кристофер Александер, главный аналитик Pioneer Development Group, признал, что хотя это хорошая идея - заставить компании делиться своей информацией, а не прятать ее - в том, что один из экспертов ранее назвал "черным ящиком" контента для Fox News Digital - нынешняя система, похоже, не имеет "прозрачного процесса обжалования"
Александр сказал Fox News Digital, что он также обеспокоен тем, что "политические цели могут повлиять на процесс утверждения безопасности", поскольку агентство, созданное по указу исполнительной власти, ставит свое руководство в зависимость от действующего президента.
Некоторые критики уже высказывали опасения по поводу политической предвзятости, как, например, в случае с Китаем, требующим, чтобы любая новая технология искусственного интеллекта соответствовала социалистическим ценностям правящей партии.
Грег Норман из Fox News Digital и агентство Reuters внесли свой вклад в подготовку этого отчета.
Питер Эйткен - репортер Fox News Digital, специализирующийся на национальных и глобальных новостях.