США, Великобритания, Германия и еще 15 государств подписали соглашение о защите потребителей от неправомерного использования искусственного интеллекта (ИИ).
В 20-страничном документе, обнародованном в понедельник, 27 ноября, представлены рекомендации для компаний-разработчиков ИИ с целью защитить системы с искусственным интеллектом от злоумышленников, передает dw.comВ частности, компаниям, разрабатывающим и внедряющим ИИ, рекомендуется сделать эти системы «безопасными по структуре», чтобы их не могли использовать в своих интересах киберпреступники, а конфиденциальные данные пользователей не попадали к третьим лицам. При этом потенциальные риски должны учитываться на всех стадиях работы с ИИ, говорится в соглашении: на стадии разработки, внедрения, эксплуатации и обслуживания.»Системы искусственного интеллекта подвержены новым уязвимостям, которые необходимо учитывать наряду со стандартными угрозами кибербезопасности. Когда темпы развития высоки — как в случае с искусственным интеллектом — безопасность часто может отходить на второй план. Однако безопасность должна быть основным требованием не только на этапе разработки, но и на протяжении всего жизненного цикла системы», — отмечается в документе.Инструкции не имеют обязательной силы, тем не менее эксперты считают соглашение с участием 18 государств важным шагом. По словам директора американского Управления кибербезопасности и Агентства по безопасности инфраструктуры Джен Истерли, этот документ подчеркивает, что технологии ИИ представляют собой «не просто крутые функции, которые можно быстро вывести на рынок», — самым важным аспектом при их разработке является безопасность.Ранее Евросоюз, Германия, Франция, США и некоторые другие страны, а также представители крупных IT-концернов, включая менеджеров компании-создателя ChatGPT Open AI и основателя компаний Tesla и SpaceX Илона Маска, подписали «Декларацию Блечли», призывающую к безопасной разработке и внедрению технологий искусственного интеллекта.