В первом крупном научном отчете о продвинутой безопасности ИИ говорится, что эта технология несет как преимущества, так и риски.
В новом докладе говорится, что искусственный интеллект общего назначения (ИИ) может повысить благосостояние, процветание и научные исследования в будущем, но также может использоваться для широко распространенной дезинформации и мошенничества, нарушения рабочих мест и усиления неравенства, передает unian.netКак пишет The Independent, исследование представляет собой первую версию Международного научного отчета о продвинутой безопасности ИИ, о котором впервые было объявлено на саммите по безопасности ИИ под руководством Великобритании в Блетчли-Парке в ноябре и было проведено экспертами по ИИ из 30 стран, включая Великобританию, США и Китай, а также ООН и ЕС.Помимо подчеркивания потенциальных преимуществ и рисков этой технологии, в докладе предупреждается, что среди экспертов нет единого мнения по ряду вопросов, касающихся ИИ, включая состояние текущих возможностей ИИ и то, как они могут развиваться с течением времени, а также вероятность экстремальных событий, и возникают риски, такие как потеря контроля над технологией.Промежуточный отчет был составлен независимыми экспертами, назначенными 30 странами, представителями ЕС и ООН, которые присутствовали на первом саммите по безопасности ИИ, но еще не получили существенного вклада от технологических компаний и компаний, занимающихся ИИ.В отчете определены три основные категории рисков, связанных с ИИ: злонамеренное использование, риски сбоев и системные риски.В докладе говорится, что злонамеренное использование может включать крупномасштабное мошенничество, дипфейки, дезинформацию, помощь в кибератаках или разработке биологического оружия.Потенциальные риски, связанные со сбоями в работе ИИ, включали опасения по поводу предвзятости, когда она была непреднамеренно встроена в системы и затем приводила к непропорциональному воздействию на разных людей, а также опасения по поводу потери контроля над системами ИИ, в частности, над любыми автономными системами ИИ.Среди опасений по поводу потенциальных системных рисков были его возможное влияние на рынок труда, опасения по поводу концентрации его развития на Западе и в Китае, создающей неравную систему с точки зрения доступа к технологиям, а также опасения по поводу рисков, которые ИИ представляет для конфиденциальности посредством моделей, обучающихся на личных или конфиденциальных данных.Также было подчеркнуто влияние развития ИИ на закон об авторском праве и влияние на климат развития ИИ – энергоемкого процесса.В нем делается вывод, что будущее ИИ общего назначения «неопределенно» с «очень хорошими» и «очень плохими» результатами, но в этой технологии нет ничего неизбежного, и необходимы дальнейшие исследования и обсуждения.Отчет станет отправной точкой для дискуссий на следующем саммите AI – Сеульском саммите AI – который пройдет виртуально в Южной Корее на следующей неделе.