
Использование универсального ИИ грозит появлением принципиально новых рисков

Международный научный отчет о безопасности ИИ не случайно публикуется перед масштабным международным саммитом по ИИ, который пройдет 10–11 февраля 2025 года в Париже. Документ поддержали 30 страны, включая США и Китай, что знаменует собой редкий случай сотрудничества между двумя странами в условиях их борьбы за достижение превосходства в области ИИ. О последней свидетельствует пример китайского стартапа DeepSeek, недавно удивившего цифровое сообщество успехом своего бюджетного чат-бота, несмотря на экспортный контроль США за последними моделями чипов, ввозимых в эту страну.
Отчет группы независимых экспертов представляет собой синтез итогов существующих исследований, призванных помочь официальным лицам, занимающимся вопросами разработки защитных барьеров для быстро развивающейся технологии, заявил в интервью Associated Press известный эксперт в области ИИ Йошуа Бенджио (Yoshua Bengio), руководивший исследованием.
«Ставки высоки», — говорится в отчете, где отмечается, что если несколько лет назад лучшие системы ИИ едва могли выдать связный абзац текста, то теперь они могут писать компьютерные программы, генерировать реалистичные изображения и вести длительные беседы.
Хотя некоторые риски от использования ИИ, такие как дипфейки, мошенничество и необъективные результаты, уже широко известны, в отчете говорится, что «по мере того, как универсальный ИИ становится все более эффективным, появляются свидетельства дополнительных рисков», при этом методы управления данными рисками находятся сейчас только на ранних стадиях.
Это происходит на фоне предупреждений об опасностях использования искусственного интеллекта, поступающих на этой неделе от Ватикана и группы, стоящей за Часами Судного дня.
В отчете основное внимание уделяется универсальному ИИ, типичным примером которого являются чат-боты, такие как ChatGPT от OpenAI, используемые для выполнения множества различных видов задач. Риски делятся на три категории: злонамеренное использование, сбои и широко распространенные «системные» риски.
Йошуа Бенджио, который в 2019 году вместе с двумя другими пионерами ИИ получил главную премию в области компьютерных наук, сообщил, что не все из 100 экспертов, которые объединились для подготовки отчета, согласны с тем, чего ожидать от ИИ в будущем. Среди самых значительных разногласий в сообществе исследователей ИИ — оценка неизбежного момента, когда данная быстро развивающаяся технология превзойдет человеческие возможности в решении различных задач.
«Они также не достигли согласия по поводу сценариев, — комментирует Йошуа Бенджио. — Конечно, ни у кого нет возможности заглянуть в будущее. Некоторые сценарии очень полезны. Некоторые ужасают. И я думаю, что политикам и общественности действительно важно критически оценивать эту неопределенность».
Исследователи углубились в детали, связанные с возможными рисками. Например, ИИ упрощает изучение сценариев создания биологического или химического оружия, поскольку модели ИИ могут предлагать пошаговые планы. Но «неясно, насколько хорошо они отражают практические проблемы» оснащения вооружениями и доставки средств поражения, говорится в отчете. Универсальный ИИ также, вероятно, преобразует ряд рабочих мест и уже «вытесняет работников», говорится в отчете, отмечая, однако, что некоторые исследователи считают: ИИ может создать больше рабочих мест, чем отнять, в то время как другие думают, что он приведет к снижению заработной платы или уровня занятости, хотя существует большая неопределенность относительно того, как это будет происходить.
Системы ИИ также могут выйти из-под контроля – либо потому, что они последовательно и активно сводят на нет контроль со стороны человека, либо люди уделяют меньше внимания таким вопросам, говорится в отчете.
Однако ряд факторов затрудняют управление рисками, в том числе то, что разработчики ИИ мало знают о том, как работают их модели.
Подготовка доклада был заказана на первом мировом саммите по безопасности ИИ, организованном Великобританией в ноябре 2023 года, где страны договорились работать вместе, чтобы сдерживать потенциально «катастрофические риски». На последующей встрече, организованной Южной Кореей в 2024 году, компании ИИ обязались укреплять контроль использования ИИ, в то время как мировые лидеры поддержали создание сети государственных институтов безопасности ИИ.
Отчет, также поддержанный ООН и Европейским союзом, призван сохранить свое значение в условиях изменений в мировых правительствах, таких, как недавняя смена президента в США, оставляя каждой стране возможность выбора того, как именно она будет реагировать на риски ИИ. Характерно, что президент США Дональд Трамп в самый первый день своего пребывания в должности отменил политику своего предшественника Джо Байдена в отношении обеспечения безопасности ИИ и поручил своей новой администрации разработать собственный подход. В то же время Трамп не предпринял никаких шагов для роспуска Института безопасности ИИ, созданный Байденом в 2024 году и входящий в растущую международную сеть таких центров.
Ожидается, что мировые лидеры, руководители технологических компаний и гражданское общество снова соберутся на Парижском саммите AI Action Summit в феврале. Французские официальные лица заявили, что страны подпишут «общую декларацию» о развитии ИИ и договорятся принять обязательство по устойчивому развитию технологии.
Йошуа Бенджио подчеркнул, что цель отчета заключалась не в том, чтобы «предложить конкретный способ оценки систем или что-то в этом роде». Авторы воздержались от расстановки приоритетов в отношении конкретных рисков или предоставления конкретных рекомендаций по политике. Вместо этого они просто изложили те факты, о которых упоминается в научной литературе по ИИ «в доступной форме для понимания политиков». «Нам нужно лучше понимать системы, которые мы создаем, и риски, которые с ними связаны, чтобы мы могли принимать эти более обоснованные решения в будущем», — отметил он.
По материалам apnews.com; PLUSworld.ru.