29.07.2023, 12:00
Количество просмотров 1232

Google, Microsoft, OpenAI и Anthropic объявили о создании отраслевой группы для содействия безопасной разработке ИИ

О создании новой организации, получившей название Frontier Model Forum (Форум моделей освоения), объявили в среду компании Google, Microsoft, OpenAI и Anthropic.
Google, Microsoft, OpenAI и Anthropic объявили о создании отраслевой группы для содействия безопасной разработке ИИ

Ряд ведущих мировых компаний в области разработки искусственного интеллекта создают новую отраслевую организацию для совместной работы с ключевыми фигурами политики, науки и бизнеса над способами регулирования развития самого передового ИИ. 

По словам представителей перечисленных компаний, в задачи форума будет входить выработка лучших практик обеспечения безопасности ИИ, содействие исследованиям рисков, связанных с ним, и публичный обмен информацией с правительствами и гражданским обществом.

Заявление, свидетельствует о том, что разработчики ИИ объединяются вокруг добровольных защитных механизмов в преддверии ожидаемого этой осенью законотворческого процесса в США и Евросоюзе по разработке обязательного законодательства для этой отрасли.

Сообщение о форуме появилось после того, как четыре указанных компании, а также ряд других, включая Amazon и Meta, взяли обязательство перед администрацией Байдена подвергать свои системы искусственного интеллекта тестированию третьими сторонами, прежде чем пускать их в открытый доступ, а также четко маркировать контент, созданный ИИ.

Как говорится в совместном заявлении компаний, отраслевой форум, открытый для множества компаний, разрабатывающих самые передовые модели ИИ, планирует выложить свои технические оценки и контрольные показатели в общедоступную библиотеку.

«Компании, создающие технологии искусственного интеллекта, несут ответственность за то, чтобы они были безопасными, надёжными и оставались под контролем человека, – заявил президент Microsoft Брэд Смит. – Данная инициатива – важный шаг к объединению усилий технологического сектора в ответственном продвижении ИИ, решении возникающих в связи этим сложных задач и обеспечении пользы всему человечеству».

Заявление было сделано на следующий день после того, как эксперты в области ИИ, в частности, генеральный директор Anthropic Дарио Амодей и пионер ИИ Йошуа Бенгио, предупредили законодателей о потенциально серьёзных и даже «катастрофических» рисках для общества, связанных с неограниченным развитием ИИ.

«В частности, я обеспокоен тем, что системы искусственного интеллекта могут быть использованы в крупных масштабах в области кибербезопасности, ядерных технологий, химии и особенно биологии», – заявил Амодей в своих письменных показаниях Сенату США.

По словам Амодея, в течение двух-трех лет ИИ может стать достаточно мощным, чтобы помочь злоумышленникам создать функциональное биологическое оружие, в то время как сегодня таким преступникам может пока что не хватать специальных знаний, необходимых для завершения процесса.

«Лучший способ предотвратить серьезный вред, отметил Бенджио на заседании Сената, – ограничить доступ к системам ИИ; разработать стандартные и эффективные режимы тестирования и убедиться, что такие системы отражают наши общественные ценности; ограничить объем мира, который может действительно понять отдельно взятая система ИИ; а также ограничить влияние систем ИИ на реальный мир».

Европейский союз движется к принятию закона, который может быть окончательно утверждён уже в этом году. Такой нормативный акт запретит использование искусственного интеллекта для аналитической работы полиции и ограничит его применение в сценариях с низким уровнем риска.

Законодатели США значительно отстают. Хотя в Конгресс уже внесён ряд законопроектов, связанных с ИИ, основная движущая сила в разработке комплексного законопроекта об ИИ находится в руках лидера большинства в Сенате Чака Шумера. Летом этого года он провёл серию брифингов, на которых ознакомил членов Сената с основами этой отрасли.

По словам Шумера, начиная с сентября, Сенат США проведёт серию из девяти дополнительных заседаний, на которых сенаторы смогут узнать о том, как ИИ может повлиять на рабочие места, национальную безопасность и интеллектуальную собственность.

По материалам CNN (Брайан Фунг), Retail&Loyalty

Рубрика:
{}Исследования
Новости в вашей почте
mail

PLUSworld в соцсетях:
telegram
vk
dzen
youtube