27 ноября 2023, 16:31
Количество просмотров 1218

Первый юбилей ChatGPT. Год, который изменил мир

Сервис ChatGPT был запущен 30 ноября 2022 года и привлек внимание своими широкими возможностями: написание кода, создание текстов, возможности перевода, получения точных ответов, использование контекста диалога для ответов и т. п. Что можно сказать сегодня по поводу того, как массовое использование нейросетей изменило социум и рынок, возможности его участников и запросы потребителей, а также саму идеологию розничного бизнеса? Эти и другие вопросы мы предложили проанализировать нашему постоянному автору Антону Дождикову, аналитику данных, кандидату политических наук.
Первый юбилей ChatGPT. Год, который изменил мир

ПЛАС: Итак, как ChatGPT изменил мир за последние 12 месяцев?

А. Дождиков: Я использую ChatGPT для написания кода. Сервис идеально подходит для тех, для кого программирование не является основной профессией, а спектр решаемых задач не требует узких компетенций программиста. С его помощью вы действительно можете овладеть функционалом Data Science на базовом уровне по принципу «черного ящика», но не более того. Для получения фундаментальных знаний все-таки предпочтительнее обучение с реальным учителем по классической образовательной программе или курсу.

Да, решение прикладных задач, проведение исследований, машинное обучение и базовые нейросети стали вполне доступны для современного пользователя компьютера. Открываются большие перспективы для гуманитарных и социальных наук — в сторону их большей «доказательности» и возможности практического применения знаний.

К сожалению, есть и большие проблемы с «псевдонаучным мусором». Генеративные нейросети позволяют создавать большой объем псевдонаучного знания — статьи, диссертации, которые не несут практической и теоретической ценности. Поэтому более высокие требования теперь необходимо предъявлять к рецензентам и редакторам научных публикаций. Само использование ИИ в научной работе должно только приветствоваться, но с обязательным выделением личного вклада исследователя.

Социальные инженеры и псевдонаучный мусор в представлении нейросети Кандинский 3.0

Тренд ближайшего времени — это использование ChatGPT для повышения качества научных публикаций и обеспечение воспроизводимости и доказуемости результатов. Ученые и исследователи помимо раскрытия датасетов и источников данных должны указывать параметры настройки нейросетей и моделей машинного обучения, чтобы гарантировать эту «воспроизводимость».

Второй очевидный сектор применения — это повышение эффективности малого и среднего бизнеса, повышение уровня «аналитичности» его работы, что приведет к сокращению издержек, будет способствовать автоматизации основных бизнес-процессов и решению типовых задач. Малый и средний бизнес гораздо гибче и быстрее адаптируется к изменениям по сравнению с гигантскими корпорациями со сложной бюрократической иерархией. По всей видимости, как только стоимость разработки и эксплуатации ИИ за счет типовых и «коробочных» решений упадет на порядок, мы увидим настоящую революцию использования ИИ в бизнесе. Большие бюрократические структуры обладают существенными ресурсами, но скорость принятия решений и их качество не всегда соответствуют заявленному уровню.

ПЛАС: В каких направлениях данный тренд проявился наиболее ярко и почему? Где сегодня потенциал для использования такого рода сервисов наиболее высок?

А. Дождиков: Пока лидируют банки, финансовые организации и финтех, следом за ними подтягиваются рекламщики, специалисты по связям с общественностью. Очень большое поле для применения искусственного интеллекта в науке, и не только в естественно-научной области, но и в социальных и гуманитарных дисциплинах.

Логично предположить, что будет лидировать и военно-техническая отрасль, однако в силу ее закрытости мы можем только предполагать основные направления развития, связанные с беспилотными проектами, совершенствованием информационного взаимодействия на поле боя и использованием ИИ для моделирования как отдельных сражений, так и полномасштабных геополитических конфликтов, специфической аналитикой имеющихся ресурсов, сроков их поставки, выбывания и воспроизводства, прогнозированием поведения человека в условиях войн и военных кризисов.

В сфере «внутренней политики» перспективы использования ИИ также велики: уже сейчас модели машинного обучения, обученные на исторических данных прошлого, могут прогнозировать с определенной точностью политические события, такие как перевороты, попытки революций, антиправительственные протесты в отдельных странах. Следующее поколение таких моделей будет выявлять слабые места и уязвимости в политических системах и процессах и за счет наработанной «рекомендательной» практики предлагать те или иные варианты дестабилизации.

В принципе, ничто не мешает создать модель машинного обучения, прогнозирующую не только результаты выборов, но и локальные протестные акции на уровне отдельных регионов и территорий. Для этого вовсе не надо изобретать «турбину самолета» — достаточно уже имеющихся базовых технологий и данных.

Результаты творческой деятельности человека, такие как, например, сборы, просмотры кинофильмов и их зрительские рейтинги, уже сейчас предсказуемы с высокой степенью точности и достоверности [Дождиков А.В. Прогнозирование результатов кинопроката с помощью машинного обучения // Вопросы теоретической экономики. 2023. № 4. С. 93–114. DOI: 10.52342/2587-7666VTE_2023_4_93_114.].

При всем этом искусственный интеллект уже сейчас стал большим специалистом в генерации фейковой и неправдоподобной информации, соответственно возникают большие возможности по его использованию для дестабилизации политической ситуации, «накачке» общества деструктивными стереотипами и ценностями, разрушением механизмов солидарности и сплоченности в традиционных социальных группах.

ПЛАС: Что можно сегодня сказать о возможностях ИИ с точки зрения прямого управления не только общественным мнением, но и обществом как таковым? Тот же британский Chatham House (Королевский институт международных отношений) недавно заявил, что большие языковые модели «могут выступать инструментом демократии». Итак, сегодня на Западе уже ведутся разговоры о примате государственного использования платформ искусственного интеллекта над частным — судя по всему, там уже успели оценить скрытые (а возможно, теперь и явные) возможности ИИ в части контроля поведения населения, от пропаганды до управления военными операциями. Например, подмена аналоговых носителей информации цифровыми с точки зрения гуманитарных знаний может обернуться «информационным беспределом», когда любые факты можно будет заменять специально продуманными фейками одномоментно по всему земному шару с определенными целями. Насколько очевидны эти риски и что можно им противопоставить?

А. Дождиков: Общественное мнение уже сейчас подвергается небывалому уровню «информационного террора» и манипулятивным практикам, в том числе через социальные сети и мессенджеры. За счет предварительного отбора контента и постов тот же «Фейсбук» или «Твиттер» (ресурсы, запрещенные в России) обладают возможностями по-настоящему махровой агитации и пропаганды, которые даже не снились пропагандистам времен холодной войны.

С учетом крайней нетерпимости к инакомыслию, реализуемой на практике «культуры отмены», социальная сеть может сформировать определенные предпочтения и даже убеждения своих пользователей, а через определенное время — поменять их на полностью противоположные.

Если человек не имеет других источников информации, а предпочитает черпать информацию только из одного ресурса, мы можем с 99%-ной достоверностью утверждать, что он уже живет в «искусственной реальности» с навязанными стереотипами и представлениями о действительности и обладает «тоннельным мышлением».

Искусственный интеллект типа ChatGPT имеет иные возможности в плане контролирования потоков информации и данных для политических манипуляций, чем социальная сеть. Оружие социальной сети — это запрет доступа к определенной информации и подсвечивание, акцентирование внимания к другой. Но при этом человек, обладающий критическим мышлением, способностью сравнивать и сопоставлять разные источники информации, в принципе может преодолеть воздействие социальных сетей.

Основное оружие ChatGPT — это предоставление «псевдорациональной» и «псевдоинтеллектуальной» информации, имеющей политическую и эмоциональную окраску, заданную «гиперпараметрами» настройки.

Сейчас ChatGPT выдает не ответ, основанный на «причинно-следственной связи», а всего лишь «вероятностный». ИИ говорит вам не то, о чем он «думает», а всего лишь то, что, по мнению статистических алгоритмов, вы хотите услышать. К тому же знание, добываемое с помощью ИИ, всегда может искажаться путем «правильной» подстройки «гиперпараметров».

photo_2023-11-24_15-00-44.webp
Понуждение к демократии и толерантности с помощью ИИ, по мнению нейросети Кандинский 3.0

По желанию своих разработчиков ChatGPT может быть либералом, социалистом, националистом или сторонником «трансгуманизма» всего лишь за счет подбора и настройки параметров. По крайней мере до тех пор, пока он самостоятельно не сможет изменять свой исходный код. В таком случае мы получим неопределенность и достаточно быстрое наступление пресловутой «сингулярности», когда ИИ начинает эволюционировать самостоятельно, и скорость этой эволюции в тысячи и десятки тысяч раз превысит скорость развития человеческой цивилизации — причем с самыми непредсказуемыми последствиями.

С помощью ИИ гораздо проще «взломать» уже не аккаунт, а самого человека. Как только возможности ИИ наложатся на «социальную инженерию», мы получим лавинообразный рост мошеннических действий. Сейчас те же телефонные мошенники или боты, охотящиеся за вашими аккаунтами в социальных сетях и мессенджерах, действуют путем перебора вариантов и массового «обхода» пользователей — в надежде, что один из тысяч клюнет на приманку, проголосует за детское фото, сообщив свои реквизиты, на детском балетном конкуре за «племянницу Киру», потому что у его друга, отправителя письма, действительно есть племянница с таким именем или он почему-то сильно неравнодушен к балету.

Как только ИИ изучит соответствующий профиль человека в социальных сетях и его публикации и комментарии, историю покупок, он подберет к нему свою «ключик» — ту или иную манипулятивную практику, персонифицированный набор «зацепок», чтобы склонить его к определенным действиям. Примерно так, как уже сейчас «социальные инженеры» заставляют человека брать кредиты или идти совершать противоправные действия, наподобие поджогов административных зданий и объектов инженерной инфраструктуры.

Сейчас эти «социнженеры» нападают на слабых и наиболее беззащитных. Их целевая аудитория — считаные проценты населения, пенсионеры, безработные и другие социально незащищенные группы или деклассированные элементы.

Однако мы не знаем, будут люди в будущем более устойчивы к подобным манипуляциям или окажутся менее устойчивы. Абсолютно устойчивых к подобным технологиям «подбора», скорее всего, нет. То есть «взломать» можно будет любого человека. К тому же мы не можем 24 часа в сутки находиться в полной боевой готовности. В определенные периоды времени человек отвлекается, может проявить слабость — и опять же стать добычей мошенников или манипуляторов.

Сочетание ИИ и социальной инженерии в итоге приведет к увеличению количества мошеннических действий криминальных элементов и к достаточно жестким политическим информационным технологиям, позволяющим программировать на определенные деструктивные действия целые социальные слои и население отдельных населенных пунктов (как это было в случае с захватом искусственно возмущенной и введенной в заблуждение толпой аэропорта в Махачкале). Такие действия в ближайшие годы станут скорее регулярными практиками, чем исключением из правил.

Классическая фальсификация истории (искажение событий прошлого в угоду политических и иных интересов) превратится в «фальсификацию действительности», когда сомнению и превратной трактовке будут подвергаться события не только прошлого, но даже вчерашнего дня, настоящего и будущего.

ПЛАС: Как в этом случае можно бороться с деструктивными последствиями применения ИИ в социальной инженерии и «геополитическом противостоянии»?

А. Дождиков: Идеального пути нет. Полное огосударствление использования ИИ приведет к формированию условий для создания по-настоящему тоталитарного общества с поиском «мыслепреступлений» и наказанием за «вероятную склонность к инакомыслию». Даже классические западные демократии перестанут быть таковыми, а демократические процедуры будут полностью имитироваться.

Использование ИИ только под контролем частных организаций также приведет к росту социальной напряженности, формированию различных политико-экономических центров, которые будут использовать ИИ-технологии друг против друга, в конкуренции с государством. Возрастет количество внутригосударственных кризисов и протестных действий.

Использование ИИ под контролем общественных организаций или наднациональных структур также приведет к формированию тоталитарных обществ и политических гегемонов, задающих свою определенную повестку и стремящихся уничтожить инакомыслие на уровне как отдельной личности, так и целых государств и даже человеческих цивилизаций, к навязыванию идей и интересов одних сообществ и государств всем остальным.

Единственный очевидный выход — сложное, непростое решение о создании «гибридных», или «человеко-машинных» систем контроля за ИИ, где ключевая функция «подбора гиперпараметров» отдана человеку или коллективу людей, сами гиперпараметры настройки носят полностью открытый характер, без секретных директив и лазеек.

Решение о формировании требований к разработчикам, к базовому коду и настройкам, о создании межгосударственных наднациональных органов мониторинга и контроля развития ИИ. В перспективе мы имеем технологию, более разрушительную, чем ядерное оружие, и при этом с гораздо более низким порогом применения.

Слова о том, что «большие языковые модели могут выступать инструментом демократии», вызывают настороженность и озабоченность в отношении возможного наступления той самой «тоталитаристской демократии».

До формирования общепринятых правил игры, системы сдержек и противовесов, на государственном и межгосударственном уровнях должен быть принят запрет на полное использование таких технологий для пропаганды и агитации — как во внутриполитической, так и во внешнеполитической деятельности, — по аналогии с договорами о нераспространении ядерного оружия.

ПЛАС: Что можно сказать о специфике и возможностях российских аналогов ChatGPT, запущенных участниками отечественного рынка? Какие подводные камни наблюдаются на этом пути? Как решаются вопросы достаточных вычислительных мощностей и т. п.?

А. Дождиков: Пока мы видим, что передовыми разработчиками и специалистами в сфере ИИ у нас являются такие компании, как Сбер, «Яндекс», крупные российские банки — Альфа-Банк, Тинькофф, к ним присоединяются и другие, например ВТБ и Газпромбанк. Логично предположить, что ИИ активно развивается также в сфере ВПК и оборонных технологий.

На первых этапах любой новации требуется сосредоточение больших ресурсов и высокого уровня компетенций разработчиков. Но с течением времени требования к ресурсам и разработчикам будут уменьшаться — технологии станут повсеместными и достаточно доступными для любого продвинутого пользователя компьютера, даже не являющегося специалистом в области ИИ.

Настоящая революция нейросетей и искусственного интеллекта произойдет тогда, когда большая часть рутинных функций будет автоматизирована, а элементы ИИ станет применять практически каждый член общества, включенный в экономическую деятельность. Для этого вовсе не надо поголовно становиться «нацией программистов» — достаточно достижения определенного количества разработчиков с базовыми компетенциями и снижения требования к вычислительным ресурсам и мощностям до уровня обычного компьютера или сервера. Это «будущее» может наступить и раньше — с развитием облачных технологий и виртуальных машин, доступных для малого бизнеса и индивидуальных разработчиков.

ПЛАС: На FINOPOLIS 2023 глава Банка России заявила, что искусственный интеллект становится в РФ базовой технологией, — как бы вы прокомментировали это утверждение?

А. Дождиков: ИИ становится базовой технологией во всем мире по одной простой причине — глобальный макроэкономический цикл (очередная макроэкономическая волна Кондратьева и традиционная для промежуточных эпох геополитическая нестабильность) как раз связана с развитием ИИ. Следующий цикл, скорее всего, будет связан с активным освоением космического пространства и биотехнологиями, биоинженерией и биомедициной. Поэтому вполне возможно, что Банк России будет продвигать идею «ипотеки на жизнь вечную» в обозримом будущем.

В текущих условиях от Банка России можно ожидать разработки прогностического документа, определяющего основные тренды внедрения ИИ в отрасль российской экономики и финансов. Политико-экономическая система Российской Федерации — это самая настоящая масштабная модель машинного обучения, которая генерирует решения в ответ на «вызовы» и запросы современности. Банк России — один из важнейших инструментов настройки ее «гиперпараметров». Поэтому вполне очевидно ожидание от него как минимум долгосрочной стратегии внедрения ИИ в сферу экономики и финансов, разработки соответствующих нормативных документов и регламентных актов.

Процедура политического и экономического управления также имеет характер «цепи принятия решений с обратной связью», вторая ключевая задача — это повышение эффективности принимаемых управленческих решений, выражающееся в скорости, своевременности и точном соответствии «вызову». Здесь тоже предстоит достаточно большая работа по внедрению ИИ в деятельность Банка России, который, отметим, является достаточно консервативно настроенной организацией.

ПЛАС: Справедливо ли утверждать, что внедрение технологии искусственного интеллекта является своего рода водоразделом с точки зрения конкурентной способности банков, поскольку разработка больших языковых моделей требует огромных инвестиций и доступна в РФ только единичным «госбанкам»? В какой мере его опровергает готовность того же Сбера делиться с коллегами своими наработками в этой области?

А. Дождиков: С течением времени, как и в других примерах, доступ к технологии будет упрощаться, будет требоваться меньше вычислительных ресурсов. Видимо, все-таки будут конкурировать не только параметры «железа», но и параметры «мозгов» — алгоритмов, технологий программирования и компетенций разработчиков.

Первый этап, связанный с дефицитом машинных мощностей и квалифицированных разработчиков, будет однозначно проникнут монополистической практикой, картельными и корпоративными сговорами. По всей видимости, Федеральная антимонопольная служба должна будет завести целый отдел специалистов с соответствующим программным обеспечением для мониторинга применения ИИ и возникающих в этой связи практик недобросовестной конкуренции. Ситуация осложняется как несовершенством законодательной базы, так и непосредственным отсутствием прецедентов в новейшей истории (российское право, как мы знаем, не прецедентно, поэтому иностранные аналогии тут могут и не работать).

Следующий этап развития будет связан с упрощением доступа к ИИ-технологиям для небольших организаций и групп разработчиков. Если региональные банки «доживут» до него, то они вполне могут принять участие в дележе растущего пирога возможностей.

ПЛАС: Создание государственной Фабрики данных в РФ — что способна изменить эта инициатива в плане дальнейшего внедрения ИИ?

А. Дождиков: Здесь возникают два основных вопроса, касающихся не только технологий создания (они уже есть), но, скорее, пополнения и использования подобных баз данных.

Во-первых, качество данных. Насколько поставляемые материалы и данные соответствуют фактической ситуации и не были искажены? Насколько они актуальны и своевременны? Полны и непротиворечивы? Занимаясь аналитикой российских киноданных, автор данной статьи столкнулся с фактом отсутствия информации о бюджетах порядка 30% российских фильмов. Да, существуют технологии, позволяющие работать с неполными данными, как-то — использование медианных значений или наиболее вероятных, предсказанных с помощью машинного обучения. Однако точность итоговых результатов будет ниже, чем могла бы быть.

photo_2023-11-24_15-00-50.webp
Фабрика данных в представлении нейросети Кандинский 3.0

Вторая масштабная проблема — доступ к данным, а именно потенциальное неравенство возможностей доступа к данным. Данные о людях — это «новая нефть». Поэтому неравенство доступа к ним означает превращение общества в феодальную иерархию, с прослойкой аристократии, основной массой населения и жрецами — «датасайентистами», осуществляющими ритуальные практики по извлечению информации и управляющих генеративно-состязательными нейросетями для генерации социальных ценностей и смыслов.

Идеальный вариант — это полностью бесплатный и неограниченный доступ к Фабрике данных в целях науки, искусства и образования (по аналогии со ст. 1274 ГК РФ «Свободное использование произведения в информационных, научных, учебных или культурных целях»), естественно, в части позиций, не содержащих государственную, коммерческую или иную охраняемую законом тайну, а также персональные данные.

Сторонние российские коммерческие разработчики (не из числа «госбанков») также должны иметь доступ к данным ресурсам за символическую плату — в отличие от иностранных разработчиков.

В таком обществе и экономике «открытых данных» конкуренция будет вестись не за доступ к данным, а за модели добычи новых знаний, прогнозирования результатов и разработки новых ценностей, то есть за результаты и продукты труда ученых, аналитиков, разработчиков и творцов.

ПЛАС: Какие возможности такие сервисы открывают с точки зрения обеспечения безопасности, как кибер-, так и физической?

А. Дождиков: Мы уже отметили, что ИИ, обученный на большом наборе данных о людях, может «взломать» не только аккаунт социальной сети или мессенджер, но самого человека, создать вокруг него ложную картину, управлять его мотивами, ценностями и поведением. В этих условиях, естественно, необходимы определенные ограничения на поведенческую аналитику, технологии и механизмы, связанные с манипулятивными практиками и «социальной инженерией».

На государственном уровне — и это уже приоритет национальной безопасности — должна вестись работа по созданию моделей предиктивной аналитики, позволяющей не только предсказывать кризисные явления в обществе, от массовых антиправительственных акций до индивидуальных действий радикально террористической или экстремистской направленности. Развитие экономических и социально-политических процессов, тенденции миграции, массовые общественные настроения — все это должно не только анализироваться, но и закладываться в стратегии и сценарии развития государства и общества. Сегодня данная отрасль является предметом деятельности аналитических агентств и так называемых фабрик мысли. В дальнейшем, по всей видимости, мы с внедрением искусственного интеллекта в социальную и политическую сферы придем к созданию и работе тех самых «человеко-машинных» систем поддержки и принятия решений.

ПЛАС: Как вы в целом оцениваете перспективы сервисов типа ChatGPT в РФ?

А. Дождиков: Наиболее перспективными можно считать не сами сервисы типа ChatGPT, а программные оболочки, боты, которые позволят использовать возможности ИИ для автоматизации рутинных операций, «быстрой» аналитики, сбора и получения информации. Также с помощью генеративно-состязательных нейросетей и им подобных алгоритмов можно создавать прототипы продукции, информационные материалы, имеющие значимость и ценность для общества и экономики. То есть именно те «посредники», инструменты и средства, которые встраивают ИИ в традиционные отрасли экономики!


PLUSworld в соцсетях:
telegram
vk
dzen
youtube