28.04.2026, 10:04
Количество просмотров 639

7 рисков использования ИИ в 2026 году

Очевидные риски, связанные с широким использованием ИИ-систем, рассматривает Алексей Голенищев, независимый эксперт.
7 рисков использования ИИ в 2026 году

Ключевые минусы ИИ

№ 1. Предвзятость & дискриминация. ИИ обучается на исторических данных, которые могут содержать скрытые, не явно выраженные предрассудки (например, ошибки в распознавании лиц разных расовых групп, этнические / религиозные и пр. паттерны).

№ 2. Риски приватности. Системы ИИ требуют сбора огромных объемов личных данных, чувствительных, а иногда критичных для собственника, что увеличивает риск их утечки (которая может быть злонамеренной со стороны собственника ИИ-платформы в случае его заинтересованности в этом).

№ 3. Отсутствие «здравого смысла» в предлагаемых решениях и не всегда корректное понимание задачи и трансляции ее контекста. ИИ не понимает человеческий опыт, нравственные и этические нюансы, действуя лишь в рамках заданных алгоритмов. Если предлагаемая модель ИИ не только чужая, но и чуждая по применяемому алгоритму –появляются неконтролируемые риски «битого» кода алгоритма, которые можно выявить уже только на этапе применения вердикта ИИ.

№ 4. ИИ – это «черный ящик». Сложные нейросети с нелинейными алгоритмами (чем сложнее и «запутаннее» нейросеть, тем вероятнее риск ошибки с непредсказуемым результатом) часто не могут объяснить, как именно они пришли к тому или иному выводу, что вызывает проблемы с доверием, поэтому «помощь» ИИ-агента всегда должна рассматриваться как недостоверная среда.

№ 5. Деградация навыков. Повсеместное использование ИИ может привести к потере человеком навыков критического мышления и самостоятельного решения задач. Например, отключается электропитание / интернет – и человек становится не способен к здравому/логическому мышлению, принятию правильных, обдуманных решений и т. п. А банковская система или государственные сервисы с глубоко интегрированными в них ИИ, могут «лечь» на неопределенный срок!

№ 6. ИИ-системы «бездуховны» и всегда «рациональны». В отличие от человека, который может принимать «нерациональные» решения на основе своего «человеческого» опыта, интеллекта и чувств.

№ 7. Риски ИИ-диверсии. Например, если разработчик/собственник ИИ платформы видит, что его «услугами» пользуется «враг» (geo-локацию и более интеллектуальные средства «слежки» никто не отменял), то можно «адресно» внести какие-либо изменения в ИИ-алгоритмы с «нужным эффектом».

Выводы

Использование ИИ-агентов применимо только для решения рутинных, +/- стандартных задач, требующих больших человеко-временных затрат, не требующих особого «интеллекта» и знаний (напр. – технические переводы, стенографирование, обработка большого объема информации для поиска чего-либо и т. п.), без использования алгоритмов и вердиктов, обязывающих принимать какие-либо решения, т. к. он могут быть ошибочными и привести к нежелаемым последствиям (пусть не сейчас, так в будущем).

Любое решение, заключение, вердикт, разработка (в случае DevOps), которые могут нести какие-либо риски – должны проверяться / тестироваться. А это тоже ресурсы и затраты! (Нельзя забывать: если на первом «шаге» сложного ИИ алгоритма – достоверность 95% (а 100% не бывает), то на 10-м – уже 59%).

Новости в вашей почте
mail

PLUSworld в соцсетях:
telegram
vk
dzen
youtube