Национальная служба экономической разведки

Национальная служба экономической разведки – это крупнейшая Российская организация, занимающаяся сбором, обработкой и анализом информации экономического характера о ситуации в различных секторах рынка, а также его участниках.
Национальная служба экономической разведки специализируется на комплексном информационно-аналитическом обеспечении ведущих предприятий Российской Федерации. Благодаря профессионализму и огромному опыту сотрудников службы, мы добиваемся самых лучших результатов в работе и гордимся нашим вкладом в защиту экономической безопасности предприятий России.
Служба имеет представительства в разных регионах России, включая города федерального значения.

Риски применения ИИ в государственном управлении

В феврале прошел «Международный конгресс государственного управления». Это мероприятие было посвящено ресурсам и человеческому потенциалу российских государственных институтов. В ходе дискуссии на сессии обсуждалось, каким образом цифровая трансформация и распространение искусственного интеллекта способны изменить подходы к государственному управлению

 

Наиболее интересным стало выступление Натальи Касперской, президента группы компаний InfoWatch, председателя правления Ассоциации разработчиков программных продуктов «Отечественный софт» и весьма авторитетной персоны в российской ИТ-индустрии.

 

Внедрение технологий — это не про достижение результата

Некоторые представители власти находятся в иллюзии, что новые технологии способны решить множество проблем. Можно оспорить такую точку зрения.

  • Во-первых, социальные проблемы нельзя решить за счёт внедрения технологий. Социальные проблемы — это социальные проблемы, а не технологические. Люди остаются людьми, и попытка управлять ими посредством технологий обречена на провал, поскольку технологии — это всегда ограниченные модели. Это всегда нечто гораздо более узкое, чем человек.
  • Во-вторых, сейчас мы переживаем волну хайпа вокруг ИИ. Исследовательская компания Gartner зафиксировала тенденцию: когда появляется модная новая технология, все начинают активно её обсуждать и ждать от неё чудес, но затем интерес угасает, как и ожидания от новинки. Например, не так давно был популярен блокчейн — его включили во все государственные программы, а потом не знали, как от него избавиться. Сегодня на такой же волне хайпа находится искусственный интеллект.

К сожалению, внедрение технологии часто подменяет собой решение задачи. Изначально всегда нужно ставить вопрос: «Зачем нам внедрять новую технологию? Что мы хотим получить?» Внедрение ради самого внедрения не даст нужного результата.

 

Генеративный ИИ — это обманка

Искусственный интеллект чрезвычайно полезен. Например, для военных целей. Основная гонка будет разворачиваться именно там. Именно поэтому американцы сейчас начали закрывать свои разработки, а нам подсунули обманку — генеративный ИИ, и все на неё клюнули. Обманка блестящая: генеративный ИИ болтает как человек, рисует картинки и создаёт видео. Все радуются, какой он замечательный, стремятся создать свои аналогичные модели, тратя на это ресурсы.

На самом же деле ИИ — это вовсе не про картинки и тексты. Это про управление на поле боя. И здесь нам нельзя отставать. То, что мы отстаём в генеративном ИИ — это уже совсем другая проблема, не такого масштаба.

 

Как технологии могут нанести вред

В ходе дискуссий на конгрессе прозвучало несколько тезисов об умной регуляторной среде. По сути, такой подход — это попытка всё контролировать сверху, вплоть до каждого человека. А поскольку мы не можем принимать решение за каждого человека, нужно наделить субъектностью ИИ — разрешить ему принимать решения. Казалось бы, это очень хорошо: ИИ сам примет решение, мы ничего не делаем, всё идёт автоматически, всё прекрасно. Какие риски здесь видятся?

 

Риск первый: чёрный ящик

ИИ — это вероятностная технология. Она выдаёт решение с некоторой долей вероятности. Некоторые называют её чёрным ящиком. Проблема чёрного ящика в том, что ни разработчик этой технологии, ни пользователь не могут понять, почему машина приняла то или иное решение. Вопрос: хотим ли мы, чтобы этот чёрный ящик принимал решения о людях? Или не хотим? И как тогда интерпретировать результат?

Два года представительница Минсельхоза России рассказывала, что они создали систему на основе ИИ. И эта система увеличила количество инцидентов в 90 000 раз. Не в девять, не в девяносто — в девяносто тысяч раз. Получили миллионы инцидентов. И она говорит: «Представляете, мы могли бы автоматически выписывать штрафы, но не можем, приходится вручную обрабатывать эти миллионы инцидентов. Какой ужас!» Но очевидно, что у них машина просто работает неправильно. Не может быть увеличения числа инцидентов в 90 000 раз. И это пример того, что мы можем получить нечто, что не сможем интерпретировать.

 

Риск второй: тотальный контроль

Тотальный контроль может нести риск непредсказуемых социальных последствий. На событиях в Непале мы это прекрасно видели. Там сделали нечто подобное — и правительства не стало. Причём в очень короткие сроки.

 

Риск третий: утечки данных и мошенничество

Информационные технологии всегда сопряжены с дополнительными рисками — это вирусы, компьютерные атаки, утечки данных и, конечно, мошенничество. Самый эффективный на сегодня результат внедрения технологий — это миллиарды украденных у людей денег. Никогда столько не воровали, а теперь научились. Почему? Потому что эту возможность дала цифровизация. Мошенники обворовывают нас с помощью цифровизации, потому что знают о нас всё. Они звонят вам, называют по имени, знают ваши данные и используют их чрезвычайно эффективно. Любые технологии можно обратить во вред.

 

Риск четвёртый: постепенный переход власти

Есть одна вещь, о которой многие чиновники не задумываются. Это постепенный переход власти от чиновников, которые дают задание на внедрение новых ИТ-решений, к системным администраторам. Чиновники полагают, что айтишники делают в точности то, что им скажут. Но это, к сожалению, не так. Управлять миром технологий будут айтишники, а не условные гуманитарии.

Предположим, мы создаём рейтинговую социальную систему. Непосредственно реализуют её некие айтишники. Как вы думаете, где эти айтишники поставят себя в этой системе? Какой у них будет рейтинг? Конечно, они и себя поставят в привилегированное положение, и своих родных, и друзей — всё у них будет хорошо. Чиновник не способен проконтролировать айтишника — у него не хватит компетенций.

 

Риск пятый: коррупционные возможности

Говорят: «Вот мы сейчас сделаем электронную систему, всё будет под контролем, чётко, никакой коррупции». Но я вас уверяю, что коррупционерам будет где развернуться. Например, недавно создали единый реестр мигрантов — а в новостях уже скандал: за взятку из этого единого реестра можно себя исключить.

 

Некоторые выводы

Не стоит обольщаться по поводу технологий. Это не чудо, которое навсегда изменит мир. Технологии — это инструмент. Давайте относиться к ним соответственно.

Нельзя решать социальные проблемы с помощью технологий.

Внедряя технологию, мы должны начинать с анализа того, какую задачу хотим решить, и ставить это во главу угла. Сначала определяем задачу — потом подбираем технологии. Это может быть ИИ, а может и не быть.

Технологии должны быть российскими. Иначе мы попадаем в зависимость, из которой не можем выбраться. Например, в Советском Союзе в 1970-е были свои технологии, была электроника. Но ЦК КПСС принял решение о переходе на единую серию машин — IBM PC. И вот с этой платформы мы до сих пор не можем слезть. Мы, по сути, потеряли электронную промышленность, а восстанавливать её очень дорого и долго.

Прежде чем внедрять новые технологии, нужно изначально понимать, как они будут защищены. Перед глазами пример с мошенничеством. В первую очередь технологии должны быть защитой, а не уязвимостью.

 

 

По материалам InfoWatch