Пузырь искусственного интеллекта, который похоронит кибербезопасность

Пузырь искусственного интеллекта, который похоронит кибербезопасность

fukprfuapucvcuacaua.jpg

         Одна статья в New York Times о буме технологий искусственного псевдоинтеллекта в Кремниевой долине заставила серьёзно задуматься о будущем кибербезопасности. Будущем как завтрашнем, так и послезавтрашнем.

К чему приведёт маниакальное увлечение тем, что пока существует только в фантазии футурологов? Сколько ещё миллиардов инвесторы вложат в проекты, которые в лучшем случае «изобретают» то, что изобретено дюжину лет назад, а в худшем - на поверку оказываются надувными маркетинговыми куклами? Какие реальные перспективы развития умных машинных секюрити-технологий и какая роль уготована в этом новом мире человеку эксперту?

То, что сейчас переживает область искусственного интеллекта весьма напоминает стремительно растущий мыльный пузырь, и новости о его росте заставляют слишком многих задумываться о том, что будет, когда он, наконец, лопнет.

Главная цель бизнес-модели большинства «силиконовых» стартапов (не всех, бывают приятные исключения) заключается не в серьёзных и дорогостоящих исследованиях и основанных на них продуктах/технологиях, а надувании пышного мыльного пузыря для привлечения инвесторов, быстрого выхода из бизнеса через продажу по цене, основанной на «оценке будущей прибыли», а дальше… это уже чужая проблема. И реальная операционная прибыль на самом деле только мешает этой модели.

Вот типичная бизнес-модель, разжеванная за 1 минуту 15 секунд одним из героев сериала «Кремниевая долина» (и это не шутка):

ИИ-пузырь чем-то напоминает пузырь на рынке недвижимости США 2008-го года, аукнувшийся по всему миру. Всех устраивала пирамида инвестиционных субпродуктов, основанных на закладных и ипотечных кредитах - с неё кормились миллионы людей (а десятки тысяч особо хорошо кормились). А потом бах – пирамида рухнула, мировая экономика закачалась, дыры латали деньгами налогоплательщиков – тех самых людей и компаний, которые зарабатывают деньги

ИИ-пузырь таит в себе другую опасность – дискредитация машинного обучения – одного из самых перспективных направлений в IT.

Только благодаря машинному обучению человечество не утонуло в гигантском объёме информации, который за последние дцать лет увеличился на порядки.

Например, количество вредоносных программ за 10 лет выросло в ~1000 раз: в начале века мы каждый день анализировали ~300 вредоносов, а сейчас эта цифра обзавелась ещё тремя нулями. Спросите меня – насколько увеличилось количество наших аналитиков? В 4 раза. Как так? Машинное обучение, ага. У нас 99,9% атак детектят системы-роботы. Что же делают люди? Люди в основном «подкручивают» рабочих роботов и делают новых.

Например, у нас есть эксперты для выявления сложных кибератак, которые передают свои знания и навыки автоматизированным системам. Есть специалисты по анализу данных, которые экспериментируют с разными моделями и методами машинного обучения. Важно: в отличие от стартап-пустышек, которые концентрируют все технологии на конкретном компьютере и ограничены в производительности, мы защищаем пользователей через гигантскую облачную инфраструктуру, способную быстро и эффективно решать гораздо более сложные задачи. И, да, по этой причине в нашей инфраструктуре применяется много разных моделей машинного обучения.

Только единичные атаки из числа самых сложных мы расследуем «руками». Что любопытно: даже при таком проникновении машинных технологий всё равно не хватает кадров. Впрочем, и требования к качеству кадров тоже выросли.

Какая роль уготована человеку в этом новом мире?

В краткосрочном реалистичном будущем человечество будет продолжать создавать роботов в самых разных областях, включая IT-секюрити. Например, у нас готово решение для встраивания уровня безопасности в парадигму «умных городов» (в т.ч. разнообразные роботизированные аспекты вроде автоматического управления автомобильным трафиком), для безопасного управления критической инфраструктурой.

И кадровый голод усилится не столько за счёт распространения технологий, сколько за счёт повышения требований к кадрам. Системы машинного обучения для IT-секюрити требуют глубоких знаний и навыков из самых разных областей (включая Big Data, расследование компьютерных преступлений, системное и прикладное программирование) – знаний и навыков, присущих исключительно высококлассным специалистам.

Кто же будет управлять будущим: человек или роботы? Каков будет интеллект будущего?

В повести «Далёкая радуга» в 1963 г. Стругацкие описали теорию симбиотического интеллекта: слияние человека и машины, кибернетический организм, сочетающий разум человека и гигантские вычислительные мощности суперкомпьютеров. И это не научная фантастика – это происходит уже сейчас. И это, на мой взгляд, не только самый вероятный, но и благоприятный для человечества вариант.

Или всё-таки прогресс достигнет точки технологической сингулярности, человек потеряет способность понимать происходящее, а машины полностью и безвозвратно примут контроль над миром?

Ключевая особенность чистого машинного искусственного интеллекта, – способность к совершенствованию без вмешательства человека, самостоятельный выход за границы алгоритма. Иными словами, машинный ИИ – это новая форма разума. И далёкий, но теоретически вероятный день появления такой формы ИИ станет началом конца нашего мира - во благо человека и в полном соответствии с законами робототехники нас избавят от душевных мук и бремени существования. Или, как это часто случается, программист ляпнет баг.

 

Отредактировал Мерзляков Н

Источник https://zen.yandex.ru/media/id/5e956d5dbfc9630fd0a33dda/puzyr-iskusstvennogo-intellekta-kotoryi-pohoronit-kiberbezopasnost-5ed10df69217f57f7c9a9274