«Если пустим этого монстра…» В РАН обсудили техносуверенитет и риски ИИ
Когда-то академик Виктор Иванников создавал вычислительные комплексы, которые в режиме реального времени обрабатывали информацию, поступающую от космических аппаратов. Внедрял программное обеспечение на советскую суперЭВМ. Выступал за использование открытого софта, когда это считалось чуть ли не ересью, а теперь совершенно очевидно, что учёный был прав: бурное развитие искусственного интеллекта требует контроля за его разработками.
В эти дни наследники научной школы академика Иванникова, которому в этом году исполнилось бы 85 лет, собрались на научную конференцию, чтобы обсудить множество тем и вопросов. Среди них — технологическая независимость России, информационная безопасность, анализ данных и управление ими. И, конечно же, он — искусственный интеллект. Всемогущий и ужасный. То ли благодетель человечества, то ли монстр, угрожающий его будущему.
Палка о двух концах
«Виктор Петрович Иванников подчёркивал важность моделей, а не просто разработки отдельных технологий. Сегодня эта позиция становится особо актуальной ввиду активного развития искусственного интеллекта. Необходимы узкопрофильные модели для конкретных областей — будь то медицина, промышленность или управление производством. Квалифицированных кадров катастрофически не хватает. Это глобальный мировой вызов. Наука и государство должны совместно ответить на него», — такими словами открыл пленарную сессию директор Института системного программирования им. В. П. Иванникова РАН академик Арутюн Аветисян.
Виктор Иванников был основателем и первым руководителем этого института. Он ушёл из жизни в 2016-м, когда ИИ ещё не был повсеместно используемой технологией. Сегодня он внедряется везде и, как почти любая технология, может быть палкой о двух концах — приносить как пользу, так и вред.
Заместитель директора Росфинмониторинга Антон Лисицын рассказал, что его ведомство внедрило языковую модель для улучшения работы по выявлению противоправных схем, связанных с отмыванием доходов, финансированием терроризма и экстремизма. А директор департамента цифровой трансформации Минэнерго России Феликс Мицкевич поделился данными о том, что топливно-энергетический комплекс вошёл в тройку отраслей-лидеров по использованию искусственного интеллекта. В той или иной степени эти алгоритмы применяют 58% ТЭК-компаний, а к 2030 году их доля достигнет 70%. На данный момент в отрасли реализуется около 300 проектов, связанных с ИИ. Они позволяют, например, предотвращать аварии и уменьшать экономические потери предприятий. Или разрабатывать новые месторождения, создавая цифровые проекты скважин.
По словам директора НИЦЭМ им. Н. Ф. Гамалеи Минздрава РФ, академика Александра Гинцбурга, с помощью технологий ИИ можно «вытянуть отечественную бигфарму». «Мы видим в аптеках огромное разнообразие лекарственных препаратов, — сказал он. — Но 80% из них — дженерики, сделанные 20-30 лет назад. Препараты, конечно, эффективные, но за это время уже возникли ещё более эффективные, ещё более безопасные.
Чтобы у нас появились такие же, необходимо использовать платформенные решения. То есть с помощью одной и той же технологии создавать большое количество лекарственных препаратов, которые будут действовать на молекулярные мишени в организме человека. Мы совместно с Институтом системного программирования и другими институтами этим и занимаемся».
Американцы опять навязывают стандарты
На пленарной сессии, которая была посвящена технологической независимости страны, директор департамента международной информационной безопасности МИД России Артур Люкманов обратил внимание на новую редакцию Стратегии национальной безопасности США, где выделены пять ключевых направлений.
«Четыре из них географические, — поделился он, — а пятым было обозначено функциональное направление по распространению американских технологий и, подчеркну, стандартов в области искусственного интеллекта, в области квантовых вычислений, в области биотехнологий. И это заставляет напрячься, потому что мы понимаем, что это такое. Американские стандарты означают исполнение американского законодательства всеми пользователями».
Дипломат отметил, что эта ситуация может использоваться с политическими целями, поэтому нам надо активнее выступать против навязывания односторонних стандартов в сфере искусственного интеллекта.
Директор по информационным и цифровым технологиям «Росатома» Евгений Абакумов призвал создавать национальные проекты с привлечением современных методов анализа данных и машинного обучения.
«Необходима оценка влияния крупных языковых моделей на общую цифровую среду и регулирование в области информационной безопасности, — поделился он своим мнением. — Применение технологий искусственного интеллекта в высокорискованных системах, будь то человеческие системы или производственные процессы, представляет собой особую область исследований, которая требует тщательного изучения».
Угрожает жизни на Земле
Технологии ИИ развиваются стремительно, и ничего сравнимого с ними по воздействию на жизнь людей сейчас нет, убеждён директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов.
«Поэтому в отрасль вкладываются сумасшедшие деньги. Нам тяжело быть среди лидеров, но мы держимся в пелотоне. Наша сила — в кадрах. Это молодые ребята, 25-26 лет», — сказал эксперт.
Отдельная сессия была посвящена информационной безопасности в ИИ. Наиболее ярким получилось выступление председателя правления российской ассоциации «Отечественный софт» Натальи Касперской. Она предложила ограничить использование этих технологий везде, где они могут нанести людям ущерб, и даже назвала ИИ монстром.
В первую очередь её беспокоит внедрение нейросетей в образовательные процессы. Проблема в том, что, прибегая к помощи алгоритмов по любому поводу, дети разучатся (или даже не научатся) думать. Касперская сослалась на опросы, когда подростки не могли ответить на элементарные вопросы. Например, сколько часов в сутках?
«Мы рискуем вырастить поколение вообще ничего не понимающих людей. Как они будут работать, как будут управлять страной?» — возмущалась она.
По мнению Натальи Касперской, необходимо запретить разработку учебных материалов с помощью генеративного ИИ, а также подобную автоматизацию обучения. Не помешают ограничения и в госуправлении — например, запрет автоначисления штрафов и любых социальных рейтингов.
«Искусственный интеллект — это технология, которая вообще угрожает жизни на Земле. И если мы этого не поймём, если мы пустим этого монстра без ограничений в свою жизнь, то вполне возможно, никакого будущего у нас уже не будет», — резюмировала она.
