Добавить новость
ru24.net
Primpress.ru (Владивосток)
Январь
2024

Мегабайты с ответственностью: как научить нейросеть гуманизму

В современном мире искусственный интеллект становится неотъемлемой частью нашей повседневности, проникая в различные сферы общества: от здравоохранения и образования до технологических разработок для армии. Вместе с тем люди задаются вопросом о том, как правильно использовать ИИ, ведь технологии влияют на наши решения, социальные взаимодействия и жизнь в целом.

О работе над этикой ИИ, пересечении интересов общества и технологического бизнеса, а также мерах предосторожности в работе с «умными» системами рассказал директор Дальневосточного центра искусственного интеллекта Дальневосточного федерального университета Роман Дремлюга.

– Роман Игоревич, искусственный интеллект появился уже давно, но об этике его использования начали говорить лишь недавно. Почему именно сейчас это стало актуально?

– Существует несколько причин, по которым внимание к этике ИИ в последние три года растет. Во-первых, искусственный интеллект вышел из лаборатории и окружил нас, попал во многие сферы общества. Во-вторых, он стал значительно влиять на наши жизни: от рекомендательных систем в социальных сетях до медицины, выявления правонарушений и так далее. Третья причина – сам бизнес стал спрашивать, как подходить к созданию продуктов с ИИ. Например, компания решает вложиться в разработку продукта. Часто это стоит очень дорого, а процесс разработки – долгий и трудный. Можно пять лет создавать «умное» устройство, выйти на рынок, и вдруг твой продукт не соответствует нормативной рамке, ты проиграл. Чтобы время, деньги и силы не были потрачены впустую, нужно учитывать стандарты, которым должен соответствовать продукт на выходе. Это, на мой взгляд, три основные причины, почему этика так интересна сейчас.

По каким правилам играет искусственный интеллект?

– С ростом популярности ИИ в общество задается вопросом, насколько безопасны нейросети. Как эта озабоченность влияет на развитие этики?

– Компании и государства хотят сказать обществу: «Не бойтесь искусственного интеллекта, в нем нет ничего страшного. Есть правила, по которым эти системы внедряются и используются, не переживайте».

Пионером в области этики ИИ был Google: он запустил большой проект в разных регионах мира, собрал ученых, которые обсуждали, какой должна быть этика искусственного интеллекта. Тогда Google обвиняли во всех смертных грехах: слежке, манипуляции людьми и других вещах. Задачей компании было заявить о том, что они берут на себя обязательства по работе с искусственным интеллектом, говоря и обществу, и государству, что их деятельность прозрачна.

В России сейчас начинается движение в этом же направлении. На рынке появились крупные IT-компании, которые занимаются искусственным интеллектом – значит, должны появиться правила игры. Ведь человек не станет покупать, к примеру, умную колонку, если подозревает, что она может его подслушивать, подсматривать за ним или отправлять его личную информацию куда-либо. Таким образом бизнес стремится показать потребителю, что продукты с ИИ не причинят ему вреда.

Российские ученые сегодня тоже работают в этом направлении, как в свое время работали специалисты, приглашенные Google.

– Какие принципы ложатся в основу вашей работы? На что вы опираетесь?

– Самое главное – прозрачность, чтобы мы понимали, что происходит внутри ИИ. Абсолютной прозрачности по некоторым причинам добиться нельзя: если требовать ее от разработчика – он вряд ли выдаст свои коммерческие тайны и технологические «ноу-хау», на которых он зарабатывает. Тем не менее определенный общественный и государственный контроль над разработкой должен быть. Любые принципы искусственного интеллекта основываются на человекоцентричности. Мы должны уважать потребности людей и их стремления, не должны унижать их достоинство. В разных странах есть свои особенности: где-то упор делается на безопасность, где-то – на защиту меньшинств, но главное остается всегда – человек должен быть в центре.

– Работа над этикой искусственного интеллекта дает компаниям рекомендации по использованию ИИ, обществу – уверенность в том, что технология безопасна, а что получает наука?

– Важна сама возможность изучения этой области. Этика должна соответствовать и законодательной рамке, и культурным особенностям того или иного общества, и многим другим вещам. Она должна быть экономически и политически выполнима. Это также ориентир для ученых – какие технологии следует разрабатывать, а какие нет, какие из них могут быть неэтичны. Мне кажется, один из вариантов развития событий в этом направлении – создание комитетов по этике искусственного интеллекта наподобие тех, что есть в медицине, чтобы оперативно решать вопросы этичности ИИ.

– Сейчас мы только знакомимся с ИИ и его возможностями. Судя по всему, они гораздо шире, чем мы себе представляем. Как должна развиваться отрасль, чтобы успевать реагировать на изменения в этой технологии?

– В этом случае хороший пример – право. Оно постоянно меняется в зависимости от технологической повестки, ситуации в обществе или политики. Два года назад никто не мог предположить, на что могут быть способны генеративные сети. Они были игрушкой, баловством для «гиков», а сейчас это многомиллионный бизнес, с помощью которого решаются различные задачи. Мы стараемся думать наперед: регулярно проводятся форумы по этике, проходят обсуждения в Совете Федерации. Однако, на мой взгляд, мы можем спрогнозировать только 20-30% от всего, что может произойти с искусственным интеллектом в будущем.

Специалисты, работающие над этикой ИИ, должны реагировать очень быстро. Раньше, когда появлялась технология, законодатель пять лет думал над тем, чтобы что-то принять. Сейчас это нужно очень быстро отслеживать, работать над рекомендациями и над их реализацией. Например, компании руководствуются положениями Кодекса этики ИИ России, который был принят в прошлом году.

Технология доверия

– А в чем может проявляться неэтичность при использовании ИИ?

– Искусственный интеллект – сложная система. Разработчик может понимать ее на 100% с точки зрения безопасности, но иногда встречаются артефакты непредсказуемого поведения. Это должно быть заранее проверено и протестировано, должны быть прописаны правила разработки, чтобы избежать этих проблем. Также должны быть прописаны правила работы с данными. Часто умная колонка – это член семьи. Она слышит все, что говорят вокруг, знает о предпочтениях владельца. Решать вопрос безопасности искусственного интеллекта нужно не на этапе готового продукта, а в процессе разработки. Сейчас нам известно большинство типичных примеров неэтичного поведения: это и генерация экстремистских высказываний, и рецепты по производству оружия, и другие противозаконные вещи. Зная о них, мы можем не наступать на те же грабли и исключить их появление в новом продукте на основе ИИ.

– Можем ли мы полностью полагаться на искусственный интеллект? Например, доверять жизнь машине, если ИИ применяется в медицине?

– Речь ведь идет не о том, что мы нашли на улице флешку, поняли, что на ней искусственный интеллект, и начали его использовать. Нужно, чтобы хотя бы первый этап проверки ИИ на безопасность был пройден. Чтобы было доказано, что ИИ, назначающий лекарства, например, давал безопасные рекомендации.

Кроме того, есть случаи, когда в мировой практике была доказана безопасность – мы можем опираться на эти исследования, не тратя время на новые. Можно также вводить пилотные зоны или применять медицинский искусственный интеллект для тех пациентов, которые находятся в терминальной стадии смертельного заболевания и сами хотят попробовать новые технологии – может, произойдет прогресс в выздоровлении?

В медицине также существует много ограничений в работе с персональными данными, которые «тормозят» развитие этой сферы. По моему частному мнению, ставить преграды специалистам, которые легально используют данные людей, не очень хорошая идея, особенно когда эти данные можно нелегально купить в Интернете, куда они попадают в результате утечек и взломов. Использовать персональные данные можно и обезличенно, сейчас многие страны применяют такой подход. Это же здоровье нации, здоровье отдельных людей, и чем дольше мы будем внедрять в медицину передовые решения, тем хуже будет и человеку, и государству.

– А что насчет внедрения в законодательство? Как этика ИИ отражена в российском правовом поле?

– ИИ упоминается в некоторых нормативных актах, но закона об искусственном интеллекте у нас нет. Никто не хочет «стрелять себе в ногу». В свое время Евросоюз принял Общий регламент по защите данных (GDPR), убив тем самым отрасль искусственного интеллекта. Они поставили такие жесткие требования к работе с данными, что компаниям стало выгодно открываться где угодно, кроме Евросоюза. Поэтому, как мне кажется, с законом нам не нужно торопиться.

Мы принимаем законы только в тех сферах, где видим явную угрозу для общества. Самый частый пример – дипфейки – использование искусственного интеллекта для замены лица, мимики, голоса. Во многих странах уже приняты законы, регулирующие такое использование ИИ: есть риск – появился законодательный акт. Если мы говорим о сфере ретейла, например, зачем нам ее настолько ограничивать? Для них и без того есть много законов.

– Если ИИ не закреплен в нашем законодательстве, то как человеку защитить себя с правовой точки зрения от нелегального использования дипфейков, например?

– Если в дипфейке есть какие-то виды запрещенной информации – порнография, призывы к свержению власти, ущемление религиозных прав и так далее, изготовление и размещение такого дипфейка само по себе будет преступлением. Пока уголовное право частично защищает людей в этом отношении, но это уже немало. Два года назад проводилось исследование, согласно которому 60% дипфейков содержат в себе порнографический контент, то есть уже 60% находятся вне закона.

Влиять на дипфейки, не содержащие уголовного правонарушения, можно только административными механизмами – например, можно написать жалобу в Роскомнадзор, обосновав ее, конечно.

Черное зеркало

– Понятен сценарий, при котором человек вредит человеку, используя ИИ. Может ли ИИ самообучиться и самостоятельно принести вред людям?

– С научной точки зрения сложно ответить на этот вопрос: сейчас у нас нет доказательств ни того, ни другого. Однако как человек, работающий в этой области, я не верю, что искусственный интеллект может настолько развиться самостоятельно. Скорее всего, он просто закрепится в нашей жизни. Мы привыкнем к нему, как привыкли когда-то к бумаге – для своего времени это тоже была прорывная технология.

В кодексах этики искусственного интеллекта, конечно, есть ограничения для самообучающихся систем – в некоторых странах они, к примеру, не должны быть подключены к Сети. Кроме того, мы можем запретить допуск таких систем к управлению особо важными вещами. Все мы знаем сценарий «Терминатора» и понимаем, что оставлять на откуп умной системе запуск ядерных баллистических ракет – плохая идея. Мы должны использовать риск-ориентированный подход, учитывать возможные последствия при разработке технологии. Прозрачность, о которой мы говорили ранее, также важна: нужно понимать, что происходит в лабораториях и центрах искусственного интеллекта.

Ученые могут предлагать вообще все, что угодно. Я читал статью, в которой предлагали иметь «красную кнопку» для отключения ИИ. Я подумал: «Так мы же не успеем ее нажать».

– Искусственный интеллект можно использовать во благо, а можно с помощью него причинять вред. Чего в итоге больше от использования ИИ: плюсов или минусов?

– Искусственный интеллект – это технология, и все зависит от того, кто и для чего ее использует. Я, например, верю, что искусственный интеллект поможет нам освоить космос, сделать то, о чем писали фантасты.

Уже сейчас я вижу, что ИИ помогает человеку во многих сферах. Качественная медицина и образование становятся доступнее, удовлетворяются естественные потребности людей. Приведу в пример такую ситуацию: родители не общаются с ребенком, нет времени на это или семья неблагополучная. Ребенок может обратиться к ИИ: заняться самообразованием или поддержать беседу с «умным» устройством, если нуждается в общении.

Вопрос заключается в том, как использовать искусственный интеллект. Этим занимается этика. Например, недавно студент российского вуза написал дипломную работу с помощью Chat GPT – встает вопрос, можно ли использовать нейросети таким образом.

– И как, по-вашему, можно?

– Можно, но взвешенно. Очевидно, что если человек перестанет сам писать и говорить, то он потеряет в эрудированности и интеллекте. И это не какая-то «страшилка», это отражено в работах русского педагога Выгодского, например. Они доказывают, что владение письменной и устной речью связано с интеллектуальным развитием, поэтому какие-то ограничения в использовании нейросетей должны быть. Нужно, чтобы студент сам сформулировал мысли. В то же время с Chat GPT ты, очевидно, можешь делать больше. У крупных компаний есть потребность в сотрудниках, которые умеют работать с этой нейросетью, и если мы не будем давать студенту эти навыки, то он потеряет свою ценность на рынке труда. Здесь нужно обязательно выдержать баланс.

Применять технологии нужно осмысленно, и этика ИИ помогает оценивать риски, понимать, что происходит внутри системы и что ты с ней делаешь.




Moscow.media
Частные объявления сегодня





Rss.plus



В Подмосковье сотрудники Росгвардии провели встречу со студентами финансового университета

В Подмосковье сотрудники Росгвардии провели встречу со студентами финансового университета

Росгвардейцы Чувашии стали бронзовыми призерами Чемпионата войск национальной гвардии по мини-футболу

Росгвардия обеспечила безопасность футбольного матча в Дагестане


Пластический хирург Александр Вдовин: мифы вокруг операции по удалению комков Биша

По местам сказов Павла Бажова

«Граф Монте-Кристо» выходит в России при поддержке Relax FM

Аделина Панина и ее «Белая книга» получили награду


Rangers Star Insists ‘Some Moments’ Have Showed Gers’ Quality

Frustrated Hamilton had to "yank" steering wheel in Azerbaijan GP

Russia to finance encyclopedia of Islam

Premier League clubs showing frustration over secretive Manchester City trial


«Граф Монте-Кристо» выходит в России при поддержке Relax FM

Военные следователи провели рейд по бывшим мигрантам в Феодосии

Axenix открыла лабораторию искусственного интеллекта в Твери

Пластический хирург Александр Вдовин: мифы вокруг операции по удалению комков Биша


Rise of Eros 3.0.200

Microsoft's recyclobot uses machine learning and computer vision to open and recycle 90% of hard drive components

Эти игры настолько сложны, что доведут вас до безумия

Default app 3 (Кейс симулятор Standoff 2)



Ирина Дубцова запустила амбициозный проект для российских семей

Участники Молодежного сообщества ВЫЗОВ взяли интервью у выдающихся деятелей России

В Подмосковье сотрудники Росгвардии провели встречу со студентами финансового университета

Пластический хирург Александр Вдовин: мифы вокруг операции по удалению комков Биша




Один процент за $1 млрд: Бакальчук раскрыл детали объединения Wildberries и Russ

Росгвардия обеспечила правопорядок на футбольном матче «ЦСКА» - «Краснодар» в Москве

В Подмосковье сотрудники Росгвардии провели встречу со студентами финансового университета

Звезды российского балета на сцене Кремлевского дворца: юбилейная программа “Postscript: лучшее”


Участник «Времени героев» капитан Суразов станет главой спорткомитета в Алтае

Ритуальные убийствa и оккультные корни бакинского неонацизма

По делу о стрельбе у офиса Wildberriеs суд арестовал 10 человек

Певица Лада Дэнс посетила Единый пункт отбора на военную службу в Москве


Марии Шараповой завидуют все русские женщины. И вот почему

Tennis.com: Бывший тренер Шараповой и Мыскиной Роберт Лэнсдорп умер в возрасте 85 лет

«Совесть не позволила»: Надежда Гуськова в юности попадала в клубы оригинальным способом

Рейтинг ATP. В топ-10 без изменений, Шаповалов покинул топ-100


Сотрудники региональных музеев прошли курсы повышения квалификации в Музее Победы

Столичные производители нарастили выпуск высокотехнологичной продукции

Капремонт проведут в музыкальной и художественной школах Дубны

Бастрыкинщина


Музыкальные новости

Джиган и Самойлова рассказали о новом увлечении

Дженнифер Лопес сыграет главную роль в «Служебном романе» от Netflix

Кот с собачьим именем и споры о жизни. Как омские панки оказались надёжной опорой для отца Егора Летова

Несостоявшийся дуэт финалиста шоу “Голос” Сергея АРУТЮНОВА и его наставника Басты. Раскрыто имя вокалиста, исполняющего хит “На Заре 2020”



Участники Молодежного сообщества ВЫЗОВ взяли интервью у выдающихся деятелей России

В Подмосковье сотрудники Росгвардии провели встречу со студентами финансового университета

Росгвардия обеспечила безопасность футбольного матча в Дагестане

Пластический хирург Александр Вдовин: мифы вокруг операции по удалению комков Биша


Концерт «Музыка при свечах»

В Республике Таджикистан стартует проект «Русский язык: читаем, слушаем, смотрим в странах СНГ»

Татьяна Бакальчук в слезах обратилась к мужу: "Владислав, что ты творишь?"

Росгвардейцы Чувашии стали бронзовыми призерами Чемпионата войск национальной гвардии по мини-футболу


Столичные росгвардейцы задержали автомобиль, находящийся в розыске 

Источник 360.ru: в Москве произошло смертельное ДТП с мотоциклом и легковушкой

Ветеран войск правопорядка принял участие в мотопробеге «Наследники Победы в строю! Навстречу 80-летию Великой Победы»

На новые авто — ставки ниже. «Выберу.ру» составил рейтинг лучших автокредитов в сентябре 2024 года


Кремль сообщил о подготовке выступления Путина на РЭН

Песков: Путин выступит на Российской энергетической неделе

Путин наградил преподавательский состав МГИМО орденом Александра Невского

В Москве состоялось заседание Всероссийского родительского комитета




Иван Дроботов: «Молоток — неподходящий инструмент решения политических конфликтов»


Пластический хирург Александр Вдовин: мифы вокруг операции по удалению комков Биша

Подросток на спор съел головку чеснока и попал в реанимацию в Москве

СВЕТЛАНА БОЖОР — О ЖИЗНИ ПЛАСТИЧЕСКОГО ХИРУРГА

Московские эксперты оценили детскую хирургию в области


Глава МИД Польши попытался оправдаться за свои слова про Крым

Πpeɜидeнт Μeκcиκи нe пοeдeт в Κиeв: в Μexиκο дaли пοнять, чтο нe xοтят ввяɜывaтьcя в уκpaинcκиe пpοблeмы

Трамп и Харрис говорят Зеленскому «может быть»: неопределенность места встречи унизительна для Киева

Глава офиса Зеленского ответил на предложение министра иностранных дел Польши по


Росгвардия обеспечила безопасность футбольного матча в Дагестане

В Москве росгвардейцы приняли участие в обеспечении безопасности во время проведения спортивных мероприятий

В Москве росгвардейцы приняли участие в обеспечении безопасности во время проведения спортивных мероприятий

Офицер Росгвардии спас жизнь мужчине в Москве


Лукашенко захотел разочаровать международных наблюдателей

Лукашенко заявил о желании разочаровать международных наблюдателей на выборах

Лукашенко заявил о намерении разочаровать международных наблюдателей на выборах



Собянин рассказал о сервисе проверки карты москвича

МСД вошел в тройку самых популярных магистралей Москвы – Сергей Собянин

Собянин: Гранты города помогают НКО в реализации социально значимых проектов

Сергей Собянин: Стремимся быть самыми лучшими по всем направлениям


Экологическая симфония: названы лауреаты Премии ECO BEST!

В МГРИ стартовала программа по изучению изменений климата и экологии

В Московской области сотрудники Росгвардии приняли участие в экологической акции

На севере Москвы жители стали дежурить по ночам из-за незаконной вырубки деревьев


Бастрыкинщина

Сотрудники региональных музеев прошли курсы повышения квалификации в Музее Победы

Аналитики подсчитали расходы на владение недорогим белорусским кроссовером

Столичные производители нарастили выпуск высокотехнологичной продукции


Территорию у метро «Бульвар Генерала Карбышева» ждёт масштабное озеленение

ТСД SAOTRON RT41 GUN: практичный, производительный, надёжный

Выставка «Времени живая нить» открылась в Доме народного творчества в Архангельске

У станции «Бульвар Генерала Карбышева» появится множество зеленых насаждений


Час исторической славы «Сказание о битве Куликовской»

Беседа «Я в мире денег».

Патриотический час «Три цвета красками сияют – в Крыму день флага отмечают».

Акция-призыв «Посмотри, как хорош мир, в котором ты живешь».


Певица Лада Дэнс посетила Единый пункт отбора на военную службу в Москве

Участник «Времени героев» капитан Суразов станет главой спорткомитета в Алтае

Ритуальные убийствa и оккультные корни бакинского неонацизма

Сотрудники региональных музеев прошли курсы повышения квалификации в Музее Победы












Спорт в России и мире

Новости спорта


Новости тенниса
Надежда Гуськова

«Совесть не позволила»: Надежда Гуськова в юности попадала в клубы оригинальным способом






Участник «Времени героев» капитан Суразов станет главой спорткомитета в Алтае

Ритуальные убийствa и оккультные корни бакинского неонацизма

Подготовку к осенне-зимнему периоду обсудили на форуме «Управдом» в Шатуре

Передовые проекты. Названы первые финалисты премии «Приоритет-2024»