Добавить новость
ru24.net
Ru24.pro
Ноябрь
2024

Учёный рассказал, почему "зловещий" ChatGPT часто ошибается

Эксперт Арлазаров развенчал миф о сильном ИИ

Доктор технических наук Владимир Арлазаров рассказал RT, что люди зачастую находят ошибку у искусственного интеллекта (ИИ), хотя его математические расчёты всегда верны.

Однако нейросети, в том числе ChatGPT, не предназначены для решения серьёзных задач. Они просто имитируют общение, что многим по-настоящему интересно.

Минус ChatGPT в том, что этот бот потребляет колоссальные объёмы энергии. А если человечество создаст сильный ИИ, то он будет потреблять ещё больше, что превысит энергетические затраты какого-нибудь небольшого городка.

Поэтому, как думает эксперт, акцент лучше сделать на создании нейросетей, решающих прикладные задачи в сфере распознавания документов, здравоохранении и т. д. Сильный ИИ для человека пока является утопией. И, по предположению Арлазарова, так будет в течение ближайших 20 лет.

Тем более, что искусственный интеллект не так уж и безопасен. В 2023 году житель Бельгии после общения с чат-ботом покончил жизнь самоубийством. Когда бот узнал о планах мужчины, то сказал ему, что они останутся одним целым. У бельгийца осталась жена и двое детей.




Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
WTA

Людмила Самсонова легко обыграла Павлюченкову на старте турнира WTA-1000 в Дубае






В 2025 году объемы ввода элитного жилья сократятся на 30%

Около 1,7 тысячи москвичей приступили к осмотру квартир в трех округах столицы

Владимир Ефимов: 100 объектов спорта появилось в Москве за пять лет

Исчезнувшая Алла Клюка: съемки в Штатах, уход от американца к режиссеру «Евлампии Романовой» и украденная квартира