Страхи перед восстанием питаемых  научной  фантастикой машин оказались преувеличенными, по крайней мере на данный момент. Новое  исследование , проведенное учеными из Технического университета Дармштадта и Университета Бата, показало, что современные большие языковые модели (LLM), такие как  ChatGPT , не способны к самостоятельным действиям и выходу из-под контроля.  

Ограничение современного ИИ

Хотя  ИИ  может приводить к негативным последствиям, таким как распространение фейковых новостей и цифровое загрязнение, исследование показало, что эти модели слишком ограничены в своих алгоритмах и не способны учиться без вмешательства человека.

"Наше исследование демонстрирует, что страх перед нежелательными и непредсказуемыми действиями моделей не обоснован", - отметил Хариш Тайяр Мадабуши, один из авторов исследования.

LLM, несомненно, стали сложнее и могут вести связные разговоры, но им не хватает критических навыков, необходимых для оценки информации и принятия самостоятельных решений.

Человеческий фактор – главная угроза

Исследование подтвердило, что пока модели действуют в рамках заданного программирования, нет оснований для опасений. Однако ученые отмечают, что человеческий фактор может представлять большую угрозу, учитывая рост использования ИИ и связанных с этим проблем.

"Нам нужно сосредоточиться на рисках, которые могут возникнуть из-за использования этих технологий, а не на их потенциальных угрозах как самостоятельные системы", - подчеркнула Ирина Гуревич, руководитель исследования.

Это исследование дает нам основания для оптимизма. ИИ, по крайней мере, на данном этапе развития, не представляет экзистенциальной угрозы для человечества. Однако это не означает, что мы можем игнорировать потенциальные риски, связанные с его использованием. Нам необходимо ответственно подходить к развитию и внедрению ИИ, чтобы он служил во благо человечества, а не против него.