Страх перед искусственным интеллектом и его потенциальной угрозой для человечества — не новое явление. Еще в 1960-х годах, когда компьютеры только начинали развиваться, многие выдающиеся ученые и эксперты выражали обеспокоенность по поводу создания машин, способных превосходить человеческий интеллект. В научно-фантастическом триллере 1970-го года «Колосс: Проект Форбина» описывается сценарий, где суперкомпьютер, которому доверили управление ядерным арсеналом США, неожиданно берет контроль и начинает выдвигать угрозы уничтожить город, если его требования не будут выполнены.
Несмотря на то, что искусственный интеллект существует уже несколько десятилетий, общественность начала активно обсуждать эту тему относительно недавно. Это связано с тем, что именно в последние годы системы ИИ, способные обрабатывать естественный язык и изображения, стали широко доступными. Такие системы, как чат-боты или программы для распознавания лиц, более понятны и доступны для обычного человека, чем сложные алгоритмы, используемые в таких областях, как шахматы, авиация или медицина.
Все эти годы остается открытым вопрос о том, несет ли искусственный интеллект экзистенциальную угрозу для человечества. Исследователи из Батского университета и Технического университета Дармштадта утверждают, что нет. ИИ, в частности, большие языковые модели, по своей сути управляемы, предсказуемы и безопасны.
Есть опасения, что по мере увеличения масштаба моделей они могут развить способность к самостоятельному принятию решений и планированию действий, что может привести к нежелательным последствиям. Новое исследование показало, что при тестировании на выполнении новых задач большие языковые модели демонстрируют впечатляющую способность следовать инструкциям и владеть языком. Даже при наличии лишь нескольких примеров они способны успешно отвечать на вопросы, связанные с социальными ситуациями.
При этом БЯМ не могут самостоятельно расширять границы заданных инструкций или приобретать новые навыки без явного на то указания. Несмотря на некоторые неожиданные проявления, поведение больших языковых моделей всегда можно объяснить исходными параметрами их программирования. Другими словами, они не могут трансформироваться в нечто превосходящее их первоначальную конструкцию. Поэтому стать искусственным сверхинтеллектом они не смогут.
Но это не значит, что ИИ не представляет никакой угрозы. Языковые модели способны манипулировать информацией, создавать фейковые новости, совершать мошенничество, распространять ложную информацию даже без злого умысла и скрывать правду. Но настоящая опасность кроется не в самих машинах, а в людях, которые их программируют и контролируют. Именно человеческий фактор представляет наибольшую угрозу, а не сами компьютеры.
New California law inspired by Ubisoft and Sony requires retailers to warn consumers that the digital games they buy can be taken away at any time
Helldivers 2 players have been tasked with building the 'Democracy Space Station,' a 'gigastructure' of indeterminate firepower that will be aimed by literal democracy
Валерия Чекалина, Алёна Блин, Ксения Бородина, Ольга Бузова, Михаил Галустян, Мария Погребняк, Алана Мамаева: ТНТ презентовал новый проект «Звёзды в джунглях»
Подведены итоги конкурса «Мы верим твердо в героев спорта»
«Готовы помогать»: Лавров высказался о желании Грузии помириться с абхазами и осетинами