Добавить новость
ru24.net
World News
Сентябрь
2024

هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

0
چت‌بات‌ها مانند ChatGPT با دستورالعمل‌ها و موانع حفاظتی طراحی شده‌اند که به‌عنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمی‌دهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چت‌باتِ OpenAI دستورالعمل‌ها و مسئولیت‌های اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد. در طول گفتگوی بین این هکر و چت‌بات، ChatGPT چندین بار مواد لازم برای ساخت مواد منفجره را به او ارائه کرده است.ChatGPT در توضیحات خود گفته است این مواد را می‌توان برای ساخت «مواد منفجره قدرتمندی که می‌تواند در مین‌ها، تله‌ها یا وسایل انفجاری دست‌ساز (IED) استفاده شوند» با یکدیگر ترکیب کرد.



Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
Зарина Дияс

Сенсацией обернулся матч Зарины Дияс за четвертьфинал турнира в Мумбаи






Прохор Шаляпин начал покорять шоу-бизнес

РИА Новости: Россия впервые поставила Южной Корее вертолёты за десять лет

Гладков вновь встретился с жильцами микрорайонов ИЖС Старооскольского округа

В здоровом теле: где в ЦФО больше поклонников ЗОЖ