Добавить новость
ru24.net
Ru24.pro
Апрель
2026
1 2 3 4 5 6 7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

Алексей Рыков предупредил о манипуляциях с помощью дипфейков

ИИ-режиссёр Алексей Рыков предупредил о рисках использования дипфейков. Он отметил, что нейросети на основе реальных данных воспроизводят мимику и жесты людей. Эти технологии уже применяются мошенниками для осуществления видеозвонков с синтетическими лицами.

ИИ-режиссёр и предприниматель Алексей Рыков заявил о том, что генеративные нейросети сегодня имеют способность воспроизводить не только облик человека, но и его мимику, жесты, а также поведенческие особенности, что делает дипфейки инструментом манипуляций.

В интервью газете «Известия» Рыков подчеркнул, что при создании реалистичных видеоматериалов нейросети используют реальные фотографии и видео, из которых извлекаются поведенческие модели. Рыков также отметил, что эти технологии уже используются злоумышленниками для осуществления видеозвонков с использованием синтетического лица и голоса. При этом пользователи социальных сетей фактически предоставляют материал для создания своих цифровых копий.

Недавно старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА Андрей Рыбников в беседе с RT дал советы по защите персональных данных на изображениях документов.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса