Почти половина работников использует искусственный интеллект ненадлежащим образом
Об этом сообщает «Politexpert» со ссылкой на The Conversation
Искусственный интеллект (ИИ) быстро завоевывает рабочие места по всему миру, предлагая сотрудникам новые способы повышения продуктивности и улучшения качества работы. Однако результаты глобального исследования, охватившего более 32 тысяч работников в 47 странах, выявили тревожную картину: несмотря на явные преимущества использования ИИ, значительное количество сотрудников применяет эти инструменты ненадлежащим образом, что несет риски для безопасности данных и организации в целом.
По данным исследования, 58% работников регулярно используют ИИ на работе, что подтверждает его растущую популярность в различных отраслях. Однако почти половина из них (47%) призналась, что использовала ИИ в способах, которые могут быть сочтены неподобающими. Это включает загрузку чувствительной информации в публичные инструменты ИИ, использование ответов без проверки и скрытное применение ИИ, что вызывает серьезные проблемы для компаний.
Риски использования ИИ без должного контроля
Одним из самых серьезных рисков, выявленных в исследовании, является передача конфиденциальной информации компании в публичные ИИ-инструменты. Почти половина респондентов (48%) призналась, что загружала такие данные, как информация о клиентах или финансовые отчеты, в инструменты, доступные широкой аудитории. Это несет угрозу утечек данных и может привести к юридическим последствиям.
Помимо этого, значительное количество сотрудников использует ИИ без должной проверки его выводов. 66% респондентов сообщили, что полагаются на результаты, предоставленные ИИ, без их проверки. Это может привести к ошибкам, которые могут повлиять на принятие важных решений, а в некоторых случаях даже вызвать финансовые потери или репутационные убытки для организации.
Проблема «теневого ИИ»: как скрытое использование технологий подрывает безопасность
Еще одной ключевой проблемой является «теневое использование ИИ» — ситуация, когда сотрудники не сообщают о применении ИИ в своей работе. Согласно исследованию, 61% работников избегают раскрывать факт использования ИИ, а 55% представляют результаты работы ИИ как свои собственные. Это делает управление рисками еще более сложным, поскольку компаниям трудно отслеживать, контролировать и минимизировать угрозы, исходящие от неконтролируемого применения ИИ.
Отсутствие прозрачности в использовании ИИ может привести к увеличению рисков, связанных с утечками данных, нарушениями конфиденциальности и даже юридическими последствиями. К тому же, без четкой политики и управления ИИ, компании рискуют потерять контроль над своими процессами, что может привести к неэффективному использованию технологий.
Необходимость внедрения обучения и политики использования ИИ
Для того чтобы минимизировать риски, связанные с использованием ИИ на рабочих местах, необходимо разработать четкие политики и методы управления. Внедрение специального обучения для сотрудников по ответственному использованию ИИ поможет повысить их осведомленность и снизить вероятность ошибок. Исследования показали, что сотрудники с хорошими знаниями о возможностях и ограничениях ИИ гораздо более эффективно используют эти технологии и реже совершают ошибки.
Кроме того, важно, чтобы компании создавали культуру, поддерживающую открытость в вопросах использования ИИ. Это позволит не только снизить риски, но и создать атмосферу для безопасного и ответственного внедрения технологий в рабочие процессы.
Напомним, ранее мы писали о том, что учёные превращают кожуру помело в устройства для выработки электричества.