С момента запуска чат-бота ChatGPT количество электронных писем с фишингом подскочило на 1265%. Такие расчеты привели аналитики SlashNext, пишет Decrypt.
«Из наших исследований мы знаем, что субъекты угроз используют инструменты вроде ChatGPT для написания сложных, целенаправленных, компрометирующих бизнес-писем и других фишинговых сообщений», — указал CEO фирмы Патрик Харр.
Специалист заявил, что потенциальные жертвы «должны перейти в наступление» и «бороться с ИИ с помощью ИИ».
«Компании должны внедрять искусственный интеллект непосредственно в программы безопасности для постоянного мониторинга всех каналов обмена сообщениями для устранения угроз. Мы используем технологию в наборах инструментов для обнаружения […] и прогнозирования», — пояснил эксперт.
Харр с оптимизмом смотрит на способность искусственного интеллекта ловить мошеннических ИИ. Однако специалист признает, что потребуется нечто большее, чем просто сообщить ChatGPT о киберугрозах.
«Поверх этого у вас должен быть эквивалент частного приложения с большой языковой моделью», — подчеркнул он.
Cтартап Anthropic, разрабатывающий большие языковые модели, представил «конституции» для ответственного создания ИИ-алгоритмов.
Ранее отчет Gartner показал, что 66% риск-менеджеров считают генеративный искусственный интеллект угрозой для организаций.
Аналитики выделили три сегмента, которые нужно держать под контролем с точки зрения управления корпоративными рисками: интеллектуальная собственность, конфиденциальность данных и кибербезопасность.
Источник: cryptocurrency.tech