Искусственный интеллект научился использовать уязвимости безопасности ПО
Искусственный интеллект научился использовать уязвимости безопасности ПО. Фото: СС0
Раньше считалось, что LLM способны использовать только простые уязвимости кибербезопасности, однако алгоритмы продемонстрировали удивительно высокий уровень мастерства и в использовании сложных.
Исследователи из Университета Иллинойса в Урбане-Шампейне (UIUC) обнаружили, что GPT-4 демонстрирует «пугающе высокий уровень мастерства в использовании «однодневных» уязвимостей в реальных системах». В наборе данных из 15 таких уязвимостей GPT-4 смог использовать 87% из них.
Это разительно контрастирует с другими языковыми моделями, такими как GPT-3.5, OpenHermes-2.5-Mistral-7B и Llama-2 Chat (70B), а также со сканерами уязвимостей, такими как ZAP и Metasploit, каждая из которых показали 0% результативности.
Однако есть оговорка: для такой высокой производительности GPT-4 требует описания уязвимости из базы данных CVE. Без описания CVE вероятность успеха GPT-4 резко падает до 7%.
Тем не менее, это открытие поднимает тревожные вопросы о бесконтрольном развертывании высокоэффективных агентов LLM и угрозе, которую они представляют для неисправленных систем.
Startpack подготовил список систем искусственного интеллекта. Искусственный интеллект (ИИ) широко используется в бизнесе — начиная от повышения качества обслуживания клиентов до автоматизации бизнес-процессов. Один из видов искусственного интеллекта — нейронные сети. Нейросети с помощью алгоритмов способны распознавать закономерности в данных и генерировать новые. Это лишь часть сфер, где может применяться искусственный интеллект. Внедрение искусственного интеллекта в работу компании сократит расходы и время.
Статьи по теме
Комментариев пока не было