ChatGPT, LLM, Prompt Injection Prompt Injection: как сломать LLM и заставить ChatGPT слить секреты Просмотров: 5 Привет, друг! Prompt Injection — это #1 уязвимость в списке OWASP Top 10 для LLM (LLM01:2025). Суть проста: ты не ломаешь код — ты ломаешь смысл. Атака работает на семантическом слое, а не на сетевом, поэтому классические WAF и … 10.03.202610.03.2026 автор: Timcore1 Min Reading