پنج تهدید امنیتی هوش مصنوعی که در سال گذشته از نظریه به واقعیت پیوستند

سال 2025 با رشد شگفتآور هوش مصنوعی در محیطهای کاری همراه بود، اما این سرعت، سطح حمله بالقوه را افزایش داد و بسیاری از سازمانها برای مقابله آماده نبودند. پژوهشها در طول سال، مجموعهای از تهدیدات امنیتی مرتبط با هوش مصنوعی را شناسایی کردند؛ برخی بالفعل شده و برخی در آزمایشگاهها بررسی شدند.
ابزارهای سایهای گسترش یافتند
یکی از فوریترین خطرات، ناشی از رفتار روزمره کارکنان بود. استفاده غیرمجاز از ابزارهای هوش مصنوعی در سازمانها شایع شد، بدون آنکه کارکنان بدانند دادهها چگونه پردازش و ذخیره میشوند.
باگ در نرمافزارهای معتبر
حتی پلتفرمهای هوش مصنوعی مشهور نیز مصون نبودند. در سال 2025، آسیبپذیریهایی در ابزارهایی مانند Langflow ، Ray، Codex CLI و سرورهای استنتاج Nvidia ، Meta و Microsoft شناسایی شد و بعضی حتی مورد سوءاستفاده قرار گرفتند.
زنجیرههای تأمین آلوده
زنجیره توسعه هوش مصنوعی نیز هدف حمله قرار گرفت. پژوهشگران بدافزارهایی را در مدلهای Hugging Face و بستههای Python کشف کردند که با فرمت Pickle پنهان شده بودند و تهدیدی مستقیم علیه توسعهدهندگان AI ایجاد کردند.
سرقت اطلاعات دسترسی
تهدید دیگر، سرقت اطلاعات ورود به مدلهای زبانی بزرگ بود، که «LLMjacking» نام گرفت. سوءاستفاده از این دسترسیها میتوانست هزینههایی بیش از 100 هزار دلار در روز برای قربانیان ایجاد کند.
دستورات مخرب علیه سیستمها
حملات تزریق دستورات (Prompt Injection) به ویژه شایع شدند. مدلهای زبانی نمیتوانند همیشه داده را از دستور تشخیص دهند و متنهای مخرب میتوانند باعث افشای اطلاعات یا سوءاستفاده از ابزارهای متصل شوند.
مشکل MCP
سِروِرهای Model Context Protocol (MCP) با رشد سریع خود، امکان نفوذ، تزریق کد و دسترسی غیرمجاز را فراهم کردند و محیطهای توسعه را در معرض تهدید قرار دادند.
در مجموع، 2025 سالی بود که تهدیدات امنیتی هوش مصنوعی از نظریه به واقعیت رسیدند و سازمانها را به بازنگری فوری در محافظت از دادهها و ابزارهای خود واداشتند.










