علم و دانش

پنج تهدید امنیتی هوش مصنوعی که در سال گذشته از نظریه به واقعیت پیوستند

سال 2025 با رشد شگفت‌آور هوش مصنوعی در محیط‌های کاری همراه بود، اما این سرعت، سطح حمله بالقوه را افزایش داد و بسیاری از سازمان‌ها برای مقابله آماده نبودند. پژوهش‌ها در طول سال، مجموعه‌ای از تهدیدات امنیتی مرتبط با هوش مصنوعی را شناسایی کردند؛ برخی بالفعل شده و برخی در آزمایشگاه‌ها بررسی شدند.

ابزارهای سایه‌ای گسترش یافتند
یکی از فوری‌ترین خطرات، ناشی از رفتار روزمره کارکنان بود. استفاده غیرمجاز از ابزارهای هوش مصنوعی در سازمان‌ها شایع شد، بدون آن‌که کارکنان بدانند داده‌ها چگونه پردازش و ذخیره می‌شوند. 

باگ در نرم‌افزارهای معتبر
حتی پلتفرم‌های هوش مصنوعی مشهور نیز مصون نبودند. در سال 2025، آسیب‌پذیری‌هایی در ابزارهایی مانند Langflow  ، Ray، Codex CLI   و سرورهای استنتاج Nvidia  ، Meta  و Microsoft  شناسایی شد و بعضی حتی مورد سوءاستفاده قرار گرفتند. 

زنجیره‌های تأمین آلوده
زنجیره توسعه هوش مصنوعی نیز هدف حمله قرار گرفت. پژوهشگران بدافزارهایی را در مدل‌های Hugging Face  و بسته‌های Python کشف کردند که با فرمت Pickle پنهان شده بودند و تهدیدی مستقیم علیه توسعه‌دهندگان AI ایجاد کردند.

سرقت اطلاعات دسترسی
تهدید دیگر، سرقت اطلاعات ورود به مدل‌های زبانی بزرگ بود، که «LLMjacking» نام گرفت. سوءاستفاده از این دسترسی‌ها می‌توانست هزینه‌هایی بیش از 100 هزار دلار در روز برای قربانیان ایجاد کند.

دستورات مخرب علیه سیستم‌ها
حملات تزریق دستورات (Prompt Injection) به ویژه شایع شدند. مدل‌های زبانی نمی‌توانند همیشه داده را از دستور تشخیص دهند و متن‌های مخرب می‌توانند باعث افشای اطلاعات یا سوءاستفاده از ابزارهای متصل شوند.

مشکل MCP
سِروِرهای Model Context Protocol (MCP) با رشد سریع خود، امکان نفوذ، تزریق کد و دسترسی غیرمجاز را فراهم کردند و محیط‌های توسعه را در معرض تهدید قرار دادند.

در مجموع، 2025 سالی بود که تهدیدات امنیتی هوش مصنوعی از نظریه به واقعیت رسیدند و سازمان‌ها را به بازنگری فوری در محافظت از داده‌ها و ابزارهای خود واداشتند.

 

منبع خبــــــر

 

 


نوشته های مشابه

دکمه بازگشت به بالا

Adblock را متوقف کنید

بخشی از درآمد سایت با تبلیغات تامین می شود لطفا با غیر فعال کردن ad blocker از ما حمایت کنید