IPImen ، Firewall ، NGFirewall-UTM، آیپی ایمن، فایروال ایرانی ، فایروال بومی، یوتی ام بومی، یوتی ام ایرانی، فایروال نسل بعدی ایرانی، فایروال نسل بعدی بومی

تهدید جدید در پردازش تصویر ChatGPT

اخبار داغ فناوری اطلاعات و امنیت شبکه

Takian.ir ChatGPT Vulnerability Lets Attackers Embed

تهدید جدید در پردازش تصویر ChatGPT

محققان امنیتی یک آسیب‌پذیری خطرناک در قابلیت‌های پردازش تصویر ChatGPT کشف کرده‌اند که به مهاجمان امکان می‌دهد از طریق تصاویر مخرب کد دلخواه را اجرا کنند. این نقص، با شناسه CVE-2025-28371، در نسخه‌های خاصی از مدل‌های زبانی پیشرفته (LLMs) OpenAI وجود دارد و می‌تواند به دسترسی غیرمجاز، سرقت داده‌ها یا حتی کنترل سیستم منجر شود. این تهدید به‌ویژه برای سازمان‌هایی که از ChatGPT در محیط‌های حساس استفاده می‌کنند، نگران‌کننده است.

جزئیات آسیب‌پذیری چیست؟

  • شناسه: CVE-2025-28371

  • نوع تهدید: اجرای کد از راه دور (Remote Code Execution - RCE)

  • شدت خطر: بحرانی (امتیاز CVSS: 9.1)

  • تأثیر: مهاجمان می‌توانند با بارگذاری تصاویر دستکاری‌شده حاوی کد مخرب، قابلیت‌های پردازش تصویر ChatGPT را فریب دهند تا دستورات غیرمجاز اجرا شوند.

  • سیستم‌های تحت تأثیر: نسخه‌های ChatGPT با قابلیت پردازش تصویر، به‌ویژه در محیط‌های ابری و API‌های یکپارچه‌شده با برنامه‌های شخص ثالث.

چگونه این نقص کار می‌کند؟

این آسیب‌پذیری از نقص در اعتبارسنجی ورودی‌های تصویری در ChatGPT ناشی می‌شود. مهاجمان می‌توانند کد مخرب را در فرمت‌های تصویری مانند PNG یا JPEG جاسازی کنند. هنگامی که ChatGPT این تصاویر را پردازش می‌کند، کد مخفی اجرا شده و می‌تواند به سرقت داده‌های حساس، دسترسی به سیستم‌های داخلی یا حتی نصب بدافزار منجر شود. این نقص به دلیل وابستگی روزافزون ChatGPT به یکپارچگی با APIها و برنامه‌های خارجی، به‌ویژه در بخش‌های مالی و فناوری، خطرناک‌تر است.

وضعیت بهره‌برداری

تا ۲۰ می ۲۰۲۵، شواهد محدودی از بهره‌برداری فعال در دنیای واقعی گزارش شده است، اما وجود کد اثبات مفهوم (PoC) در انجمن‌های هکری نشان‌دهنده احتمال بالای سوءاستفاده است. محققان هشدار داده‌اند که این آسیب‌پذیری به دلیل سهولت جاسازی کد در تصاویر، می‌تواند به سرعت توسط گروه‌های هکری پیشرفته یا حتی هکرهای آماتور مورد بهره‌برداری قرار گیرد.

اقدامات لازم برای محافظت

OpenAI وصله‌ای برای رفع این آسیب‌پذیری منتشر کرده و به کاربران توصیه کرده فوراً سیستم‌های خود را به‌روزرسانی کنند. اقدامات پیشنهادی:

  1. نصب وصله‌ها: نسخه‌های ChatGPT و APIهای مرتبط را به آخرین نسخه به‌روزرسانی کنید.

  2. فیلتر کردن تصاویر ورودی: از فایروال‌های برنامه وب (WAF) برای اسکن و فیلتر کردن تصاویر ورودی استفاده کنید.

  3. محدود کردن یکپارچگی‌ها: دسترسی APIهای ChatGPT به برنامه‌های شخص ثالث را محدود کنید.

  4. نظارت بر فعالیت‌ها: سیستم‌های تشخیص نفوذ (IDS) را برای شناسایی بارگذاری تصاویر مشکوک فعال کنید.

  5. آموزش کاربران: به کارکنان آموزش دهید تا از بارگذاری تصاویر از منابع ناشناخته خودداری کنند.

چرا این تهدید مهم است؟

قابلیت پردازش تصویر ChatGPT به سازمان‌ها امکان می‌دهد وظایف پیچیده‌ای مانند تجزیه‌وتحلیل اسناد یا شناسایی اشیا را خودکار کنند. بااین‌حال، این آسیب‌پذیری نشان‌دهنده خطرات استفاده از مدل‌های هوش مصنوعی بدون اعتبارسنجی قوی است. بهره‌برداری موفق می‌تواند به نقض داده‌ها، حملات باج‌افزاری یا اختلال در خدمات منجر شود، به‌ویژه در صنایعی مانند بانکداری، مراقبت‌های بهداشتی و فناوری که به شدت به هوش مصنوعی وابسته‌اند.

برچسب ها: MaliciousImages, هوش_مصنوعی, چت_جی_پی_تی, امنیت_سایبری, NetworkSecurity, ChatGPT, Cybercriminal, cybersecurity, Vulnerability, malware, Cyber Attacks, news

چاپ ایمیل