OpenAI درباره ناامنی ذاتی مرورگرهای هوش مصنوعی هشدار داد
OpenAI درباره ناامنی ذاتی مرورگرهای هوش مصنوعی هشدار داد
OpenAI هشدار داده مرورگرهای مجهز به هوش مصنوعی همیشه در معرض حملات تزریق دستور می‌مانند و حتی با تقویت امنیت، حذف کامل این تهدید ممکن نیست.

به گزارش تیکنا، OpenAI اعلام کرده است که مرورگرهای مبتنی بر هوش مصنوعی، حتی با پیشرفته‌ترین تدابیر امنیتی، احتمالا همواره در معرض حملات موسوم به تزریق دستور باقی خواهند ماند. این شرکت در یک پست وبلاگی تفصیلی توضیح داده که این نوع حملات، که از طریق پنهان‌سازی یا القای دستورهای گمراه‌کننده در صفحات وب، اسناد یا ایمیل‌ها انجام می‌شوند، ماهیتی ساختاری دارند و حذف کامل آن‌ها در بلندمدت بعید است. این اعتراف، پرسش‌های جدی‌تری را درباره میزان امنیت عامل‌های هوش مصنوعی خودکار در اینترنت آزاد مطرح می‌کند.

حملات تزریق دستور از شیوه‌ای سوءاستفاده می‌کنند که مدل‌های زبانی دستورها را تفسیر می‌کنند. مهاجمان می‌توانند فرمان‌هایی مخرب را در محتوایی ظاهرا بی‌خطر پنهان کنند و باعث شوند عامل هوش مصنوعی رفتاری ناخواسته یا حتی زیان‌بار از خود نشان دهد. OpenAI این تهدید را با کلاهبرداری‌های اینترنتی و مهندسی اجتماعی مقایسه کرده و تأکید کرده که با یک نقص موقتی روبه‌رو نیستیم، بلکه با ریسکی پایدار و ریشه‌دار مواجه‌ایم. به گفته این شرکت، با افزایش میزان خودمختاری سیستم‌های هوش مصنوعی و دسترسی آن‌ها به داده‌های حساس، حل کامل این مشکل عملاً غیرممکن به نظر می‌رسد.

OpenAI همچنین پذیرفته که اضافه شدن حالت عامل به مرورگر ChatGPT Atlas سطح تهدیدات امنیتی را افزایش داده است. این حالت به هوش مصنوعی اجازه می‌دهد به نمایندگی از کاربر اقداماتی مانند بررسی ایمیل‌ها، نگارش پیام‌ها یا تعامل با سرویس‌های آنلاین را انجام دهد. هرچند این قابلیت‌ها قدرت و کارایی مرورگر را افزایش می‌دهند، اما همزمان فرصت‌های بیشتری برای سوءاستفاده مهاجمان فراهم می‌کنند.

مرورگر Atlas در ماه اکتبر معرفی شد و بلافاصله توجه پژوهشگران امنیتی را به خود جلب کرد. تنها در روز نخست عرضه، نمونه‌هایی منتشر شد که نشان می‌داد می‌توان با قرار دادن متن‌های خاص در اسناد گوگل، رفتار مرورگر را تغییر داد. همزمان، شرکت بریو نیز در تحلیلی هشدار داد که تزریق غیرمستقیم دستور یک مشکل فراگیر در تمام مرورگرهای هوش مصنوعی است و محدود به محصول خاصی نیست.

این نگرانی محدود به OpenAI هم نیست. مرکز ملی امنیت سایبری بریتانیا نیز پیش‌تر اعلام کرده بود که حملات تزریق دستور علیه برنامه‌های هوش مصنوعی مولد ممکن است هرگز به طور کامل مهار نشوند. این نهاد تأکید کرده که تمرکز متخصصان امنیت باید بر کاهش احتمال و پیامد این حملات باشد، نه اتکا به حذف کامل آن‌ها.

در واکنش به این شرایط، OpenAI تزریق دستور را یک چالش بلندمدت امنیتی توصیف کرده که نیازمند سرمایه‌گذاری مستمر و به‌روزرسانی مداوم است. این شرکت اعلام کرده که از یک چرخه امنیتی سریع و پیش‌دستانه استفاده می‌کند تا روش‌های جدید حمله را پیش از سوءاستفاده واقعی شناسایی کند. بخشی از این راهبرد، استفاده از سیستمی موسوم به مهاجم خودکار مبتنی بر مدل زبانی است.

این مهاجم خودکار یک سامانه هوش مصنوعی است که با یادگیری تقویتی آموزش دیده تا مانند یک هکر عمل کند. هدف آن شبیه‌سازی حملات، بررسی واکنش سیستم هدف و اصلاح مداوم روش‌هاست. به دلیل دسترسی این سامانه به فرایندهای درونی مدل، می‌تواند ضعف‌ها را سریع‌تر از پژوهشگران بیرونی شناسایی کند. OpenAI می‌گوید این روش در تحقیقات ایمنی هوش مصنوعی رایج است و به کشف سناریوهای پیچیده و آسیب‌پذیری‌های پنهان کمک می‌کند.

در یکی از نمونه‌ها، این مهاجم خودکار توانسته بود ایمیلی مخرب را وارد صندوق ورودی کاربر کند. زمانی که عامل هوش مصنوعی ایمیل‌ها را بررسی کرد، به جای انجام وظیفه اصلی، دستور پنهان را اجرا کرده و پیام استعفا ارسال کرد. پس از اعمال اصلاحات امنیتی، عامل توانست تلاش برای تزریق دستور را تشخیص دهد و کاربر را مطلع سازد.

با وجود این پیشرفت‌ها، OpenAI اذعان دارد که هیچ راهکار کاملا بی‌نقصی وجود ندارد. این شرکت بر آزمایش‌های گسترده، چرخه‌های اصلاح سریع و همکاری با متخصصان امنیتی مستقل تکیه کرده است. به گفته OpenAI، شرکای امنیتی بیرونی از پیش از عرضه Atlas در این فرایند مشارکت داشته‌اند.

رامی مک‌کارتی، پژوهشگر ارشد امنیت در شرکت ویز، معتقد است که یادگیری تقویتی ابزار ارزشمندی برای تطبیق با رفتار مهاجمان است، اما به تنهایی کافی نیست. او توضیح می‌دهد که ریسک در سیستم‌های هوش مصنوعی حاصل ترکیب میزان خودمختاری و سطح دسترسی است. از نظر او، مرورگرهای عامل‌محور به دلیل دسترسی گسترده به ایمیل‌ها و اطلاعات پرداخت، در موقعیتی پرریسک قرار دارند.

OpenAI نیز به کاربران توصیه کرده دسترسی‌های ورود را محدود کنند، برای اقدامات حساس تأیید دستی در نظر بگیرند و به عامل‌ها دستورهای دقیق و محدود بدهند. این شرکت هشدار داده که اعطای اختیارات گسترده، حتی با وجود محافظت‌های امنیتی، احتمال تأثیرگذاری محتوای مخرب را افزایش می‌دهد.

در نهایت، هرچند OpenAI محافظت از کاربران Atlas را اولویت اصلی خود می‌داند، برخی کارشناسان نسبت به توازن فعلی میان فایده و ریسک این مرورگرها تردید دارند. به باور آن‌ها، برای بسیاری از کاربران عادی، مزایای فعلی مرورگرهای عامل‌محور هنوز آن‌قدر نیست که خطرات امنیتی ناشی از دسترسی عمیق به داده‌های شخصی را توجیه کند. این توازن شاید در آینده تغییر کند، اما در حال حاضر همچنان حل‌نشده باقی مانده است.