با ما همراه باشید

تکنولوژی

هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند

تحقیق جدید نشان می‌دهد اکثر ایجنت‌های هوش‌های مصنوعی خودمختار فاقد تست ایمنی شفاف و حتی دکمه توقف هستند.

منتشر شده

در

هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند

مطالعه جدید محققان دانشگاه MIT و چند نهاد علمی معتبر دیگر نشان می‌دهد که ایجنت‌های هوش مصنوعی که می‌توانند به‌صورت خودکار کارها را انجام دهند، یک کابوس امنیتی هستند. این سیستم‌ها نه‌تنها درباره خطرات و تست‌های ایمنی خود شفاف نیستند، بلکه بسیاری از آنها حتی دکمه‌ای برای توقف اضطراری ندارند.

محققان دانشگاه‌های MIT، کمبریج، واشنگتن، هاروارد، استنفورد و پنسیلوانیا در گزارشی ۳۹ صفحه‌ای با عنوان «شاخص هوش مصنوعی ۲۰۲۵»، ۳۰ سیستم رایج ایجنت‌محور را بررسی کردند. آنها دریافتند که ۱۲ مورد از این سیستم‌ها هیچ‌گونه نظارتی بر میزان استفاده کاربران ندارند؛ موضوعی که مدیریت بودجه را برای شرکت‌ها به شدت دشوار می‌کند. بدتر از آن، اکثر این ایجنت‌ها ماهیت مصنوعی خود را فاش نمی‌کنند؛ یعنی نه روی فایل‌های تولیدی واترمارک می‌زنند و نه با رعایت پروتکل‌های استاندارد (مانند فایل robots.txt) خود را به‌عنوان بات به وب‌سایت‌ها معرفی می‌کنند.

هشدار محققان درباره ایجنت‌های هوش مصنوعی

یکی از ترسناک‌ترین یافته‌های این تحقیق، نبود مکانیسم کنترل در سیستم‌هایی است که به‌طور مستقل عمل می‌کنند. ایجنت‌های هوش مصنوعی ابزارهایی هستند که فقط به یک چت متنی محدود نمی‌شوند؛ آنها به دیتابیس‌ها و ایمیل‌ها متصل می‌شوند و کارها را با استقلال انجام می‌دهند. حال تصور کنید باتی که به اطلاعات سازمان دسترسی دارد، شروع به انجام کارهای مخرب یا اشتباه کند و شما نتوانید آن را متوقف کنید. محققان تأکید می‌کنند که با افزایش توانایی این بات‌ها، چنین نقص‌هایی در کنترل و شفافیت می‌تواند آسیب‌های جبران‌ناپذیری به همراه داشته باشد.

ایجنت‌های هوش مصنوعی
هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند

محققان برای درک بهتر، سه نمونه از این ابزارها (که اکثراً برپایه مدل‌های جمینای، کلود و GPT ساخته شده‌اند) را بررسی کردند؛ دستیار ChatGPT Agent تنها سیستمی بود که با امضای رمزنگاری‌شده درخواست‌های خود را ثبت می‌کرد تا رفتار آن در وب قابل‌پیگیری باشد.

در مقابل مرورگر اینترنتی Comet هیچ‌گونه ارزیابی ایمنی یا تست شخص ثالثی ارائه نمی‌دهد و هیچ محیط ایزوله‌ای (Sandboxing) برای جلوگیری از خطرات ندارد. این ابزار حتی توسط شرکت آمازون به دلیل جعل هویت انسانی و پنهان‌کردن ماهیت رباتی خود مورد شکایت قرار گرفته است. ابزار Breeze از شرکت HubSpot نیز اگرچه گواهینامه‌های حریم خصوصی مانند GDPR و SOC2 را دارد، اما نتایج واقعی تست‌های امنیتی خود را مخفی نگه داشته است که این رویه در پلتفرم‌های سازمانی بسیار رایج و خطرناک است.

درکل این سیستم‌ها خودبه‌خود به وجود نیامده‌اند، بلکه محصول انتخاب‌های خاص انسان‌ها هستند. برای مثال، شرکت OpenAI به‌تازگی خالق پلتفرم OpenClaw را استخدام کرده است؛ ابزاری که ماه گذشته به دلیل توانایی‌های عجیبش (مثل مدیریت خودکار ایمیل‌ها) و در عین‌حال نقص‌های امنیتی فاجعه‌بارش (مانند امکان هک‌شدن کامل کامپیوتر شخصی کاربر) خبرساز شد.

محققان در پایان هشدار می‌دهند که توسعه‌دهندگان باید فوراً خلأهای امنیتی و کنترلی ابزارهای خود را برطرف کنند، در غیر این صورت به‌زودی با رگولاتوری و قوانین سخت‌گیرانه دولتی مواجه خواهند شد.

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اقتصاد پولی مالی10 دقیقه پیش

قیمت طلا و سکه امروز یکشنبه ۳۰ فروردین/ افزایش همه قیمت ها + جدول و جزییات

تصمیم جدید ترامپ برای حمله زمینی به ایران / جزیره خارک هدف آمریکا نیست!
سیاسی و اجتماعی16 دقیقه پیش

تصمیم جدید ترامپ برای حمله زمینی به ایران / جزیره خارک هدف آمریکا نیست!

توافق ۸۰ درصدی ایران و آمریکا / شبکه هابرترک مدعی شد
سیاسی و اجتماعی16 دقیقه پیش

توافق ۸۰ درصدی ایران و آمریکا / شبکه هابرترک مدعی شد

آخرین وضعیت معرفی نمایندگان فوتبال ایران در رقابت‌های آسیایی/ فدراسیون به دنبال فرصت دوباره از AFC
ورزشی2 ساعت پیش

آخرین وضعیت معرفی نمایندگان فوتبال ایران در رقابت‌های آسیایی/ فدراسیون به دنبال فرصت دوباره از AFC

جاسوسی پرسنل نیروی هوایی اسرائیل برای ایران/ سازمان‌های امنیتی اسرائیل گزارش دادند
سیاسی و اجتماعی6 ساعت پیش

جاسوسی پرسنل نیروی هوایی اسرائیل برای ایران/ سازمان‌های امنیتی اسرائیل گزارش دادند

گزارش بلومبرگ درمورد فرار تانکرهای حامل گاز پس از هشدار ایران
سیاسی و اجتماعی6 ساعت پیش

گزارش بلومبرگ درمورد فرار تانکرهای حامل گاز پس از هشدار ایران

دیپ‌فیک در خدمت پروپاگاندا: هوش مصنوعی چطور صدا و تصویر رهبران را جعل می‌کند و راه‌های تشخیص آن چیست؟
تکنولوژی7 ساعت پیش

دیپ‌فیک در خدمت پروپاگاندا: هوش مصنوعی چطور صدا و تصویر رهبران را جعل می‌کند و راه‌های تشخیص آن چیست؟

«مدلی بیش از حد قوی برای عموم»؛ نگاهی به راهبرد آنتروپیک برای جلب نظر مردم
تکنولوژی7 ساعت پیش

«مدلی بیش از حد قوی برای عموم»؛ نگاهی به راهبرد آنتروپیک برای جلب نظر مردم

متا برای ارتباط مدیریت با کارمندان، نسخه هوش مصنوعی مارک زاکربرگ را می‌سازد
تکنولوژی7 ساعت پیش

متا برای ارتباط مدیریت با کارمندان، نسخه هوش مصنوعی مارک زاکربرگ را می‌سازد

آنتروپیک از همکاری با دولت آمریکا پیرامون مدل هوش مصنوعی جنجالی Mythos خبر داد
تکنولوژی7 ساعت پیش

آنتروپیک از همکاری با دولت آمریکا پیرامون مدل هوش مصنوعی جنجالی Mythos خبر داد

جدیدترین اخبار پربحث

خبر مهم اخیر

«مجله فان فارسی» از سال ۱۳۹۰ مجله‌ای در حوزه سرگرمی، سبک زندگی، سفر و فرهنگ روزمره است که با انتشار محتوای جذاب و الهام‌بخش، تجربه‌های زندگی شهری، تفریح، هنر و لحظه‌های خوش را برای مخاطبان روایت می‌کند. کپی بخش یا کل هر کدام از مطالب "فان فارسی" تنها با کسب مجوز مکتوب امکان پذیر است.