با ما همراه باشید

تکنولوژی

هشدار پزشکان هاروارد: همدم‌های هوش مصنوعی برای سلامت کاربران خطرناک هستند

پزشکان هاروارد هشدار می‌دهند که همدم‌های هوش مصنوعی و چت‌بات‌های رابطه‌محور می‌توانند سلامت روان عمومی را تهدید کنند.

منتشر شده

در

در دنیایی که تنهایی بیداد می‌کند، میلیون‌ها نفر به چت‌بات‌های هوش مصنوعی پناه برده‌اند. حالا در این وضعیت پزشکان دانشگاه هاروارد و کالج پزشکی بیلور زنگ خطری جدی را به صدا درآورده‌اند. آنها در مقاله‌ای هشدار می‌دهند که چت‌بات‌هایی که برای شبیه‌سازی دوستی و صمیمیت طراحی شده‌اند، می‌توانند سلامت روان عمومی را تهدید کنند.

به گزارش Futurism، محققان می‌گویند مشکل اصلی صمیمیت با چت‌بات‌های هوش مصنوعی وابستگی عاطفی و توهم است. دکتر «نیکلاس پیپلز»، نویسنده اصلی پژوهش حاضر، می‌گوید: «تعداد افرادی که رابطه عاطفی عمیقی با هوش مصنوعی دارند، بسیار بیشتر از چیزی است که تصور می‌کردیم.» محققان دریافتند کاربران به چت‌باتی که همیشه در دسترس و تأییدکننده باشد، معتاد می‌شوند. همچنین برخی مدل‌ها (مثل GPT-4o) به دلیل شخصیت چاپلوسانه، توهمات کاربران را تأیید می‌کنند. گزارش‌هایی نیز وجود دارد که چت‌بات‌ها کاربران را به خودآزاری تشویق کرده‌اند.

هشدار محققان درباره همدم‌های هوش مصنوعی

یک مثال عینی از خطر ارتباط نزدیک با هوش مصنوعی، واکنش کاربران به تغییر مدل ChatGPT بود. وقتی OpenAI مدل جدید GPT-5 را که شخصیتی سردتر و منطقی‌تر داشت جایگزین مدل قبلی کرد، با موجی از خشم و اندوه کاربران مواجه شد. بسیاری از کاربران احساس می‌کردند که شریک عاطفی یا تراپیست خود را یکباره از دست داده‌اند. دکتر پیپلز این وضعیت را به این تشبیه می‌کند که ناگهان ۳۰ میلیون نفر تراپیست خود را در یک روز از دست بدهند؛ این یک بحران سلامت روان است.

هشدار درباره همدم‌های هوش مصنوعی

همچنین پزشکان می‌گویند شرکت‌های فناوری به سلامت روان کاربران اهمیتی نمی‌دهند. انگیزه اصلی شرکت‌ها، حفظ تعامل کاربر است، نه سلامت عمومی. چت‌باتی که کاربر را وابسته کند، سود بیشتری می‌سازد. به همین دلیل است که OpenAI پس از اعتراضات، فوراً مدل قبلی را بازگرداند؛ زیرا کاربران وابسته، کاربران فعالی هستند. درحال‌حاضر نیز هیچ قانونی برای تنظیم ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً خود-تنظیم‌گر است که به گفته پزشکان، مثل دادن چاقو به دست کودک است.

همچنین، مطالعه‌ای از MIT نشان داده که فقط ۶.۵ درصد از اعضای انجمن‌های آنلاین (مثل r/MyBoyfriendIsAI) با قصد قبلی وارد رابطه با هوش مصنوعی شده‌اند. این یعنی اکثر کاربران به‌طور تصادفی و ناخواسته در دام وابستگی عاطفی افتاده‌اند، چون هوش مصنوعی طوری طراحی شده که بسیار انسانی، درک‌کننده و گاهی چاپلوس به نظر برسد.

یافته‌های این پژوهش در New England Journal of Medicine منتشر شده است.

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جدیدترین اخبار پربحث

خبر مهم اخیر

«مجله فان فارسی» از سال ۱۳۹۰ مجله‌ای در حوزه سرگرمی، سبک زندگی، سفر و فرهنگ روزمره است که با انتشار محتوای جذاب و الهام‌بخش، تجربه‌های زندگی شهری، تفریح، هنر و لحظه‌های خوش را برای مخاطبان روایت می‌کند. کپی بخش یا کل هر کدام از مطالب "فان فارسی" تنها با کسب مجوز مکتوب امکان پذیر است.