با ما همراه باشید

تکنولوژی

هشدار دانشمندان آکسفورد: مشاوره پزشکی با هوش مصنوعی می‌تواند خطرناک باشد

مطالعه جدید محققان دانشگاه آکسفورد نشان می‌دهد استفاده از چت‌بات‌های هوش مصنوعی برای مشاوره پزشکی خطرناک است.

منتشر شده

در

هشدار دانشمندان آکسفورد: مشاوره پزشکی با هوش مصنوعی می‌تواند خطرناک باشد

اگر شما هم جزو میلیون‌ها نفری هستید که برای تشخیص بیماری خود به سراغ ChatGPT یا سایر چت‌بات‌ها می‌روید، بهتر است دست نگه دارید. مطالعه جدید محققان دانشگاه آکسفورد نشان می‌دهد که اعتماد به هوش مصنوعی برای تصمیم‌گیری‌های پزشکی می‌تواند عواقب خطرناکی داشته باشد.

براساس گزارش BBC، محققان دانشگاه آکسفورد می‌گویند مدل‌های هوش مصنوعی در زمینه پزشکی پاسخ‌های ناسازگار و گاهی نادرست می‌دهند. دکتر «ربکا پین»، پزشک ارشد این مطالعه، هشدار می‌دهد که پرسیدن علائم بیماری از چت‌بات‌ها می‌تواند خطرناک باشد.

در این پژوهش که روی ۱۳۰۰ نفر انجام شد، شرکت‌کنندگان در سناریوهای مختلف (مانند سردرد شدید یا خستگی مداوم پس از زایمان) قرار گرفتند. نتایج نشان داد افرادی که از هوش مصنوعی استفاده کردند، تصمیمات بهتری نسبت به کسانی که از روش‌های سنتی (مانند جستجو در گوگل) استفاده می‌کردند، نگرفتند.

مشکل اصلی اینجاست که هوش مصنوعی ممکن است سه تشخیص مختلف ارائه دهد و کاربر را در حدس‌زدن گزینه صحیح تنها بگذارد. دکتر «آدام مهدی» توضیح می‌دهد: «مردم اطلاعات را به صورت تدریجی به چت‌بات می‌دهند و همه چیز را نمی‌گویند؛ دقیقاً همین‌جاست که کار خراب می‌شود.»

خطرهای مشاوره پزشکی با هوش مصنوعی

در این مطالعه پژوهشگران متوجه یک شکست ارتباطی دوطرفه بین کاربر و هوش مصنوعی شدند. کاربران نمی‌دانستند هوش مصنوعی برای ارائه مشاوره دقیق به چه جزئیاتی نیاز دارد. از سوی دیگر، پاسخ‌های هوش مصنوعی به شدت به نحوه جمله‌بندی سؤال وابسته بود. محققان می‌گویند: «این تحلیل نشان داد که تعامل با انسان‌ها حتی برای مدل‌های هوش مصنوعی پیشرفته هم یک چالش بزرگ است.»

خطرهای مشاوره پزشکی با هوش مصنوعی
هشدار دانشمندان آکسفورد: مشاوره پزشکی با هوش مصنوعی می‌تواند خطرناک باشد

برخلاف تست‌های استاندارد پزشکی که هوش مصنوعی در آنها نمره قبولی می‌گیرد، در دنیای واقعی و در تعامل با افراد غیرمتخصص، این سیستم‌ها دچار لغزش می‌شوند. بنابراین، تکیه بر آنها برای تصمیم‌گیری درباره مراجعه به پزشک عمومی یا اورژانس، ریسک بالایی دارد.

دکتر «امبر چایلدز» (Amber W. Childs) از دانشگاه ییل اشاره می‌کند که چون چت‌بات‌ها با داده‌های فعلی پزشکی آموزش دیده‌اند، همان سوگیری‌ها و تعصباتی را که دهه‌ها در پزشکی وجود داشته است، تکرار می‌کنند. او می‌گوید: «یک چت‌بات فقط به اندازه پزشکان باتجربه‌ای که داده‌هایش را تولید کرده‌اند خوب است، که آن هم کامل نیست.»

البته برخی از کارشناسان نیز معتقدند که نسخه‌‎های تخصصی پزشکی که اخیراً توسط شرکت‌هایی مانند OpenAI و آنتروپیک عرضه شده‌اند، ممکن است نتایج متفاوتی داشته باشند. هدف باید بهبود تکنولوژی با قوانین نظارتی شفاف و گاردریل‌های پزشکی باشد تا امنیت بیماران تضمین شود.

یافته‌های این پژوهش در ژورنال Nature Medicine منتشر شده است.

ادامه مطلب
برای افزودن دیدگاه کلیک کنید

یک پاسخ بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سینمای ایران و جهان49 دقیقه پیش

سعید نجاتی «سیمرغ فجر» خود را به جانباز لانچر اهدا کرد

مرز میان سکوت و ایستادگی دیگر مبهم نیست
سینمای ایران و جهان54 دقیقه پیش

مرز میان سکوت و ایستادگی دیگر مبهم نیست

اقتصاد پولی مالی3 ساعت پیش

قیمت طلا و سکه امروز یکشنبه ۳۰ فروردین/ افزایش همه قیمت ها + جدول و جزییات

تصمیم جدید ترامپ برای حمله زمینی به ایران / جزیره خارک هدف آمریکا نیست!
سیاسی و اجتماعی3 ساعت پیش

تصمیم جدید ترامپ برای حمله زمینی به ایران / جزیره خارک هدف آمریکا نیست!

توافق ۸۰ درصدی ایران و آمریکا / شبکه هابرترک مدعی شد
سیاسی و اجتماعی3 ساعت پیش

توافق ۸۰ درصدی ایران و آمریکا / شبکه هابرترک مدعی شد

آخرین وضعیت معرفی نمایندگان فوتبال ایران در رقابت‌های آسیایی/ فدراسیون به دنبال فرصت دوباره از AFC
ورزشی5 ساعت پیش

آخرین وضعیت معرفی نمایندگان فوتبال ایران در رقابت‌های آسیایی/ فدراسیون به دنبال فرصت دوباره از AFC

جاسوسی پرسنل نیروی هوایی اسرائیل برای ایران/ سازمان‌های امنیتی اسرائیل گزارش دادند
سیاسی و اجتماعی9 ساعت پیش

جاسوسی پرسنل نیروی هوایی اسرائیل برای ایران/ سازمان‌های امنیتی اسرائیل گزارش دادند

گزارش بلومبرگ درمورد فرار تانکرهای حامل گاز پس از هشدار ایران
سیاسی و اجتماعی9 ساعت پیش

گزارش بلومبرگ درمورد فرار تانکرهای حامل گاز پس از هشدار ایران

دیپ‌فیک در خدمت پروپاگاندا: هوش مصنوعی چطور صدا و تصویر رهبران را جعل می‌کند و راه‌های تشخیص آن چیست؟
تکنولوژی10 ساعت پیش

دیپ‌فیک در خدمت پروپاگاندا: هوش مصنوعی چطور صدا و تصویر رهبران را جعل می‌کند و راه‌های تشخیص آن چیست؟

«مدلی بیش از حد قوی برای عموم»؛ نگاهی به راهبرد آنتروپیک برای جلب نظر مردم
تکنولوژی10 ساعت پیش

«مدلی بیش از حد قوی برای عموم»؛ نگاهی به راهبرد آنتروپیک برای جلب نظر مردم

جدیدترین اخبار پربحث

خبر مهم اخیر

«مجله فان فارسی» از سال ۱۳۹۰ مجله‌ای در حوزه سرگرمی، سبک زندگی، سفر و فرهنگ روزمره است که با انتشار محتوای جذاب و الهام‌بخش، تجربه‌های زندگی شهری، تفریح، هنر و لحظه‌های خوش را برای مخاطبان روایت می‌کند. کپی بخش یا کل هر کدام از مطالب "فان فارسی" تنها با کسب مجوز مکتوب امکان پذیر است.