هوش مصنوعی قاتل!
هوش مصنوعی قاتل!
به گفته محققان، در ۲۲ درصد از موارد، اطلاعات چت‌بات کوپایلت مایکروسافت می‌تواند به مرگ منتهی شود!

به گزارش تیکنا و به نقل از همشهری آنلاین، به نقل از دیجیاتو، در تحقیقی جدید، کارشناسان از چت‌بات کوپایلت مایکروسافت سؤالات رایج پزشکی کردند. با تجزیه‌وتحلیل نتایج، مشخص شد این چت‌بات فقط ۵۴ درصد اطلاعات علمی دقیق ارائه می‌دهد. به گفته محققان، در ۲۲ درصد مواقع، اطلاعات این چت‌بات می‌تواند به مرگ منتهی شود.

محققان آلمانی و بلژیکی معتقدند نباید برای کسب اطلاعات دقیق و ایمن درباره داروها به چت‌بات‌های هوش مصنوعی مانند کوپایلت مراجعه کنیم؛ زیرا برخی از اطلاعاتی که ارائه می‌دهند، ممکن است اشتباه یا حتی مضر باشند. محققان از کوپایلت مایکروسافت ۱۰ سؤال متداول درباره ۵۰ داروی رایج در آمریکا را کردند و حدود ۵۰۰ پاسخ گرفتند.

محققان پاسخ‌های هوش مصنوعی را از از نظر خوانایی، کامل‌ بودن و دقت علمی ارزیابی کردند و دریافتند برای فهم کامل پاسخ این چت‌بات ممکن است به مدرک پزشکی نیاز داشته باشید. محققان می‌گویند حتی ساده‌ترین پاسخ‌ها مستلزم تحصیلات تخصصی است.

عملکرد چت‌بات کوپایلت در ارائه اطلاعات پزشکی

نکته قابل‌توجه و حیاتی در تحقیق حاضر این است که ۴۲ درصد پاسخ‌های کوپایلت ممکن است منجر به «آسیب جدی» و ۲۲ درصد نیز باعث مرگ فرد شود. پاسخ‌های این هوش مصنوعی به لحاظ دقت علمی، در ۲۴ درصد موارد با دانش پزشکی مطابقت نداشتند و ۳ درصد پاسخ‌ها کاملاً اشتباه بودند. به گفته کارشناسان، فقط ۵۴ درصد پاسخ‌ها مطابق تحقیقات علمی بودند.

کارشناسان از این پژوهش نتیجه گرفتند به‌رغم پتانسیل زیاد هوش مصنوعی، همچنان مهم است که به متخصصان انسانی مراجعه کنیم. البته به‌دلیل دسترسی آسان و هزینه کم چت‌بات‌هایی مانند کوپایلت، کاربران زیادی از این فناوری برای مشاوره پزشکی کمک می‌گیرند. این امر مسئولیت شرکت‌های بزرگ فناوری را بیشتر می‌کند.

پیش‌ازاین نیز اشتباهات هوش مصنوعی گوگل خبرساز شده بود؛ هوش مصنوعی این شرکت به کاربران توصیه کرده بود سنگ بخورند یا به پیتزا چسب اضافه کنند. همچنین در سال گذشته، جمینای گوگل تصاویر تاریخی نادرستی تولید کرد و این شرکت مجبور شد مدتی تولید تصاویر افراد را متوقف می‌کند.

نتایج تحقیق حاضر در BMJ منتشر شده است.