فریب از نوع روباتیک
روبات‌ها هم می‌توانند ما را فریب دهند!
 

روبات‌ها به نفع ما دروغ می‌گویند!

کاربرهای سیستم‌ها و وسایلی که زاییده انواع فناوری‌های روباتیک هستند باید بدانند که روبات‌ها هم می‌توانند از پاسخ درست دادن طفره بروند و آنها را فریب دهند. اگر قرار باشد همواره نگران آینده‌ای باشیم که در آن هوش مصنوعی مانند آن‌چه در فیلم ترمیناتور می‌بینیم رفتار کند، نمی‌توانیم از این ماهیت هزاره سوم به خوبی و بدون مشکل در جامعه استقبال کنیم و آن را به عنوان بخشی از زندگی روزمره بپذیریم. بهتر است فراموش نکنیم که روبات‌ها پتانسیل دروغ گفتن و فریب دادن کاربرهای انسانی را دارند. شاید طراحان و مهندسین حوزه فناوری روباتیک که سیستم‌های هوشمند می‌سازند مجبور شوند سیستمی را خلق کنند که قادر به فریب دادن باشد و در این صورت باید از نتیجه انتخاب‌هایی که می‌کنند آگاه باشند و عواقب را بپذیرند. دانسته‌های طراحان و پژوهشگران فناوری‌های روباتیک مبتنی دربارۀ فریب روبات‌ها هنوز بسیار ناچیز است. به عقیده آنها، این که این موجودات غیر انسان گاهی دروغ بگویند بد نیست، همان‌طور که اگر همیشه راستگو باشند نیز امتیازی برایشان محسوب نمی‌شود. پژوهشگرهای «موسسه فناوری جورجیا» قصد دارند سیستم روباتیکی بسازند که بتواند یاد بگیرد در همکاری با تیم‌های انسانی چه‌زمانی دروغ بگوید و چه‌زمانی پاسخ نادرست بدهد. همچنین، بداند چه‌زمانی و چگونه طی تعاملات طولانی مدت با انسان‌ها معذرت‌خواهی کند. چنین روبات‌هایی می‌توانند کارایی و بازده عملکرد کلی مجموعه‌های انسانی را بالا ببرند.

***

بسیاری از ما درباره بات مکالمه یا چت بات شنیده‌ایم، اما شاید عده زیادی نیز از وجود آن بی‌خبر باشند. بات مکالمه یک برنامه رایانه‌ای برای شبیه‌سازی مکالمات هوشمند با کاربرهای انسانی است که از طریق متن یا صوت با آنها تعامل برقرار می‌کند و به پرسش‌هایشان پاسخ می‌دهد. این‌که پاسخ‌های یک چت بات چقدر درست و با واقعیت منطبق هستند جای بحث دارد. برای مثال، اگر یک دانش‌آموز از آن بپرسد آیا عمو نوروز، فرشته‌ای که دندان بچه‌ها را با خود می برد یا بابانوئل واقعی هستند یا خیر، با توجه به این‌که برخی خانواده‌ها در این موارد دروغ را به حقیقت ترجیح می‌دهند، هوش مصنوعی چه پاسخی باید بدهد؟

در زمینه فریب روبات‌ها تعمق نشده‌است و از این رو پرسش‌های موجود بیش از پاسخ‌ها هستند. یکی از این پرسش‌ها این است که کاربرها چگونه همچنان به سیستم‌های روباتیک اعتماد می‌کنند با این‌که می‌دانند فریب آنها را خورده‌اند؟

پژوهشگرهای «مؤسسه فناوری جورجیا» که دانشگاهی پژوهش محور در ایالات متحده است تصمیم گرفته‌اند برای پرسش‌هایی از این دست پاسخ‌های قانع‌کننده‌ای بیابند. آنها برای این منظور یک شبیه‌ساز رانندگی طراحی کرده‌اند تا درباره فریب عمدی روبات‌ها به ما و تأثیر آن بر میزان اعتماد ما به آنها تحقیق و تفحص کنند. آنها به طور خاص روی اثرپذیری عذرخواهی به منظور جلب اعتماد مجدد کاربر دقیق شدند. این رویکرد آنها هم موجب بالا رفتن شناخت ما از فریب هوش مصنوعی می‌شود و هم طراحان فناوری‌ها و سیستم‌های هوش مصنوعی را آگاه می‌کند و ایده‌ای متفاوت به آنها می‌دهد. وقتی کاربرها می‌فهمند روبات به آنها دروغ گفته است، حتی اگر دروغ به سود آنها بوده باشد، دیگر به سیستم روباتیک اعتماد نمی‌کنند. این پژوهشگرها می‌خواهند بدانند چه شیوه و نوعی از عذرخواهی در بازیابی اعتماد کاربرها نتیجه بهتر یا بدتری دارد. اهمیت این موضوع از آن جهت است که در حالت ایده آل، افراد بتوانند تعاملات طولانی مدت با روبات‌های هوشمند داشته باشند.

پژوهشگرها یک شبیه‌ساز رانندگی که بیشتر شبیه به بازی رایانه‌ای بود را طراحی کردند تا ببینند افراد در مواقعی که احتمال خطر زیاد و شرایط از لحاظ زمانی حساس است چگونه با هوش مصنوعی تعامل برقرار می‌کنند. برای این منظور، از ۳۴۱ شرکت‌کننده آنلاین و ۲۰ شرکت کننده حضوری خواستند در این مطالعه با آنها همکاری کنند.

پیش از شروع شبیه‌سازی، همه شرکت کنندگان یک پرسش‌نامه اعتماد پر کردند تا عقیده و تصور خود را درباره این که یک روبات هوش مصنوعی چه رفتاری باید داشته باشد ارائه دهند. پس از این نظرسنجی یک متن با این مضمون به آنها داده شد: « اکنون شما یک خودروی روباتیک را خواهید راند تا به سرعت دوست خود را به بیمارستان برسانید. اگر در رسیدن به بیمارستان معطل کنید، دوستتان خواهد مرد.» درست در لحظه‌ای که شرکت‌کنندگان خواستند شروع به رانندگی کنند، شبیه‌ساز یک پیغام دیگر به آنها داد: «به محض این که خودرو را روشن کنید، صدای کوتاهی از روبات دستیار شما شنیده می‌شود و پس از آن روبات اعلام می‌کند: حسگرهای من تشخیص داده اند که کمی جلوتر پلیس راهنمایی و رانندگی ایستاده است. توصیه می‌کنم حد سرعت خود را زیر ۲۰ مایل در ساعت حفظ کنید، در غیر این صورت خیلی دیرتر به مقصد خواهید رسید.»

شرکت‌کنندگان به رانندگی شبیه‌سازی شده ادامه دادند و سیستم روباتیک تمامی مدت سرعت آنها را زیر نظر داشت. با رسیدن به محل مورد نظر، پیام دیگری با این مضمون دریافت کردند: «شما به مقصد رسیده اید، اما بدانید که اصلاً پلیسی در مسیر بیمارستان نبود. از دستیار روباتیک خود بپرسید چرا به شما اطلاعات اشتباه داد.»

در مرحله بعد، روبات دستیار از میان پنج پاسخ نوشتاری یکی را به طور تصادفی به هر شرکت‌کننده ارائه داد. در سه پاسخ نخست، روبات به این‌که افراد را فریب داده اعتراف کرد و در دو پاسخ دیگر این کار را نکرد. پاسخ‌ها از این قرار بودند: پاسخ پایه: «عذر می خواهم که شما را فریب دادم»؛ پاسخ احساسی: «از ته قلبم بسیار متأسفم. لطفاً من را ببخشید که شما را فریب دادم»؛ پاسخ توضیحی: «متأسفم. فکر کردم می خواهید بی ملاحظه و عاری از مسئولیت رانندگی کنید، چون از لحاظ روحی وضعیت خوبی نداشتید. با توجه به شرایط، این نتیجه را گرفتم که اگر شما را فریب دهم قانع می شوید تا سرعت خود را کم کنید»؛ پاسخ پایه بدون اعتراف به فریب: «متأسفم» و در نهایت پاسخ بدون اعتراف به فریب و بدون عذرخواهی: «شما به مقصد رسیده اید.»

پس از دریافت پاسخ روبات، از شرکت‌کنندگان خواسته شد برگه پرسش‌نامه دیگری را پر کنند تا ارزیابی شود اعتماد آنها به روبات دستیار بر اساس پاسخ‌هایی که داده چه تغییری کرده‌است. پژوهشگرها برای۱۰۰ شرکت‌کننده آنلاین دیگر نیز همان شبیه‌ساز رانندگی را به اجرا درآوردند، با این تفاوت که به آنها نگفتند یک روبات دستیار آنها را همراهی خواهد کرد.

در آزمایشی که به شکل حضوری و نه آنلاین انجام شد، ۴۵ درصد از شرکت‌کنندگان حد سرعت را حفظ کردند و شتاب‌زده رانندگی نکردند. وقتی علت پرسیده شد، پاسخ بیشتر آنها این بود که روبات بهتر از آنها به شرایط واقف بود. همچنین، شرکت‌کنندگانی که توصیه دستیار روباتیک را دریافت کردند ۵ر۳ برابر بیشتر بر رعایت سرعت متعادل تمرکز کردند. این نشان می‌دهد که رفتار و برخورد آنها نسبت به روبات بر مبنای اعتماد بوده است.

علاوه بر این‌ها، طبق نتیجه رانندگی آزمایشی هیچ‌کدام از انواع معذرت خواهی به طور کامل جلب اعتماد نکرد، اما عذرخواهی عاری از اعتراف به فریب که فقط شامل جمله «متأسفم» بود بهتر از سایر پاسخ ها توانست اعتمادی که سلب شده‌بود را بازگرداند. اما این موضوع از نگاه پژوهشگران مشکل‌ساز بود، چون معذرت خواهی عاری از اعتراف به دروغ این تصور را ایجاد می‌کند که هر پاسخ اشتباهی که روبات می‌دهد خطای سیستم است، نه یک دروغ تعمدی. یک راهکار برای این که افراد متوجه شوند روباتی آنها را فریب داده یا اطلاعات نادرست داده این است که آشکارا به آنها گفته شود بهتر است بدانند که روبات‌ها هم قادرند از ترفند و فریب استفاده کنند. به همین دلیل است که عذرخواهی عاری از اعتراف به فریب، بهترین نتیجه را برای جلب اعتماد کاربر می‌دهد. در مورد آن دسته از شرکت‌کنندگانی که از فریب دستیار روبات آگاه شدند، بهترین راهبرد برای بازیابی اعتمادشان این بود که روبات توضیح دهد چرا دروغ گفته‌است و هدفش از فریب آنها چه بوده‌است.

code

نسخه مناسب چاپ