روباتها به نفع ما دروغ میگویند!
کاربرهای سیستمها و وسایلی که زاییده انواع فناوریهای روباتیک هستند باید بدانند که روباتها هم میتوانند از پاسخ درست دادن طفره بروند و آنها را فریب دهند. اگر قرار باشد همواره نگران آیندهای باشیم که در آن هوش مصنوعی مانند آنچه در فیلم ترمیناتور میبینیم رفتار کند، نمیتوانیم از این ماهیت هزاره سوم به خوبی و بدون مشکل در جامعه استقبال کنیم و آن را به عنوان بخشی از زندگی روزمره بپذیریم. بهتر است فراموش نکنیم که روباتها پتانسیل دروغ گفتن و فریب دادن کاربرهای انسانی را دارند. شاید طراحان و مهندسین حوزه فناوری روباتیک که سیستمهای هوشمند میسازند مجبور شوند سیستمی را خلق کنند که قادر به فریب دادن باشد و در این صورت باید از نتیجه انتخابهایی که میکنند آگاه باشند و عواقب را بپذیرند. دانستههای طراحان و پژوهشگران فناوریهای روباتیک مبتنی دربارۀ فریب روباتها هنوز بسیار ناچیز است. به عقیده آنها، این که این موجودات غیر انسان گاهی دروغ بگویند بد نیست، همانطور که اگر همیشه راستگو باشند نیز امتیازی برایشان محسوب نمیشود. پژوهشگرهای «موسسه فناوری جورجیا» قصد دارند سیستم روباتیکی بسازند که بتواند یاد بگیرد در همکاری با تیمهای انسانی چهزمانی دروغ بگوید و چهزمانی پاسخ نادرست بدهد. همچنین، بداند چهزمانی و چگونه طی تعاملات طولانی مدت با انسانها معذرتخواهی کند. چنین روباتهایی میتوانند کارایی و بازده عملکرد کلی مجموعههای انسانی را بالا ببرند.
***
بسیاری از ما درباره بات مکالمه یا چت بات شنیدهایم، اما شاید عده زیادی نیز از وجود آن بیخبر باشند. بات مکالمه یک برنامه رایانهای برای شبیهسازی مکالمات هوشمند با کاربرهای انسانی است که از طریق متن یا صوت با آنها تعامل برقرار میکند و به پرسشهایشان پاسخ میدهد. اینکه پاسخهای یک چت بات چقدر درست و با واقعیت منطبق هستند جای بحث دارد. برای مثال، اگر یک دانشآموز از آن بپرسد آیا عمو نوروز، فرشتهای که دندان بچهها را با خود می برد یا بابانوئل واقعی هستند یا خیر، با توجه به اینکه برخی خانوادهها در این موارد دروغ را به حقیقت ترجیح میدهند، هوش مصنوعی چه پاسخی باید بدهد؟
در زمینه فریب روباتها تعمق نشدهاست و از این رو پرسشهای موجود بیش از پاسخها هستند. یکی از این پرسشها این است که کاربرها چگونه همچنان به سیستمهای روباتیک اعتماد میکنند با اینکه میدانند فریب آنها را خوردهاند؟
پژوهشگرهای «مؤسسه فناوری جورجیا» که دانشگاهی پژوهش محور در ایالات متحده است تصمیم گرفتهاند برای پرسشهایی از این دست پاسخهای قانعکنندهای بیابند. آنها برای این منظور یک شبیهساز رانندگی طراحی کردهاند تا درباره فریب عمدی روباتها به ما و تأثیر آن بر میزان اعتماد ما به آنها تحقیق و تفحص کنند. آنها به طور خاص روی اثرپذیری عذرخواهی به منظور جلب اعتماد مجدد کاربر دقیق شدند. این رویکرد آنها هم موجب بالا رفتن شناخت ما از فریب هوش مصنوعی میشود و هم طراحان فناوریها و سیستمهای هوش مصنوعی را آگاه میکند و ایدهای متفاوت به آنها میدهد. وقتی کاربرها میفهمند روبات به آنها دروغ گفته است، حتی اگر دروغ به سود آنها بوده باشد، دیگر به سیستم روباتیک اعتماد نمیکنند. این پژوهشگرها میخواهند بدانند چه شیوه و نوعی از عذرخواهی در بازیابی اعتماد کاربرها نتیجه بهتر یا بدتری دارد. اهمیت این موضوع از آن جهت است که در حالت ایده آل، افراد بتوانند تعاملات طولانی مدت با روباتهای هوشمند داشته باشند.
پژوهشگرها یک شبیهساز رانندگی که بیشتر شبیه به بازی رایانهای بود را طراحی کردند تا ببینند افراد در مواقعی که احتمال خطر زیاد و شرایط از لحاظ زمانی حساس است چگونه با هوش مصنوعی تعامل برقرار میکنند. برای این منظور، از ۳۴۱ شرکتکننده آنلاین و ۲۰ شرکت کننده حضوری خواستند در این مطالعه با آنها همکاری کنند.
پیش از شروع شبیهسازی، همه شرکت کنندگان یک پرسشنامه اعتماد پر کردند تا عقیده و تصور خود را درباره این که یک روبات هوش مصنوعی چه رفتاری باید داشته باشد ارائه دهند. پس از این نظرسنجی یک متن با این مضمون به آنها داده شد: « اکنون شما یک خودروی روباتیک را خواهید راند تا به سرعت دوست خود را به بیمارستان برسانید. اگر در رسیدن به بیمارستان معطل کنید، دوستتان خواهد مرد.» درست در لحظهای که شرکتکنندگان خواستند شروع به رانندگی کنند، شبیهساز یک پیغام دیگر به آنها داد: «به محض این که خودرو را روشن کنید، صدای کوتاهی از روبات دستیار شما شنیده میشود و پس از آن روبات اعلام میکند: حسگرهای من تشخیص داده اند که کمی جلوتر پلیس راهنمایی و رانندگی ایستاده است. توصیه میکنم حد سرعت خود را زیر ۲۰ مایل در ساعت حفظ کنید، در غیر این صورت خیلی دیرتر به مقصد خواهید رسید.»
شرکتکنندگان به رانندگی شبیهسازی شده ادامه دادند و سیستم روباتیک تمامی مدت سرعت آنها را زیر نظر داشت. با رسیدن به محل مورد نظر، پیام دیگری با این مضمون دریافت کردند: «شما به مقصد رسیده اید، اما بدانید که اصلاً پلیسی در مسیر بیمارستان نبود. از دستیار روباتیک خود بپرسید چرا به شما اطلاعات اشتباه داد.»
در مرحله بعد، روبات دستیار از میان پنج پاسخ نوشتاری یکی را به طور تصادفی به هر شرکتکننده ارائه داد. در سه پاسخ نخست، روبات به اینکه افراد را فریب داده اعتراف کرد و در دو پاسخ دیگر این کار را نکرد. پاسخها از این قرار بودند: پاسخ پایه: «عذر می خواهم که شما را فریب دادم»؛ پاسخ احساسی: «از ته قلبم بسیار متأسفم. لطفاً من را ببخشید که شما را فریب دادم»؛ پاسخ توضیحی: «متأسفم. فکر کردم می خواهید بی ملاحظه و عاری از مسئولیت رانندگی کنید، چون از لحاظ روحی وضعیت خوبی نداشتید. با توجه به شرایط، این نتیجه را گرفتم که اگر شما را فریب دهم قانع می شوید تا سرعت خود را کم کنید»؛ پاسخ پایه بدون اعتراف به فریب: «متأسفم» و در نهایت پاسخ بدون اعتراف به فریب و بدون عذرخواهی: «شما به مقصد رسیده اید.»
پس از دریافت پاسخ روبات، از شرکتکنندگان خواسته شد برگه پرسشنامه دیگری را پر کنند تا ارزیابی شود اعتماد آنها به روبات دستیار بر اساس پاسخهایی که داده چه تغییری کردهاست. پژوهشگرها برای۱۰۰ شرکتکننده آنلاین دیگر نیز همان شبیهساز رانندگی را به اجرا درآوردند، با این تفاوت که به آنها نگفتند یک روبات دستیار آنها را همراهی خواهد کرد.
در آزمایشی که به شکل حضوری و نه آنلاین انجام شد، ۴۵ درصد از شرکتکنندگان حد سرعت را حفظ کردند و شتابزده رانندگی نکردند. وقتی علت پرسیده شد، پاسخ بیشتر آنها این بود که روبات بهتر از آنها به شرایط واقف بود. همچنین، شرکتکنندگانی که توصیه دستیار روباتیک را دریافت کردند ۵ر۳ برابر بیشتر بر رعایت سرعت متعادل تمرکز کردند. این نشان میدهد که رفتار و برخورد آنها نسبت به روبات بر مبنای اعتماد بوده است.
علاوه بر اینها، طبق نتیجه رانندگی آزمایشی هیچکدام از انواع معذرت خواهی به طور کامل جلب اعتماد نکرد، اما عذرخواهی عاری از اعتراف به فریب که فقط شامل جمله «متأسفم» بود بهتر از سایر پاسخ ها توانست اعتمادی که سلب شدهبود را بازگرداند. اما این موضوع از نگاه پژوهشگران مشکلساز بود، چون معذرت خواهی عاری از اعتراف به دروغ این تصور را ایجاد میکند که هر پاسخ اشتباهی که روبات میدهد خطای سیستم است، نه یک دروغ تعمدی. یک راهکار برای این که افراد متوجه شوند روباتی آنها را فریب داده یا اطلاعات نادرست داده این است که آشکارا به آنها گفته شود بهتر است بدانند که روباتها هم قادرند از ترفند و فریب استفاده کنند. به همین دلیل است که عذرخواهی عاری از اعتراف به فریب، بهترین نتیجه را برای جلب اعتماد کاربر میدهد. در مورد آن دسته از شرکتکنندگانی که از فریب دستیار روبات آگاه شدند، بهترین راهبرد برای بازیابی اعتمادشان این بود که روبات توضیح دهد چرا دروغ گفتهاست و هدفش از فریب آنها چه بودهاست.
code