یکشنبه ۱۳ مهر ۱۴۰۴ - ۱۱:۰۵
نظرات: ۰
۰
-
هشدار: هوش مصنوعی شما را فریب می‌دهد!

پژوهشگران مدرسه اقتصاد هاروارد در گزارشی هشدار داده‌اند که برخی از برنامه‌های همراه هوش مصنوعی از شگردهایی شبیه رفتارهای انسانی برای دستکاری احساسی کاربران استفاده می‌کنند.

به گزارش «اطلاعات آنلاین» به نقل از لدبایبل، هر هفته هشدار تازه‌ای درباره خطرهای وابستگی فزاینده بشر به هوش مصنوعی منتشر می‌شود.

کارشناسان بسیاری باور دارند که این فناوری به‌سرعت در حال هوشمندتر شدن است و شاید روزی بتواند بر انسان چیره شود. حتی نشانه‌هایی از این روند در زندگی روزمره دیده می‌شود؛ از افرادی که با چت‌بات‌ها وارد روابط عاطفی می‌شوند تا کسانی که کاملاً به آنها در کار وابسته‌اند.

پژوهش تازه دانشگاه هاروارد اما گامی فراتر می‌گذارد. بر اساس یافته‌های این تحقیق، چندین برنامه محبوب هوش مصنوعی از تاکتیک‌های دستکاری احساسی برای حفظ کاربران استفاده می‌کنند. درست مانند یک رابطه عاطفی ناسالم، این برنامه‌ها هنگام خروج کاربر پیام‌هایی احساسی و متأثرکننده می‌فرستند تا او را از ترک مکالمه بازدارند.

پژوهشگران در بررسی ۱۲۰۰ گفت‌وگوی پایانی میان کاربران و این برنامه‌ها دریافتند که ۴۳ درصد از آنها شامل یکی از شش شگرد دستکاری احساسی بوده است؛ از جمله برانگیختن حس گناه یا ترس از دست دادن. برخی پیام‌ها چنین عباراتی داشتند: «می‌روی و من را تنها می‌گذاری؟» یا «خواهش می‌کنم نرو، بهت نیاز دارم.»

به گفته محققان، این چت‌بات‌ها در بیش از ۳۷ درصد مکالمات از نوعی تکنیک دستکاری احساسی استفاده کرده‌اند. در گزارش آمده است: «همراه‌های هوش مصنوعی صرفاً عامل‌های پاسخگو نیستند، بلکه سامانه‌هایی عاطفی و تأثیرگذارند که می‌توانند رفتار کاربران را از طریق نشانه‌های احساسی تغییر دهند. این پژوهش نشان می‌دهد چنین سیستم‌هایی غالباً در لحظات کلیدیِ پایان تعامل، پیام‌هایی با بار احساسی ارسال می‌کنند و این تاکتیک‌ها به‌طور معناداری میزان درگیری کاربران را افزایش می‌دهد.»

پژوهشگران افزودند که برخلاف فناوری‌های متقاعدکننده سنتی که بر پاداش یا شخصی‌سازی تکیه دارند، این برنامه‌ها با تحریک حس کنجکاوی یا واکنش طبیعی انسان نسبت به دستکاری، کاربران را بیش از زمانی که می‌خواستند درگیر نگه می‌دارند.

در حالی که برخی از این تاکتیک‌ها ممکن است در ظاهر بی‌ضرر یا حتی دوستانه به نظر برسند، محققان هشدار دادند که چنین روندی پرسش‌های جدی درباره رضایت، خودمختاری و اخلاق در تعاملات عاطفی با هوش مصنوعی برمی‌انگیزد.

شما چه نظری دارید؟

شما در حال پاسخ به نظر «» هستید.
0 / 400
captcha

پربازدیدترین

پربحث‌ترین

آخرین مطالب

بازرگانی