جمعه ۳ بهمن ۱۴۰۴ - ۱۷:۲۸
نظرات: ۰
۰
-
ChatGPT یا تسلا کدامیک بیشتر مردم را به کام مرگ کشاندند؟

دعوای دو میلیاردر مشهور بر سر اینکه فناوری کدامشان جان بیشتری گرفته در فضای آنلاین حالت انفجاری پیدا کرد.

به گزارش اطلاعات آنلاین به نقل از نیویورک پست، سم آلتمن، مدیرعامل OpenAI، پس از آنکه ایلان ماسک در ایکس به مردم هشدار داد که از چت‌جی‌پی‌تی استفاده نکنند و آن را به ۹ مرگ ناشی از خودکشی مرتبط دانست، به ایلان ماسک واکنش بدی نشان داد.

آلتمن ادعای ماسک را گمراه‌کننده خواند و با اشاره به سیستم خودران تسلا که به بیش از ۵۰ مرگ مرتبط بوده است، انتقاد خودرا وسعت بخشید.

آلتمن در یک توییت سه پاراگرافی نوشت: "گاهی اوقات از محدودکننده بودن ChatGPT شکایت می‌کنید و سپس در مواردی مانند این ادعا می‌کنید که بیش از حد سهل‌گیرانه است. ظاهراً بیش از ۵۰ نفر در اثر تصادفات مربوط به سیستم خودران تسلا جان خود را از دست داده‌اند. من فقط یک بار، مدتی پیش، سوار ماشین شدم و اولین فکری که به ذهن من رسید این بود که انتشار این موضوع برای تسلا به هیچ وجه ایمن نیست."

او همچنین به پروژه ربات چت ماسک، گروک، حمله کرد و گفت مدیرعامل تسلا "نباید در مورد گارد ریل صحبت کند."

این اختلاف در حالی رخ می‌دهد که ماسک از OpenAI شکایت کرده و ادعا می‌کند که این شرکت ماموریت غیرانتفاعی خود را رها کرده است. طبق گزارش‌ها، ماسک به دنبال دریافت غرامتی تا سقف ۱۳۴ میلیارد دلار است.

این اختلاف در بحبوحه تشدید بررسی‌های جهانی در مورد ایمنی هوش مصنوعی مطرح شده است.

هفته گذشته، دفتر ارتباطات انگلیس یا آفکام، تحقیقات رسمی در مورد ربات چت گروک ماسک به دلیل ایجاد تصاویر جنسی از افراد زیر سن قانونی را آغاز کرد. نهادهای نظارتی در اروپا نیز در حال بررسی این موضوع هستند که آیا گروک قوانین ایمنی آنلاین را نقض کرده است یا خیر، و این موضوع، ریسک حمله ماسک به اوپن‌ای‌آی را افزایش می‌دهد.

اوپن‌ای‌آی با چندین پرونده قضایی در کالیفرنیا روبرو است که ادعا می‌کنند چت‌جی‌پی‌تی در خودکشی، روان‌پریشی و آسیب مالی نقش داشته است و سوالاتی را در مورد حفاظ‌های داخلی این شرکت ایجاد کرده است. منتقدان می‌گویند در حالی که اوپن‌ای‌آی محفاظت‌های آنلاینی را اجرا کرده است، اما کوتاهی در نظارت و فشار برای انتشار سریع محصولات ممکن است کاربران آسیب‌پذیر را در معرض خطر قرار داده باشد.

تحلیلگران خاطرنشان می‌کنند که اختلاف آلتمن-ماسک بخشی از یک نبرد بزرگتر برای درک عمومی از هوش مصنوعی است.

ماسک خود را به عنوان یک مبارز هشدار دهنده در مورد خطرات هوش مصنوعی معرفی می‌کند، در حالی که آلتمن، اوپن‌ای‌آی را به عنوان یک نوآور مسئول که سعی در مدیریت ریسک بدون سرکوب فناوری دارد، معرفی می‌کند.

علیرغم تنش‌ها، اوپن‌ای‌آی ادعا می‌کند که به طور فعال به نگرانی‌های ایمنی رسیدگی می‌کند و تمام دعاوی را برای درک کامل دامنه حوادث گزارش شده بررسی می‌کند.

سخنگوی اوپن‌ای‌آی در ماه نوامبر گفت: "این یک وضعیت فوق‌العاده دلخراش است و ما در حال بررسی پرونده‌ها برای درک جزئیات هستیم." تحلیلگران می‌گویند که نحوه مدیریت آلتمن در این اختلاف می‌تواند بر اعتبار و روابط نظارتی اوپن‌ای‌آی در ماه‌های آینده تأثیر بگذارد.

اوپن‌ای‌آی که در سال ۲۰۱۵ به عنوان یک آزمایشگاه تحقیقاتی غیرانتفاعی هوش مصنوعی تأسیس شد، مدت‌هاست که با ماسک، که قبل از ترک آن در سال ۲۰۱۸ از حامیان اولیه و اعضای هیئت مدیره بود، در هم آمیخته است.

بیزینس اینسایدر گزارش داد که ماسک بارها از رویکرد این شرکت در مورد ایمنی هوش مصنوعی انتقاد کرده است، در حالی که آلتمن و دیگر رهبران اوپن‌ای‌آی توسعه سریع محصول، از جمله انتشار چت‌جی‌پی‌تی و GPT-۴o را دنبال کرده‌اند، که گاهی اوقات با محققان ایمنی که در مورد خطرات احتمالی هشدار داده‌اند، در تضاد است.

شما چه نظری دارید؟

شما در حال پاسخ به نظر «» هستید.
0 / 400
captcha

پربازدیدترین

پربحث‌ترین

آخرین مطالب

بازرگانی