ساخته شدن یک تصویر جعلی در دیپ فیک
دیپ فیک واژهای مرکب است که از دو بخش یادگیری عمیق و جعلی تشکیل شدهاست. یادگیری عمیق شکلی از هوش مصنوعی است که در آن الگوریتمهای مقلد مغز انسان با نام شبکههای عصبی با پردازش مقادیر گستردهای داده مهارتهای تازهای را یاد میگیرند.
در قلب دیپ فیک ماهیتی از یادگیری عمیق به نام «شبکههای زایای دشمنگونه» (GANs)وجود دارد. در اینجا، دو شبکه عصبی وارد عمل میشوند تا ویدئو و صوت واقع گرایانه بسازند. یکی از این دو شبکه عصبی، مولد یا ژنراتور است که بیت خالق به شمار میآید و دادههای فراوانی آن را تغذیه میکنند، دادههایی مثل تصاویر مختلف چهره یک فرد مشهور. وظیفه این شبکه مولد خلق مصنوعی آن چهره واقعی است. شبکه عصبی دوم، تشخیصدهنده یا تمیزدهنده است. وظیفهاش این است که تشخیص دهد تصویری که از شبکه مولد دریافت میکند جعلی است یا خیر و باید به مشکلی که در تصویر وجود دارد پی ببرد.
وقتی تمیزدهنده یک ویدئو را رد میکند، مولد دوباره سعی میکند تا ویدئو بهتری را به آن بدهد. این تعامل ادامه پیدا میکند تا جایی که سرانجام مولد تصویری کاملاً مشابه چهره واقعی میسازد؛ به طوریکه تشخیص آن از نسخه واقعی تقریباً غیر ممکن میشود. این گونه است که یک محصول دیجیتالی غیر واقعی با فناوری دیپ فیک ساخته میشود.
***
با استفاده از فناوریهای امروزی میتوان صدای افراد و چهرهها را به صورت دیجیتالی دستکاری و ویرایش کرد تا طوری وانمود شود که یک فرد به ویژه یک شخصیت مهم سیاسی یا ستاره سینما عملی را انجام داده یا حرفی را زده، در حالی که واقعیت ندارد. این کار با تکنیکی به نام «جعل عمیق» یا «دیپ فیک» (deepfake)تعریف می شود. دیپ فیک یک واژه ترکیبی متشکل از دو بخش«یادگیری عمیق» و «جعلی» است که برای توصیف تغییرات اِعمال شده روی تصاویر ویدئویی افراد، صداهای آنها و به طور کلی هر نوع محتوای دیجیتالی دستکاری شده به کار میرود. با این ابزار عمل یا گفتهای به افراد نسبت داده شده و یک مدرک جعلی از آن ساخته میشود تا هدف خاصی دنبال شود.
دیپ فیک رسانهای ترکیبی است که در آن فردی در یک عکس یا ویدئو جایگزین نسخه ساختگی مشابه خود میشود. ایجاد محتوای جعلی برای فریب افراد پدیده تازهای نیست، اما تنها چند سال است توجه به دیپ فیک افزایش یافتهاست. دستکاری و ویرایش محتوای رسانهای سابقهای طولانی دارد. شیوههای دستکاری عکس در قرن نوزدهم ابداع شد و دیری نگذشت که در تصاویر متحرک نیز به کار گرفته شد، اما پیشرفتهایی که امکان افزودن یادگیری عمیق را فراهم کردهاند در هشت یا نه سال اخیر حاصل شدهاند. فناوری دیپ فیک در آغاز دهه ۱۹۹۰ توسط پژوهشگران و مؤسسههای آکادمیک ساخته شد. امروزه از تکنیکهای قدرتمند یادگیری عمیق و هوش مصنوعی پیچیده برای این کار استفاده میشود و شامل آموزش به ساختارهای شبکه عصبی مولد از جمله خود رمزنگارها و شبکههای زایای دشمنگونه (GANs)است. الگوریتمها از دادههایی که به آنها تغذیه میشوند یاد میگیرند تا برای مثال یک چهره جعلی بسازند. بسیاری از مردم ترجیح میدهند به دیپ فیک رسانه ترکیبی بگویند، چون میتوان در آن از تعویض چهره و لبزنی استفاده کرد و چهره یا بدن یک فرد را بر اساس یک منبع دیگر به حرکت در آورد. حتی این امکان را به کاربر میدهد حالات، اتفاقات یا چهرههایی را خلق کند که اصلاً وجود نداشتهاند.
یک فناوری نگرانکننده
اگر چه دیپ فیک یک پیشرفت فنی طی ده سال اخیر محسوب میشود اما ممکن است برای ما پرسشهای زیادی پیش بیاید؛ برای مثال، آیا لازم است نگران دسترسی همه نوع کاربر به این فناوری باشیم. مسلم است که عموم مردم این فناوری و خطرات بالقوه آن را درک نکردهاند. در سالهای اخیر سرخطهای بسیاری درباره این که چگونه محتوای دیپ فیک میتواند انتخابات را بر هم بزند منتشر شدهاند. گاهی هیجان کاذب ایجاد شده اذهان را از تهدیدهای اصلی دور میکند.
همه نوع فریب و سوء استفاده با دیپ فیک ممکن است، اما بیشترین کاربرد آن در تعویض چهره است؛ صورت یک فرد روی صورت فرد دیگر گذاشته میشود یا دهان فردی که راجع به موضوع حساسی صحبت میکند روی دهان فردی که جایگاه اجتماعی ـ سیاسی خاصی دارد قرار داده میشود تا بیننده باور کند که آن گفتهها از زبان او بیان میشوند. در نتیجه، تصور نادرستی از فردی که مورد تأییدش بود به او القاء میشود. طبق برآورد شرکت دیپ تریس (Deeptrace)که با هدف مقابله با تهدیدهای دیپ فیک راهاندازی شده، تا اکنون حدود ۱۰ هزار ویدئوی دیپ فیک در فضای اینترنت منتشر شدهاند.
تأثیر منفی دیپ فیک در زندگی ما فقط به فضای اینترنت محدود نمیشود. یک مجرم را در نظر بگیریم که با تقلید صدای یکی از افراد خانواده مثل پدر و مادر یا خواهر و برادر با ما تماس میگیرد و با اعلام اینکه یک مشکل مالی برایش پیش آمده تقاضا میکند مبلغی را برایش واریز کنیم.
خوشبختانه، این روزها کارشناسها بیش از پیش از خطرهایی که دیپ فیک ممکن است برای افراد داشته باشد آگاه شدهاند و با تحت کنترل در آوردن همان تکنیکهایی که این فناوری را برای افراد سودجو و مجرم خوشایند کردهاست با آنها مقابله به مثل میکنند.
آیا میتوان از دیپ فیک به طور مثبت استفاده کرد؟
در بیشتر موارد، تمرکز انتقادات روی جنبه منفی دیپ فیک بوده است اما این بدان معنا نیست که نمیتوان از آن در جهات مثبت استفاده کرد. پنج راه برای استفاده مثبت از این فناوری وجود دارد:
نخست اینکه میتوان از آن برای ایجاد هجو و طعنه تند استفاده کرد. با این نوع دیپ فیک واقع گرایانه میتوان تفسیرهای واقع گرایانه از چهرههای مشهور سیاسی، هنری، ورزشی، رسانهای، ادبی و غیره منتشر کرد. برای مثال، در ادبیات در طنز اجتماعی و کمدی تاریک میتوان از دیپ فیک استفاده کرد. وقتی برچسب محتوای دیپ فیک به آنها زده شود، مخاطب بیشتر در هجوآمیز بودن مطلب غوطهور میشود و اثرگذاری محتوا بالا میرود.
اگر چه ایجاد واقع گرایانهترین نسخههای دیپ فیک نیاز به نرمافزار پرقدرت و مهارت زیاد دارد اما اپلیکیشنهای زیادی نیز برای استفاده کاربرهای غیر حرفهای و متوسط وجود ساخته شدهاست. برای مثال با استفاده از آنها کاربر میتواند صورت یک ستاره سینما یا شخصیت برجسته علمی یا سیاسی را روی صورت خودش بگذارد یا خودش را به نسخه واقع گرایانه دوستش تبدیل کند یا کاری کند که یک فرد در حال آواز خواندن به نظر برسد.
یکی دیگر از کاربردهای مثبت دیپ فیک در زمینه سینما و تلویزیون است. به کمک فناوری دیپ فیک دیگر نیازی به صداگذاری مجدد نیست. به جای این کار، میتوان میمیک چهره بازیگرها را طوری تدوین کرد که به نظر برسد در حال صحبت کردن به زبان دیگری که در فیلم مورد نیاز است هستند، اما در حال حاضر این کار به دلیل پرهزینه بودن یک گزینه منطقی و کاربردی نیست.
چهارمین کاربرد مثبت دیپ فیک این است که میتواند به عنوان شیوهای جدید برای جستجوی محتوا به کار رود. به جای آن که گوگل یا ویکیپدیا اطلاعاتی را که به دنبالش هستیم برای ما جستجو کند و در پیش روی ما قرار دهد، یک آواتار واقع گرایانه با کاربر گفتگو میکند و اطلاعات مورد نیازش را به او میدهد.
بالاخره، پنجمین استفاده مثبتی که میتوانیم از فناوری دیپ فیک بکنیم محافظت از افرادی است که برای دستیابی به حقوق گروه خاصی فعالیت میکنند و بهتر است چهرههایشان با چهرههای افراد داوطلبی که تهدیدی متوجه آنها نیست پوشانده شود.
آیا ساخت دیپ فیک به صرف وقت و برق زیادی نیاز دارد؟
فناوریهای اخیر، به ویژه آنهایی که به رمزارز مربوط میشوند به دلیل مصرف برق زیاد بسیار مورد انتقاد قرار گرفتهاند. آیا این انتقاد به دیپ فیک نیز وارد است؟
در ساخت دیپ فیکها به اندازه تولید پول دیجیتال بیتکوین برق مصرف نمیشود، اما ایجاد آنها از لحاظ رایانشی فشرده و زمانبر است و شرکتهای بزرگ رایانهای در رقابت هستند تا قدرت رایانشی لازم را برای این کار فراهم کنند. به علاوه، ساخت یک محتوای دیپ فیک خوب ارزان تمام نمیشود. به عنوان مثال، برای پیاده کردن یک چهره روی یک چهره دیگر باید مبلغ قابل توجهی به خرید رایانههای گرانقیمت اختصاص داده شود.
code