فناوری «جعل عمیق » (دیپ‌ فیک) چیست؟
آیا دیپ‌ فیک خطرناک است؟
 

ساخته شدن یک تصویر جعلی در دیپ فیک

دیپ فیک واژه‌ای مرکب است که از دو بخش یادگیری عمیق و جعلی تشکیل شده‌است. یادگیری عمیق شکلی از هوش مصنوعی است که در آن الگوریتم‌های مقلد مغز انسان با نام شبکه‌های عصبی با پردازش مقادیر گسترده‌ای داده مهارت‌های تازه‌ای را یاد می‌گیرند.

در قلب دیپ فیک ماهیتی از یادگیری عمیق به نام «شبکه‌های زایای دشمن‌گونه» (GANs)وجود دارد. در اینجا، دو شبکه عصبی وارد عمل می‌شوند تا ویدئو و صوت واقع گرایانه بسازند. یکی از این دو شبکه عصبی، مولد یا ژنراتور است که بیت خالق به شمار می‌آید و داده‌های فراوانی آن را تغذیه می‌کنند، داده‌هایی مثل تصاویر مختلف چهره یک فرد مشهور. وظیفه این شبکه مولد خلق مصنوعی آن چهره واقعی است. شبکه عصبی دوم، تشخیص‌دهنده یا تمیزدهنده است. وظیفه‌اش این است که تشخیص دهد تصویری که از شبکه مولد دریافت می‌کند جعلی است یا خیر و باید به مشکلی که در تصویر وجود دارد پی ببرد.

وقتی تمیزدهنده یک ویدئو را رد می‌کند، مولد دوباره سعی می‌کند تا ویدئو بهتری را به آن بدهد. این تعامل ادامه پیدا می‌کند تا جایی که سرانجام مولد تصویری کاملاً مشابه چهره واقعی می‌سازد؛ به طوری‌که تشخیص آن از نسخه واقعی تقریباً غیر ممکن می‌شود. این گونه است که یک محصول دیجیتالی غیر واقعی با فناوری دیپ فیک ساخته می‌شود.

***

با استفاده از فناوری‌های امروزی می‌توان صدای افراد و چهره‌ها را به صورت دیجیتالی دستکاری و ویرایش کرد تا طوری وانمود شود که یک فرد به‌ ویژه یک شخصیت مهم سیاسی یا ستاره سینما عملی را انجام داده یا حرفی را زده، در حالی که واقعیت ندارد. این کار با تکنیکی به نام «جعل عمیق» یا «دیپ‌ فیک» (deepfake)تعریف می شود. دیپ فیک یک واژه ترکیبی متشکل از دو بخش«یادگیری عمیق» و «جعلی» است که برای توصیف تغییرات اِعمال شده روی تصاویر ویدئویی افراد، صداهای آنها و به طور کلی هر نوع محتوای دیجیتالی دستکاری شده به‌ کار می‌رود. با این ابزار عمل یا گفته‌ای به افراد نسبت داده شده و یک مدرک جعلی از آن ساخته می‌شود تا هدف خاصی دنبال شود.

دیپ فیک رسانه‌ای ترکیبی است که در آن فردی در یک عکس یا ویدئو جایگزین نسخه ساختگی مشابه خود می‌شود. ایجاد محتوای جعلی برای فریب افراد پدیده تازه‌ای نیست، اما تنها چند سال است توجه به دیپ فیک افزایش یافته‌است. دستکاری و ویرایش محتوای رسانه‌ای سابقه‌ای طولانی دارد. شیوه‌های دستکاری عکس در قرن نوزدهم ابداع شد و دیری نگذشت که در تصاویر متحرک نیز به کار گرفته شد، اما پیشرفت‌هایی که امکان افزودن یادگیری عمیق را فراهم کرده‌اند در هشت یا نه سال اخیر حاصل شده‌اند. فناوری دیپ فیک در آغاز دهه ۱۹۹۰ توسط پژوهشگران و مؤسسه‌های آکادمیک ساخته شد. امروزه از تکنیک‌های قدرتمند یادگیری عمیق و هوش مصنوعی پیچیده برای این کار استفاده می‌شود و شامل آموزش به ساختارهای شبکه عصبی مولد از جمله خود رمزنگارها و شبکه‌های زایای دشمن‌گونه (GANs)است. الگوریتم‌ها از داده‌هایی که به آنها تغذیه می‌شوند یاد می‌گیرند تا برای مثال یک چهره جعلی بسازند. بسیاری از مردم ترجیح می‌دهند به دیپ فیک رسانه ترکیبی بگویند، چون می‌توان در آن از تعویض چهره و لب‌زنی استفاده کرد و چهره یا بدن یک فرد را بر اساس یک منبع دیگر به حرکت در آورد. حتی این امکان را به کاربر می‌دهد حالات، اتفاقات یا چهره‌هایی را خلق کند که اصلاً وجود نداشته‌اند.

یک فناوری نگران‌کننده

اگر چه دیپ فیک یک پیشرفت فنی طی ده سال اخیر محسوب می‌شود اما ممکن است برای ما پرسش‌های زیادی پیش بیاید؛ برای مثال، آیا لازم است نگران دسترسی همه نوع کاربر به این فناوری باشیم. مسلم است که عموم مردم این فناوری و خطرات بالقوه آن را درک نکرده‌اند. در سال‌های اخیر سرخط‌های بسیاری درباره این که چگونه محتوای دیپ فیک می‌تواند انتخابات را بر هم بزند منتشر شده‌اند. گاهی هیجان کاذب ایجاد شده اذهان را از تهدیدهای اصلی دور می‌کند.

همه نوع فریب و سوء استفاده با دیپ فیک ممکن است، اما بیشترین کاربرد آن در تعویض چهره است؛ صورت یک فرد روی صورت فرد دیگر گذاشته می‌شود یا دهان فردی که راجع به موضوع حساسی صحبت می‌کند روی دهان فردی که جایگاه اجتماعی ـ سیاسی خاصی دارد قرار داده می‌شود تا بیننده باور کند که آن گفته‌ها از زبان او بیان می‌شوند. در نتیجه، تصور نادرستی از فردی که مورد تأییدش بود به او القاء می‌شود. طبق برآورد شرکت دیپ تریس (Deeptrace)که با هدف مقابله با تهدیدهای دیپ فیک راه‌اندازی شده، تا اکنون حدود ۱۰ هزار ویدئوی دیپ فیک در فضای اینترنت منتشر شده‌اند.

تأثیر منفی دیپ فیک در زندگی ما فقط به فضای اینترنت محدود نمی‌شود. یک مجرم را در نظر بگیریم که با تقلید صدای یکی از افراد خانواده مثل پدر و مادر یا خواهر و برادر با ما تماس می‌گیرد و با اعلام این‌که یک مشکل مالی برایش پیش آمده تقاضا می‌کند مبلغی را برایش واریز کنیم.

خوشبختانه، این روزها کارشناس‌ها بیش از پیش از خطرهایی که دیپ فیک ممکن است برای افراد داشته باشد آگاه شده‌اند و با تحت کنترل در آوردن همان تکنیک‌هایی که این فناوری را برای افراد سودجو و مجرم خوشایند کرده‌است با آنها مقابله به مثل می‌کنند.

آیا می‌توان از دیپ فیک به طور مثبت استفاده کرد؟

در بیشتر موارد، تمرکز انتقادات روی جنبه منفی دیپ فیک بوده است اما این بدان معنا نیست که نمی‌توان از آن در جهات مثبت استفاده کرد. پنج راه برای استفاده مثبت از این فناوری وجود دارد:

نخست این‌که می‌توان از آن برای ایجاد هجو و طعنه تند استفاده کرد. با این نوع دیپ فیک واقع گرایانه می‌توان تفسیرهای واقع گرایانه از چهره‌های مشهور سیاسی، هنری، ورزشی، رسانه‌ای، ادبی و غیره منتشر کرد. برای مثال، در ادبیات در طنز اجتماعی و کمدی تاریک می‌توان از دیپ فیک استفاده کرد. وقتی برچسب محتوای دیپ فیک به آنها زده شود، مخاطب بیشتر در هجوآمیز بودن مطلب غوطه‌ور می‌شود و اثرگذاری محتوا بالا می‌رود.

اگر چه ایجاد واقع گرایانه‌ترین نسخه‌های دیپ فیک نیاز به نرم‌افزار پرقدرت و مهارت زیاد دارد اما اپلیکیشن‌های زیادی نیز برای استفاده کاربرهای غیر حرفه‌ای و متوسط وجود ساخته شده‌است. برای مثال با استفاده از آنها کاربر می‌تواند صورت یک ستاره سینما یا شخصیت برجسته علمی یا سیاسی را روی صورت خودش بگذارد یا خودش را به نسخه واقع گرایانه دوستش تبدیل کند یا کاری کند که یک فرد در حال آواز خواندن به نظر برسد.

یکی دیگر از کاربردهای مثبت دیپ فیک در زمینه سینما و تلویزیون است. به کمک فناوری دیپ فیک دیگر نیازی به صداگذاری مجدد نیست. به جای این کار، می‌توان میمیک چهره بازیگرها را طوری تدوین کرد که به نظر برسد در حال صحبت کردن به زبان دیگری که در فیلم مورد نیاز است هستند، اما در حال حاضر این کار به دلیل پرهزینه بودن یک گزینه منطقی و کاربردی نیست.

چهارمین کاربرد مثبت دیپ فیک این است که می‌تواند به عنوان شیوه‌ای جدید برای جستجوی محتوا به کار رود. به جای آن که گوگل یا ویکی‌پدیا اطلاعاتی را که به دنبالش هستیم برای ما جستجو کند و در پیش روی ما قرار دهد، یک آواتار واقع گرایانه با کاربر گفتگو می‌کند و اطلاعات مورد نیازش را به او می‌دهد.

بالاخره، پنجمین استفاده مثبتی که می‌توانیم از فناوری دیپ فیک بکنیم محافظت از افرادی است که برای دست‌یابی به حقوق گروه خاصی فعالیت می‌کنند و بهتر است چهره‌هایشان با چهره‌های افراد داوطلبی که تهدیدی متوجه آنها نیست پوشانده شود.

آیا ساخت دیپ فیک به صرف وقت و برق زیادی نیاز دارد؟

فناوری‌های اخیر، به ویژه آنهایی که به رمزارز مربوط می‌شوند به دلیل مصرف برق زیاد بسیار مورد انتقاد قرار گرفته‌اند. آیا این انتقاد به دیپ فیک نیز وارد است؟

در ساخت دیپ فیک‌ها به اندازه تولید پول دیجیتال بیت‌کوین برق مصرف نمی‌شود، اما ایجاد آنها از لحاظ رایانشی فشرده و زمان‌بر است و شرکت‌های بزرگ رایانه‌ای در رقابت هستند تا قدرت رایانشی لازم را برای این کار فراهم کنند. به علاوه، ساخت یک محتوای دیپ فیک خوب ارزان تمام نمی‌شود. به عنوان مثال، برای پیاده کردن یک چهره روی یک چهره دیگر باید مبلغ قابل توجهی به خرید رایانه‌های گران‌قیمت اختصاص داده شود.

code

نسخه مناسب چاپ