بیشتر مردم تاکنون اصطلاح «دیپفیک» را شنیدهاند، اما بسیاری از آنها دقیقاً نمیدانند این واژه به چه معناست یا دیپفیکها چگونه مورد استفاده قرار میگیرند. متأسفانه، مجرمان سایبری ویدیوها، تصاویر و فایلهای صوتی دیپفیک را به زرادخانه روبهرشد خود اضافه کردهاند تا کاربران ناآگاه را فریب دهند. در این مقاله بررسی میکنیم که دیپ فیک چیست، چگونه کار میکند، نشانههای شناسایی دیپفیک کداماند و مجرمان سایبری چگونه از این فناوری سوءاستفاده میکنند.
در ضمن اگر علاقمند به آشنایی با راهکارهای افزایش امنیت ایمیلهای خود هستید مقالهی ما با عنوان نحوهی رمزگذاری و رمزگشایی پیوستهای ایمیل را مطالعه بفرمایید.
فهرست مطالب
دیپ فیک چیست؟ تعریف و نحوه عملکرد آن
دیپفیک نوعی محتوای جعلی (عکس، ویدیو یا کلیپ صوتی) است که با استفاده از هوش مصنوعی پیشرفته تولید میشود. هدف از ایجاد دیپ فیک این است که محتوای جعلی کاملاً واقعی، قانونی و قابلاعتماد به نظر برسد.
صدای دیپفیک میتواند با کمک هوش مصنوعی، نسخهای بسیار قانعکننده از صدای یک فرد تولید کند؛ بهگونهای که به نظر برسد آن شخص جملاتی را گفته که هرگز بر زبان نیاورده است. ویدیوهای دیپفیک نیز ممکن است افراد شناختهشدهای مانند سیاستمداران، بازیگران سینما یا چهرههای مشهور را درحال انجام کارهایی نشان دهند که در واقع هرگز انجام ندادهاند.
سازندگان محتوای دیپ فیک برای آموزش هوش مصنوعی از قطعات مختلفی از محتوای واقعی موجود استفاده میکنند و به سیستم اجازه میدهند محتوایی کاملاً جدید و ساختگی خلق کند. این ویدیوها به طرز شگفتانگیزی واقعگرایانه هستند و در بسیاری از موارد، مردم آنها را با واقعیت اشتباه میگیرند.
تام هنکس، بازیگر مشهور، گیل کینگ، روزنامهنگار، و مستر بیست، یوتیوبر معروف، اخیراً اعلام کردهاند که تصاویر و ویدیوهای دیپ فیک آنها بدون رضایتشان برای فروش محصولات یا انجام کلاهبرداری مورد استفاده قرار گرفت.
بسیاری از دیپفیکها بیضرر هستند و صرفاً جنبه سرگرمی یا شوخی دارند، اما برخی از آنها میتوانند بسیار مخرب باشند و ناخواسته به گسترش اخبار جعلی منجر شوند.
برای مثال، در سال ۲۰۲۲ هکرها یک ویدیوی جعلی از ولادیمیر زلنسکی، رئیسجمهور اوکراین، منتشر کردند که در آن از سربازانش میخواست تسلیم شوند.
سازندگان دیپفیک هنگام تولید محتوا از دو الگوریتم هوش مصنوعی استفاده میکنند: یک «مولد» و یک «تفکیککننده». الگوریتم مولد محتوا را تولید میکند و الگوریتم تفکیککننده آن را اصلاح میکند تا تا حد امکان شبیه نسخه واقعی شود. مولد دادههایی تولید میکند که هوش مصنوعی از آنها برای بهبود و اصلاح تصویر، صدا یا ویدیو یاد میگیرد. این فرآیند بارها تکرار میشود تا در نهایت، محتوای نهایی تقریباً غیرقابل تشخیص از نمونه واقعی باشد.
در سالهای اخیر، شرکتها از فناوری دیپ فیک برای اهداف نسبتاً بیضرری مانند پشتیبانی مشتری، بازیهای ویدیویی و سرگرمی استفاده کردهاند. بااینحال، مجرمان سایبری نیز بهسرعت از این فناوری برای مقاصد بسیار مخربتر بهره گرفتهاند.
فناوری دیپ فیک برای نخستینبار چه زمانی ظهور کرد؟
فناوری دیپفیک نخستینبار در سال ۲۰۱۷ مورد توجه عموم قرار گرفت؛ زمانی که یکی از کاربران وبسایت ردیت این اصطلاح را ابداع کرد و از هوش مصنوعی برای جایگزین کردن چهره افراد مشهور در ویدیوهای مستهجن استفاده کرد.
از آن زمان تاکنون، فناوری دیپ فیک به شکل چشمگیری پیشرفت کرده است؛ بهطوری که در بسیاری از موارد، افراد عادی قادر به تشخیص تفاوت میان یک ویدیوی واقعی و یک ویدیوی دیپفیک نیستند.
خطرات بالقوه فناوری دیپ فیک مبتنیبر هوش مصنوعی
فناوری دیپفیک هوش مصنوعی یک ابزار سرگرمکننده ساده نیست. این فناوری میتواند پیامدهای بسیار جدی در دنیای واقعی به همراه داشته باشد.
اطلاعات نادرست
در انتخابات، جایی که نتایج اغلب براساس سخنان و مواضع نامزدها شکل میگیرد، از فناوری دیپ فیک هوش مصنوعی بهطور فزایندهای برای تخریب رقبا استفاده میشود. ویدیوهایی تولید میشوند که نشان میدهند افراد حرفهایی را زدهاند که هرگز نگفتهاند. زمانی که مردم قادر به تشخیص حقیقت از جعل نباشند، اعتماد آنها به کل سیستم از بین میرود.
خارج از حوزه سیاست، بازیگران مخرب میتوانند با تولید دیپفیکهایی که نشان میدهد فردی صاحب قدرت با آنها موافق است، باورهای غلط و تبلیغات نادرست را گسترش دهند. فروشندگان متقلب نیز میتوانند با ساخت دیپفیک از افرادی که وانمود میشود مشتریان راضی هستند، محصولات جعلی یا کلاهبرداریشده را به فروش برسانند.
پیامدهای امنیت ملی
تصور کنید فرمانده یک زیردریایی هستهای هستید و پیامی دریافت میکنید که ظاهراً از سوی رئیسجمهور ارسال شده و به شما دستور شلیک موشک هستهای میدهد. چگونه میتوانید مطمئن شوید که این دستور واقعی است؟ از کجا میدانید که این پیام، یک دیپفیک ساختهشده توسط یک دشمن خارجی نیست؟ مگر اینکه آگاهی خود را از اینکه دیپ فیک چیست بالا ببرید.
نابودی شهرت افراد
این خطر فقط سیاستمداران را تهدید نمیکند. هر فردی میتواند قربانی دیپفیک شود. افراد مشهور ممکن است در ویدیوهایی جعلی نشان داده شوند که درحال گفتن یا انجام دادن کارهایی هستند که هرگز رخ نداده است. تاجران میتوانند با ساخت ویدیوهای دیپفیک، اعتبار شرکای تجاری خود را تخریب کنند.
زوجهایی که در آستانه طلاق هستند ممکن است برای پیروزی در پروندههای طلاق یا حضانت فرزند از دیپفیک استفاده کنند. حتی تصاویر برهنه جعلی میتوانند برای باجگیری تولید شوند. این فهرست تقریباً پایانی ندارد.
سرقت هویت
صداهای دیپفیک میتوانند توسط کلاهبرداران و مجرمان سایبری برای فریب افراد و وادار کردن آنها به افشای اطلاعات حساس مورد استفاده قرار گیرند؛ موضوعی که در نهایت به سرقت هویت منجر میشود.
در دنیایی که «دیدن» به معنای «باور کردن» است، دیپ فیک میتواند این مرز را از بین ببرد و باعث شود مردم حتی به چشمان خود نیز شک کنند.
چرا مردم در دام کلاهبرداریهای دیپ فیک میافتند؟
چرا مجرمان اقدام به انجام کلاهبرداریهای دیپفیک میکنند؟ چه سودی از این کار میبرند؟ در ادامه، انگیزههای اصلی آنها را بررسی میکنیم.
پول
بدون تردید، پول مهمترین انگیزه است. کلاهبرداریهای دیپفیک با انگیزه مالی میتوانند به شکل باجگیری، اخاذی یا سرقت هویت انجام شوند. در موارد اخاذی جنسی، مجرمان تهدید میکنند که اطلاعات یا محتوایی با ماهیت جنسی را افشا خواهند کرد، مگر اینکه مبلغی پرداخت شود. این روش، یکی از قدیمیترین شیوههای اخاذی است.
اینجاست که کابوس واقعی آغاز میشود. حتی اگر هرگز تصویری یا ویدیویی از خودتان در چنین موقعیتهایی ثبت نکرده باشید، باز هم ممکن است قربانی شوید. حالا بدترین سناریو را تصور کنید و لحظهای مکث کنید.
اگر ویدیویی درباره فردی در اخبار منتشر میشود، حتماً منابع دیگر و معتبر را بررسی کنید. بهدنبال تناقضها در تصویر و صدا باشید. آیا هماهنگی لبها طبیعی نیست؟ نورپردازی عجیب به نظر میرسد؟ آیا کیفیت ویدیو یا صدا پایینتر از حد انتظار است؟ همیشه سؤال بپرسید و صحت اطلاعات را تأیید کنید. همچنین آگاهی خود را از اینکه دیپ فیک چیست بالا ببرید.
اطلاعات خود را از منابع معتبر دریافت کنید
یکی از زیباییهای اینترنت این است که به همه افراد امکان میدهد صدای خود را به گوش دیگران برسانند؛ اما همین موضوع یکی از بزرگترین نقاط ضعف آن نیز محسوب میشود. هرکسی میتواند یک وبسایت راهاندازی کند و خود را یک منبع معتبر جا بزند. حتی ممکن است از دیپ فیک هوش مصنوعی برای ایجاد ظاهری قابلاعتماد استفاده کند و سپس هر ادعایی را مطرح کند.
در دورانی که اعتماد عمومی به سازمانهای خبری بهشدت کاهش یافته است، همین رسانهها همچنان قابلاعتمادترین گزینه موجود هستند. درست است که این سازمانها ممکن است دستور کار خاص خود را داشته باشند و پوشش خبری آنها کاملاً بیطرف نباشد، اما همچنان قابلاعتمادتر از یک وبلاگ شخصی یا یک پست فیسبوکی ناشناس هستند.
چگونه میتوان یک ویدیو یا تصویر دیپفیک را از نمونه واقعی تشخیص داد؟

برخی از دیپفیکها آنقدر قانعکننده هستند که تشخیص آنها از محتوای واقعی تقریباً غیرممکن است. بااینحال، اگر بدانید دقیقاً به چه نکاتی توجه کنید، گاهی میتوانید یک تصویر یا ویدیوی دیپ فیک را از نمونه واقعی تشخیص دهید.
در ادامه، به برخی از نشانههایی اشاره میکنیم که هنگام بررسی محتوای مشکوک باید به آنها توجه داشته باشید تا بتوانید دیپفیک را شناسایی کنید.
۱. نورپردازی غیرطبیعی یا سایر عناصر
زمانی که هوش مصنوعی اقدام به تولید تصاویر یا ویدیوها میکند، معمولاً در بازسازی جلوههای نوری دچار خطا میشود و در نتیجه تصویری با نورپردازی غیرطبیعی یا ناهماهنگ ایجاد میکند. هوش مصنوعی همچنین بهدلیل خطا در پردازش انگشتان و دستها بدنام است.
علاوهبر این، ممکن است متوجه ویژگیهای محو، رنگ پوست غیرطبیعی یا بخشهایی از تصویر شوید که انگار «ذوب» شدهاند یا شکل واقعی خود را از دست دادهاند.
۲. تنظیمات غیرواقعی
تصویر یا ویدیو را بهصورت کلی بررسی کنید. آیا محیط و تنظیمات صحنه با فردی که در تصویر نمایش داده شده است هماهنگی دارد؟ در بسیاری از موارد، هوش مصنوعی تنها چهره افراد را جایگزین میکند، اما محیط اطراف و جزئیات دیگر را تغییر نمیدهد.
به همین دلیل، همهچیز بهطور کامل با هم مطابقت ندارد. برای مثال، یک خیابان شهری که معمولاً بسیار شلوغ است اما در تصویر تقریباً خالی از عابران پیاده به نظر میرسد، میتواند نشانهای از جعلی بودن عکس یا ویدیو باشد.
۳. جزئیات پسزمینه
این مورد ارتباط نزدیکی با محیط دارد. هوش مصنوعی از مجموعهای از ویژگیها برای کنار هم قرار دادن یک تصویر ساختگی استفاده میکند و این فرآیند همیشه منجر به ایجاد پسزمینهای کاملاً قانعکننده نمیشود. اگر پسزمینه با سوژه اصلی تصویر هماهنگ نیست، بهتر است با احتیاط بیشتری برخورد کنید. پسزمینه تصویر را با دقت بررسی کنید و هر عنصر یا جزئیاتی را که «غیرعادی» یا نامتناسب به نظر میرسد، زیر نظر بگیرید.
۴. منبع تأییدنشده
پیش از آنکه به هر نتیجهای برسید، از خود بپرسید ویدیویی که مشاهده میکنید از چه منبعی منتشر شده است. اخبار را بررسی کنید و ببینید آیا محتوای ویدیو با گزارشهای خبری معتبر و بهروز همخوانی دارد یا خیر. معمولاً دیپ فیکها بهصورت آنلاین و در شبکههای اجتماعی یا وبسایتهای نامعتبر منتشر میشوند و کمتر در رسانههای خبری شناختهشده و نشریات معتبر که اعتبار خود را بر کیفیت و صحت محتوا بنا کردهاند، دیده میشوند.
۵. تماس چشمی و صدای ناهماهنگ
یکی دیگر از نشانههای ویدیوهای دیپ فیک، حرکات غیرطبیعی چشمها و در برخی موارد، ناهماهنگی صدا با تصویر است. نتیجه معمولاً کلیپی است که بهطرز عجیبی غیرطبیعی به نظر میرسد یا حس دوبلهشده بودن را القا میکند؛ حالتی شبیه تماشای یک فیلم خارجی که صدا و تصویر آن با هم هماهنگ نیستند.
بهعنوان یک نکته تکمیلی، میتوانید از نرمافزارهای تشخیص محتوای تولیدشده با هوش مصنوعی برای شناسایی دیپفیکها استفاده کنید. برای مثال، اگرچه هوش مصنوعی میتواند نمای روبهروی یک فرد را بسیار قانعکننده بسازد، اما در بازسازی زوایای مختلف چهره معمولاً دچار مشکل میشود.
اگر تصویر پروفایل یک فرد را در یک نرمافزار تشخیص هوش مصنوعی بررسی کرده و آن را با یک دیپ فیک مقایسه کنید، این ابزارها اغلب قادر به شناسایی تصویر جعلی یا نامعتبر هستند. اجازه ندهید کلاهبردارن از اینکه نمیدانید دیپ فیک چیست سوءاستفاده کنند.
نحوه استفاده از دیپ فیک در حملات و کلاهبرداریهای سایبری
مجرمان سایبری عمدتاً از دیپفیک برای فریب افراد و سازمانها با هدف کسب منافع شخصی یا مالی استفاده میکنند.
آنها همچنین میتوانند از دیپفیک بهعنوان ابزاری تبلیغاتی برای تغییر افکار عمومی درباره موضوعات خاص بهره ببرند. برخی کارشناسان امنیتی نگران هستند که گروههای خطرناک از فناوری دیپ فیک برای تأثیرگذاری بر نتایج سیاسی و اجتماعی استفاده کنند.
بهطور کلی، مجرمان سایبری به دلایل مختلفی رسانههای دیجیتال را دستکاری میکنند، اما برخی از رایجترین حملات و کلاهبرداریها شامل موارد زیر است:
۱. سرقت هویت
عاملان تهدید میتوانند از ویدیوها و کلیپهای صوتی دیپفیک برای جعل هویت مدیران شرکتها یا مؤسسات مالی استفاده کنند و مبالغ هنگفتی پول به سرقت ببرند. در سال ۲۰۲۰، مجرمان سایبری با استفاده از فناوری دیپفیک موفق شدند ۳۵ میلیون دلار از یک بانک در هنگکنگ سرقت کنند.
نمونهای دیگر، کلاهبرداران از یک هولوگرام دیپفیک از مدیر ارشد فناوری یک شرکت فعال در حوزه ارزهای دیجیتال در تماس زوم استفاده کردند و مدیران را فریب دادند تا اطلاعات محرمانه را در اختیار آنها قرار دهند.
در موردی دیگر، یک هکر حتی با استفاده از دیپفیک موفق شد بهعنوان عضو تیم پشتیبانی فنی در یک شرکت بزرگ استخدام شود. این هکر سپس از موقعیت شغلی خود برای سرقت اطلاعات حساس و دسترسی نامحدود به شبکه داخلی شرکت سوءاستفاده کرد.
دیپفیکها تشخیص مرز میان واقعیت و خیال را بهشدت دشوار میکنند. از آنجا که این فناوری بهطور مداوم درحال پیشرفت است، کیفیت دیپفیکها نیز روزبهروز بهتر میشود. در نتیجه، تشخیص این تصاویر و ویدیوهای وهمآلود هر روز سختتر و پیچیدهتر میشود.
ما در مجموعهی شیدافزار برای این نگرانی شما عزیزان، آنتیویروس و امنیت اینترنتی شید را پیشنهاد میکنیم.
در نسخه امنیت اینترنتی شید شما میتوانید در برابر ویروسها ایمن باشید، در مقابل تهدیدهای اینترنتی محافظت شوید و نگران ایمنی خریدها، پرداختها و کارهای بانکیتان نباشید.
همچنین کنترل برنامههای دستگاهتان را در دست بگیرید.
اما آنچه که این محصول را برای شما جذابتر میکند، امکان دانلود رایگان و استفاده آزمایشی ۳۰ روزه است.
این فرصت بینظیر به شما اجازه میدهد تا بدون پرداخت هزینه، تمام قابلیتهای امنیت اینترنتی شید را تجربه کرده و از امکانات پیشرفته آن بهرهمند شوید.
جهت آشنایی بیشتر با محصولات ما روی تصویر زیر کلیک کنید.

۲. سرقت کمکهای خیریه
حتی کمکهای خیریه نیز از سوءاستفاده مجرمان سایبری در امان نماندهاند. در برخی حملات اخیر، از پیامهای صوتی جعلی که با صدای یک مدیرعامل ساخته شده بودند استفاده شد تا کارمندان، فروشندگان و تأمینکنندگان را به اهدای کمک مالی به خیریهای ترغیب کنند که در نهایت مشخص شد کاملاً جعلی بوده است.
۳. فریب سیستمهای احراز هویت
اکنون که احراز هویت چندعاملی بهطور گسترده مورد استفاده قرار میگیرد، مجرمان سایبری نیز روشهای خود را پیشرفتهتر کردهاند. هکرها از کلیپهای صوتی و تصویری دیپفیک برای دسترسی غیرمجاز به برنامهها، حسابها و منابع محافظتشده استفاده میکنند.
بازیگران مخرب با هدف قرار دادن سیستمهای تشخیص چهره و صدا و استفاده از جعلهایی بسیار واقعگرایانه، قادر به نفوذ به حسابهایی میشوند که در ظاهر کاملاً امن هستند.
۴. حملات فیشینگ
کلاهبرداران همچنین از محتوای دیپفیک در حملات فیشینگ صوتی، ایمیلی و پیامکی استفاده میکنند تا کارمندان، مشتریان و سایر افراد را فریب دهند و آنها را به انجام پرداختهای غیرمجاز یا افشای اطلاعات شخصی وادار کنند. این اطلاعات سپس میتواند برای دسترسی به حسابها و سرقت دادهها یا پول مورد استفاده قرار گیرد.
۵. جعلهای سطحی
برخی مجرمان به ابزارهای پیشرفته هوش مصنوعی مورد نیاز برای تولید دیپفیکهای باکیفیت دسترسی ندارند. بااینحال، نسخههای کمکیفیتتر که با عنوان «جعلهای سطحی» شناخته میشوند، در بسیاری از موارد همان کارایی را دارند.
برای مثال، یک کلاهبردار ممکن است تنها با کاهش سرعت یک فایل صوتی، اینگونه القا کند که گوینده در حالت مستی صحبت میکند. یا اگر هدف القای رفتاری خشن یا نامنظم باشد، ممکن است سرعت یک ویدیوی واقعی را افزایش دهند تا محتوای آن تحریف شود.
جمعبندی
مجرمان سایبری بهطور مداوم درحال افزایش دانش و مهارت فنی خود برای تولید جعلهای عمیق هستند، اما در مقابل، متخصصان امنیت سایبری نیز دائماً روشهای دفاعی و ابزارهای شناسایی خود را بهبود میدهند.
با ادامه این رقابت، کاربران عادی باید آگاه باشند، پیش از هرگونه واکنش یا اقدام، صحت محتوا را بررسی کنند و در نهایت، عقل سلیم، ایمنی و امنیت را در اولویت قرار دهند. همچنین آگاهی خود را اینکه دیپ فیک چیست بالا ببرید.
دوست عزیز
به انتهای این مقاله رسیدیم. از اینکه تا به اینجای کار با ما همراه بودید، سپاسگزاریم. خوشحال میشویم که نظر شما عزیزان را در قسمت کامنت مطالعه کنیم. اگر به مطالب بیشتر در حوزهی امنیت و هک علاقمندید میتوانید وبلاگ ما را دنبال کنید.
