دیپ فیک یا جعل عمیق به رسانههای دستکاری شده یا ساخته شده با استفاده از هوش مصنوعی اطلاق میشود.«جف هورنکاسل»، کارمند ارتباطات مرکز مبارزه به کاناداییها درباره افزایش نرخ کلاهبرداریهای صوتی و تصویری که از شخصیتهای رسانهای برای تبلیغ پلتفرمهای ارزهای دیجیتال تقلبی و سایر کلاهبرداریها استفاده میکنند، هشدار بیشماری داده است.«تمام چیزی که (کلاهبرداران) نیاز دارند، چند ثانیه صدا از شخصی است که میخواهند هویت او را جعل و تقلب نمایند. آنها از یک عکس یا کلیپ صوتی کوتاه به عنوان یک ابزار اضافی برای متقاعد کردن قربانیان و افراد احتمالی که فکر میکنند آن محتوا واقعی است استفاده مینمایند.»
این کلاهبرداران اغلب برای ایجاد اعتماد از نامهای آشنا مثل شخصیتهای تلویزیونی آمریکایی همچون «گیل کینگ، تاکر کارلسون و بیل ماهر» استفاده میکنند. این صدا، در حالی که به خوبی با ویدیو مطابقت دارد، جعلی است. «ایلان ماسک»، بنیانگذار تسلا، در حال تلاش برای فروش سهام شرکتهای کریپتوی تقلبی است. سازندگان این ویدئوهای جعل عمیق یا دیپ فیک، مانند تماسهای خودکار و ایمیلهای اسپم، هزاران دلار از مردم کلاهبرداری کردهاند. هیچ داده مشخصی در مورد تعداد کاناداییهایی که به طور خاص با محتوای جعل عمیق کلاهبرداری شدهاند وجود ندارد.مرکز مبارزه با کلاهبرداریهای کانادا در سال ٢٠٢٢ در گزارشی اعلام کرد که کاناداییها در مجموع 531 میلیون دلار به دلیل کلاهبرداری از دست دادهاند. تا ماه ژوئن ٢٠٢٣، رقم کلاهبرداریهای صورت گرفته از کاناداییها ۲۸۳.۵ میلیون دلار بوده است.
کارشناس فناوری مارک دالی در بیانیه ای گفت:
«مارک دالی»، کارشناس فناوری، گفت: « ترسناکترین جنبه این دیپفیکها آن است که این فناوری در حال پیشرفت است و به همین دلیل تشخیص جعلی بودن آن روز به روز سختتر میشود.پیشرفت فناوری در 5 سال گذشته بسیار سریع بوده است. به عنوان مثال در گذشته یک محتوای جعل عمیق یا دیپ فیک برای ساخته شدن نیاز به افراد بسیار ماهر با دسترسی به نرم افزارهای فنی انحصاری داشت، اما اکنون هرکسی که دانش متوسطی از هوش مصنوعی داشته و به رایانههای گیمینگ دسترسی داشته باشد، میتواند اطلاعات نادرست را از طریق یک چهره شناخته شده، مانند یک سیاستمدار معروف و مشهور، در فضای اینترنت منتشر کند.
یکی از راههای دیگر این فناوری میتواند استفاده از آن در میانه رویدادهای مهم سیاسی باشد.«ران دیسانتیس»، فرماندار فلوریدا، که در حال حاضر به دنبال نامزدی برای حزب جمهوری خواه است، هفته گذشته در یک ویدیوی جعل عمیق دیده شد که به نظر میرسید دارد اعلام میکند که از رقابتها خارج میشود. این محتواها به نوعی همچون دانههای کوچک در سر ما کاشته میشود که شاید این شخص بدجنس باشد، یا شاید آنها احساسات دیگری دارند. من فکر میکنم که از نظر سیاسی این موضوع واقعاً مضر است. گوگل در خبری اعلام نموده است که از فناوری خود برای اضافه کردن هشدارهای واترمارک به تصاویر تولید شده توسط هوش مصنوعی استفاده میکند تا ادعاهای نادرست و عکسهای ساختگی را مشخص کند.
سخنگوی گوگل در بیانیهای گفت:
«ما متعهد هستیم که مردم را در پلتفرمهای خود ایمن نگه داریم و زمانی که محتوایی را مشاهده میکنیم که این سیاستها را نقض میکند، در مقابل آن دست به اقدام میزنیم.»ما همچنان به تقویت روشهای اجرایی خود برای مبارزه با سوء استفاده و تقلب ادامه خواهیم داد. سیاستهای صدور گواهینامه جدید را راهاندازی کردهایم، تأیید صحت شخصیت فرد آگهیدهنده را اضافه کردهایم و ظرفیت خود را برای شناسایی و جلوگیری از کلاهبرداریهای برنامه ریزی شده افزایش دادهایم.
نحوه تشخیص یک محتوای دیپ فیک
کارشناسان میگویند با پیشرفت فناوری هوش مصنوعی، مردم تمایل دارند که رسانههای آنلاینی که دنبال میکنند را زیر سوال ببرند. داو همچنین می گوید که بر روی تصویر اجمالی یک فرد در مقایسه با پسزمینه تمرکز کنید، از جمله موها و نواحی اطراف صورت آنها، به خصوص زمانی که گوینده در حال حرکت است.هورنکاسل میگوید که از خود بپرسید که چرا برخی از شخصیتهای رسانهای محصولاتی خارج از علایق خود را تبلیغ میکنند و اگر معمولاً این قبیل محتوا را از آنها نمیبینید، با خود بگویید که چرا اصلاً آنها باید چیزی را تبلیغ کنند؟