“دیپ‌فیک” بس است! – ایسنا

شرکت “فیسبوک” سیستم جدیدی برای تشخیص فناوری “دیپ‌فیک”(Deepfake) یا همان “جعل عمیق” ساخته است تا با استفاده از یک روش مهندسی معکوس بتواند استفاده از این فناوری را در تصاویر مختلف تشخیص دهد.

به گزارش ایسنا و به نقل از آی‌ای، در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به “جعل عمیق” برای طیف وسیعی از کارهای نسبتاً بی‌ضرر استفاده شود، اما از این فناوری می‌توان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد.

تصاویری که مورد دستکاری “جعل عمیق” قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می‌توانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد.

ما به راحتی با این فناوری فریب می‌خوریم و آنچه را که در تصاویر می‌بینیم، باور می‌کنیم و این فناوری نیز هر روز در حال بهبود یافتن است.

محققان شرکت “فیسبوک” و دانشگاه “میشیگان” برای مقابله با دست به دست شدن و انتشار ویروسی چنین تصاویر تغییر یافته‌ای، روش جدیدی را برای شناسایی “جعل عمیق” ایجاد کرده‌اند که می‌تواند دریابد که از کدام مدل تولیدی برای ایجاد آنها استفاده شده است.

این تیم امیدوار است که این روش، ابزاری برای بررسی بهتر انتشار اطلاعات غلط با استفاده از “جعل عمیق” بوده و همچنین راهی برای گشودن مسیرهای جدید برای تحقیقات آینده در اختیار محققان قرار دهد.

سیستم‌های تشخیص “جعل عمیق” از قبل نیز به وجود آمده بودند، اما به دلیل اینکه این سیستم‌ها معمولاً برای شناسایی مدل‌های تولیدی خاص آموزش می‌بینند، به محض اینکه مدل دیگری (مدلی که سیستم برای آن آموزش ندیده است) ظاهر می‌شود، سیستم نمی‌تواند بفهمد که این “جعل عمیق” از کجا آمده است.

اما سیستم جدید فیسبوک چگونه کار می‌کند؟ تیم سازنده تصمیم گرفت یک گام به جلو حرکت کند و سیستم را فراتر از مجموعه محدود مدل‌های ارائه شده آموزش دهد و با روش مهندسی معکوس آن را قادر سازد تا هر نوع “جعل عمیق” را شناسایی کند.

“هاسنر” از فیسبوک گفت: روش مهندسی معکوس ما متکی به کشف الگوهای منحصر به فرد پشت مدل هوش مصنوعی است که برای تولید یک تصویر “جعل عمیق” استفاده می‌شود.

تیم سازنده می‌گوید” ما با تجزیه مدل می‌توانیم خصوصیات مدل‌های مولد مورد استفاده برای ایجاد هر “جعل عمیق” را تخمین بزنیم و حتی چندین “جعل عمیق” را به مدلی که احتمالاً آنها را تولید کرده است، مرتبط کنیم. این سیستم اطلاعات مربوط به هر “جعل عمیق” را حتی آن مدل‌هایی که اطلاعات قبلی درباره آنها وجود نداشته است، ارائه می‌دهد.

این تیم سیستم خود را با استفاده از یک مجموعه داده تصویری “جعل عمیق” متشکل از 100 هزار تصویر مصنوعی که از 100 مدل مختلف مولد در دسترس عموم تولید شده است، آموزش داد و نتایج به طور قابل توجهی بهتر از مدل‌های تشخیصی قبلی بود.

این نوع از سیستم تشخیص “جعل عمیق” به خصوص برای سازمان‌های دولتی، پلیس و رسانه‌های اجتماعی که به شدت تلاش می‌کنند این اطلاعات جعلی منتشر نشود، می‌تواند مفید باشد.

تاکنون هیچ تاریخی در مورد زمان اجرا و در دسترس عموم قرار گرفتن این سیستم به اشتراک گذاشته نشده است، اما محققان در حال کار بر روی چنین روش‌هایی هستند.

انتهای پیام

از منبع این مطلب دیدن فرمایید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *