شنبه ۲ مرداد ۱۴۰۰
پنجشنبه ۱۰ تیر ۱۴۰۰ 82 0 1

تصاویری که مورد دستکاری جعل عمیق قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد.

تلاش فیس بوک برای آشکارسازی دیپ‌فیک (جعل عمیق)

شرکت فیسبوک سیستم جدیدی برای تشخیص فناوری دیپ‌فیک (Deepfake) یا همان «جعل عمیق» ساخته است تا با استفاده از یک روش مهندسی معکوس بتواند استفاده از این فناوری را در تصاویر مختلف تشخیص دهد.
 
در حالی که ممکن است ما عادت کرده باشیم از فناوری موسوم به جعل عمیق برای طیف وسیعی از کارهای نسبتاً بی‌ضرر استفاده شود، اما از این فناوری می‌توان برای ایجاد محتوای مخرب نیز مانند انداختن صورت شخص دیگری در یک صحنه ناشایست یا آسیب رساندن به حرفه یک سیاستمدار استفاده کرد.
 
تصاویری که مورد دستکاری جعل عمیق قرار می‌گیرند در واقع فیلم‌ها یا عکس‌های تغییر یافته دیجیتالی از چهره یک یا چند شخص با استفاده از هوش مصنوعی است که می‌تواند کاملاً واقعی به نظر برسد. این تصاویر به قدری می‌توانند مخرب باشند که سال گذشته ایالت کالیفرنیا استفاده از این فناوری را در حوزه سیاست و پورنوگرافی ممنوع کرد.
 
ما به راحتی با این فناوری فریب می‌خوریم و آنچه را که در تصاویر می‌بینیم، باور می‌کنیم و این فناوری نیز هر روز در حال بهبود یافتن است. محققان شرکت فیسبوک و دانشگاه میشیگان برای مقابله با دست به دست شدن و انتشار ویروسی چنین تصاویر تغییر یافته‌ای، روش جدیدی را برای شناسایی جعل عمیق ایجاد کرده‌اند که می‌تواند دریابد که از کدام مدل تولیدی برای ایجاد آنها استفاده شده است.
 
این تیم امیدوار است که این روش، ابزاری برای بررسی بهتر انتشار اطلاعات غلط با استفاده از جعل عمیق بوده و همچنین راهی برای گشودن مسیرهای جدید برای تحقیقات آینده در اختیار محققان قرار دهد.
 
سیستم‌های تشخیص جعل عمیق از قبل نیز به وجود آمده بودند، اما به دلیل اینکه این سیستم‌ها معمولاً برای شناسایی مدل‌های تولیدی خاص آموزش می‌بینند، به محض اینکه مدل دیگری (مدلی که سیستم برای آن آموزش ندیده است) ظاهر می‌شود، سیستم نمی‌تواند بفهمد که این جعل عمیق از کجا آمده است.
 
اما سیستم جدید فیسبوک چگونه کار می‌کند؟ تیم سازنده تصمیم گرفت یک گام به جلو حرکت کند و سیستم را فراتر از مجموعه محدود مدل‌های ارائه شده آموزش دهد و با روش مهندسی معکوس آن را قادر سازد تا هر نوع جعل عمیق را شناسایی کند.
 
هاسنر از فیسبوک گفت: روش مهندسی معکوس ما متکی به کشف الگوهای منحصر به فرد پشت مدل هوش مصنوعی است که برای تولید یک تصویر جعل عمیق استفاده می‌شود.
 
تیم سازنده می‌گوید: ما با تجزیه مدل می‌توانیم خصوصیات مدل‌های مولد مورد استفاده برای ایجاد هر جعل عمیق را تخمین بزنیم و حتی چندین جعل عمیق را به مدلی که احتمالاً آنها را تولید کرده است، مرتبط کنیم. این سیستم اطلاعات مربوط به هر جعل عمیق را حتی آن مدل‌هایی که اطلاعات قبلی درباره آنها وجود نداشته است، ارائه می‌دهد.
 
این تیم سیستم خود را با استفاده از یک مجموعه داده تصویری جعل عمیق متشکل از ۱۰۰ هزار تصویر مصنوعی که از ۱۰۰ مدل مختلف مولد در دسترس عموم تولید شده است، آموزش داد و نتایج به طور قابل توجهی بهتر از مدل‌های تشخیصی قبلی بود.
 
این نوع از سیستم تشخیص جعل عمیق به خصوص برای سازمان‌های دولتی، پلیس و رسانه‌های اجتماعی که به شدت تلاش می‌کنند این اطلاعات جعلی منتشر نشود، می‌تواند مفید باشد.
 
تاکنون هیچ تاریخی در مورد زمان اجرا و در دسترس عموم قرار گرفتن این سیستم به اشتراک گذاشته نشده است، اما محققان در حال کار بر روی چنین روش‌هایی هستند.
منبع
ایسنا

آی هوش: گنجینه دانستنی ها و معماهای هوش و ریاضی

نظراتی که درج می شود، صرفا نظرات شخصی افراد است و لزوماً منعکس کننده دیدگاه های آی هوش نمی باشد.
آی هوش: مرجع مفاهیم هوش و ریاضی و انواع تست هوش، معمای ریاضی و معمای شطرنج
 
در زمینه‌ی انتشار نظرات مخاطبان، رعایت برخی موارد ضروری است:
 
-- لطفاً نظرات خود را با حروف فارسی تایپ کنید.
-- آی هوش مجاز به ویرایش ادبی نظرات مخاطبان است.
-- آی هوش از انتشار نظراتی که در آنها رعایت ادب نشده باشد معذور است.
-- نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.
 
 
 
 

نظر شما

پرطرفدارترین خبرهای امروز

سهند پورجواد، نابغه ۸ ساله ایرانی
کانال رسمی آی هوش در تلگرام
انواع شبکه‌های هوشمند در دنیا
تشخیص هوش افراد از روی چهره
بنیاد و موزه مریم میرزاخانی ایجاد می‌شود
جلد «همشهری جوان» به شکل کتاب حسابان درآمد
دو مدال طلا و چهار برنز دستاورد شریفی‌ها در مسابقات جهانی ریاضی
گزارش تصویری از یکی از مراسم یادبود مریم میرزاخانی در تهران
گزارش تصویری از مراسم ترحیم مریم میرزاخانی