پروژه MediFor دارپا تصاویر و ویدئوهای تحریف شده را شناسایی می کند – ربات مین یاب

آژانس پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی (DARPA) به منظور مقابله با اخبار و محتوای جعلی از پروژه ای مشترک با گروه تحقیقاتی استنفورد (SRI International) خبر داده است
از دیگر خطرات ویدئوهای ساختگی می توان به تاثیرگذاری روی دیدگاه های عموم مردم اشاره کرد؛ با این حال پیاده سازی پروژه هایی نظیر MediFor می تواند تا حدودی با این خرابکاری ها مقابله کند.

دارپا در قالب پروژه MediFor در حال توسعه ابزارهایی است که قابلیت شناسایی ویدئو یا تصویری که به منظور گمراه سازی مخاطب به صورت معناداری تغییر کرده، را دارد.

آژانس پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی (DARPA) به منظور مقابله با اخبار و محتوای جعلی از پروژه ای مشترک با گروه تحقیقاتی استنفورد (SRI International) خبر داده است.

در آینده نزدیک و با پیشرفت تکنیک های تحریف ویدئو و یا حتی تولید محتوای ساختگی، هکرها و کاربران عادی قادر به تولید فیلم هایی از افراد هستند که آنها را حین انجام دادن کاری نشان می دهد که روحشان هم از آن خبر ندارد.

یکی از مشهورترین روش های تحریف محتوا «deepfake» نام دارد که در آن چهره یک شخص مشهور در قالب ویدیویی دیگر قرار داده می شود. نرم افزارهای مورد استفاده در این روش اغلب ارزان قیمت هستند، با این حال ابزارهای تجزیه و تحلیل فعلی قابلیت شناسایی بخش های تحریف شده را ندارند.

در آزمایشی که قبلا با استفاده از این سیستم روی صدها ویدئو صورت گرفته، محتوای تحریف شده با دقت 75 درصد شناسایی شده است.

دارپا در بیانیه خود مدعی شده که MediFor با بهره گیری از محققان تراز اول، فناوری هایی را برای ارزیابی خودکار صحت تصاویر و ویدئو ها توسعه می دهد. این ابزارها جزئیات دقیقی را از چگونگی و میزان تحریف محتوا ارائه می کنند.MediForتوسعه پروژه MediFor از 2015 شروع شده و احتمالا نهایی سازی آن تا سال 2020 طول بکشد. این گروه تحقیقاتی برای شناسایی تحریف صوتی یا تصویری ویدئوهای مشکوک روی چهار تکنیک تناقض در صحنه مثل مساحت اتاق یا اکوی صوت، عدم هماهنگی حرکات لب و صدا، شناسایی فریم های حذف شده یا تزریق محتوا استفاده می کنند.

یکی از محققان موسسه استنفورد درباره خطرات ویدئوهای غیرواقعی می گوید:

Leave a Reply

Your email address will not be published. Required fields are marked *