جدید "Markpainting" Tech Fights حذف واترمارک و Deepfakes

جدید “Markpainting” Tech Fights حذف واترمارک و Deepfakes

[ad_1]

گروهی از محققان با هدف جلوگیری از گسترش اطلاعات غلط ، ابتکار جدیدی را با یک کد منبع باز در دسترس برای کمک به کشف بهتر جعل های عمیق ویرایش شده برای حذف علامت های آبی تهیه کرده اند.

Inpainting – همچنین برای کاربران فتوشاپ به عنوان “پر کردن آگاهی از محتوا” نیز شناخته می شود – روشی است که از مدل های یادگیری ماشین برای بازسازی قطعات از دست رفته یک تصویر یا حذف اشیا unw ناخواسته استفاده می کند. اگرچه به طور کلی به عنوان ابزاری در بین خلاقیت ها برای “پاک کردن” تصویر برای نتیجه دقیق تر مورد استفاده قرار می گیرد ، این فناوری همچنین می تواند برای نیت های سو ، مانند حذف علامت های آبی ، بازسازی واقعیت با حذف افراد یا اشیا خاص در عکس ، افزودن اطلاعات نادرست و موارد دیگر.

این نوع فناوری در سالهای اخیر بسیار پیشرفت کرده است ، با نمونه ای قابل توجه از NVIDIA با هوش مصنوعی “Content-Aware Fill” که یک گام فراتر از ابزارهای پیشرفته Photoshop است. دستکاری تصاویر با قصد سوicious نه تنها می تواند با از بین بردن علامت های آبی یا سایر عوامل شناسایی کپی رایت بصری باعث از دست دادن سود سرقت تصویر شود ، بلکه می تواند منجر به گسترش اطلاعات نادرست در صورت توانایی آن برای حذف فرد از عکس صحنه جرم ، کلاهبرداری شود افراد یا مشاغل ، حتی در پرونده ای که قبلاً گزارش شده بود ، سیاست را بی ثبات می کنند PetaPixel.

برای دشوارتر کردن سو abuseاستفاده از نقاشی ، گروهی از محققان – دیوید خاچاتوروف ، ایلیا شومیلوف ، ییرن ژائو ، نیکولاس پاپرنوت و راس اندرسون – ابتکاری را به نام “Markpainting” تهیه کرده اند که توسط دستمال کاغذی آبی روشن. این یک ابزار جدید است که می تواند به عنوان “هشدار دستکاری که در صورت رنگ آمیزی قابل مشاهده است” استفاده شود.

این ابزار ، که به طور مفصل توسط مقاله این تیم شرح داده شده است ، از “تکنیک های یادگیری ماشین خصمانه برای فریب دادن انسان به منظور آشکار کردن ویرایش های خود با چشم غیر مسلح” استفاده می کند ، که به موجب آن “صاحب تصویر می تواند تصویر خود را به روشهای ظریف تغییر دهد که قابل مشاهده است ، اما هرگونه تلاش برای رنگ آمیزی آن را با افزودن اطلاعات مرئی که از قبل توسط markpainter تعیین شده است ، خراب خواهد کرد. “

این تحقیق که توسط CIFAR (از طریق صندلی AI CIFAR AI کانادا) ، EPSRC ، اپل ، بنیاد تحقیقاتی بوش ، NSERC و مایکروسافت پشتیبانی می شود ، روش های جدیدی را برای سازندگان ، شرکت ها و آژانس ها برای محافظت بهتر از دارایی های دیجیتالی خود در آینده به ارمغان می آورد. کمتر قابل جابجایی علامت های آبی ، امنیت و محافظت از سود بیشتری را به همراه دارد ، در حالی که می توان تصاویر دیگر را تحت درمان قرار داد تا هرگونه دستکاری در آینده ، مانند برداشتن اشیا ، شناسایی آن آسان تر شود.

ایده شناسایی دستکاری شده تصویر و فیلم جدید نیست. تحقیق و توسعه در این زمینه در حال انجام است ، با این حال ، هنوز مشخص نشده است که چگونه و چه زمانی این فناوری می تواند تلاش های دستکاری را با موفقیت متوقف کند.

مقاله کامل تحقیق و آزمایشات انجام شده با استفاده از این روش “Markpainting” را می توان در مقاله تحقیقاتی تیم “Markpainting: Adversarial Machine Learning Inpainting” یافت.



[ad_2]

لینک منبع