اخبار
پنجشنبه، 30 خرداد 1398
 الگوریتمی که حرف‌های گوینده را در ویدیو عوض می‌کند!

الگوریتمی که حرف‌های گوینده را در ویدیو عوض می‌کند!



یک نرم افزار جدید جعل عمیق به شما اجازه می‌دهد که کلمات را در متن یک ویدئو اضافه، ویرایش و یا حذف کنید و این تغییرات بدون ایراد در ویدئو مشاهده شود.

 

به گزارش ایسنا و به نقل از گیزمگ، امکان تغییر و ویرایش یا حذف سخنان افراد در یک ویدئو اکنون به کمک یک الگوریتم ویرایش ممکن شده است.
یک الگوریتم جدید جعل عمیق می‌تواند صوت و تصویر را به شکل جدیدی تبدیل کند که در آن گوینده در ویدئو آن چیزی را بگوید که شما می‌خواهید.
توسعه این الگوریتم حاصل همکاری محققان دانشگاه استنفورد، مؤسسه مکس پلانک، دانشگاه پرینستون و شرکت ادوبی است.
محققان می‌گویند در دنیای آینده از این فناوری برای کاهش هزینه‌های فیلم‌های سینمایی و تلویزیونی استفاده خواهد شد، چرا که وقتی یک بازیگر چیزی را اشتباه می‌گوید یا حرکت اشتباهی انجام می‌دهد دیگر نیاز به برداشت مجدد نخواهد بود و هوش مصنوعی می‌تواند به راحتی همان یک برداشت را اصلاح کند.
این الگوریتم به منظور یادگیری حرکات صورت یک سخنران به حدود ۴۰ دقیقه ویدئوی آموزشی و یک رونوشت از آنچه توسط وی گفته می‌شود نیاز دارد، بنابراین اگر می‌خواهید نتایج خوبی داشته باشید فعلاً چیزی نیست که بتوان روی یک قطعه ویدئویی کوتاه اجرا کرد.
نمایش این ۴۰ دقیقه ویدئو به الگوریتم فرصت می‌دهد تا تغییرات دقیق صورت گوینده را در بیان هر کلمه رصد کند. از آن پس هنگامی که شما متن را ویرایش می‌کنید، الگوریتم می‌تواند یک مدل سه بعدی از چهره گوینده متناسب با کلمات و جملات جدید ایجاد کند.
سپس یک تکنیک یادگیری ماشین به نام "تفسیر عصبی"(Neural Rendering) می‌تواند مدل سه بعدی را با بافت تصویر واقعی سازگار کند تا تصویر حاصل از واقعیت غیرقابل تشخیص باشد.
از نرم‌افزارهایی مانند "VoCo" نیز می‌توان برای تقلید صدای گوینده استفاده کرد تا کلمات و جملات جدید با صدای گوینده و بدون نقص بیان شده و کاملاً با تصویر جدید هماهنگ باشد.
این تیم از توان بالقوه نرم افزار ابداعی خود برای استفاده‌های غیراخلاقی آگاه است و جانب احتیاط را در توسعه آن رها نکرده است. چرا که ممکن است از آن برای مقاصد غیرقانونی و غیراخلاقی استفاده شود و رواج آن موجب می‌شود دیگر کسی به هیچ ویدئویی در فضای مجازی اعتماد نکند.
این تیم تحقیقاتی تلاش‌هایی برای مقابله با سوءاستفاده احتمالی از این نرم افزار داشته است و یک راه حل ارائه داده که در آن هر کسی که از این نرم افزار استفاده می‌کند، به ناچار عبارت جعلی زیر ویدئوی ویرایش شده ثبت می‌شود. بدیهی است که این راه حل در صورتی که نتوان آن را دور زد جلوی هر سوءاستفاده‌ای را خواهد گرفت.
این تیم همچنین پیشنهاد می‌کند که دیگر روش‌های قانونی مانند تکنیک‌های انگشت نگاری دیجیتال یا غیردیجیتال برای تعیین اینکه آیا یک ویدئو دستکاری شده قابل استفاده است.
در واقع پتانسیل توسعه فناوری مقایسه هر قطعه از ویدئو با قطعه اصلی آن وجود دارد اما هنوز محقق نشده است و مشخص نیست که چگونه می‌توان آن را در سطح جهانی اجرا کرد.
همچنین بسیاری از برنامه‌های یادگیری عمیق در حال حاضر قادر به شناسایی تصاویر تقلبی هستند. اگرچه که هرچه این برنامه‌ها بهتر عمل کنند، سیستم‌های جعل نیز به طور خودکار بهتر می‌شوند.
بنابراین توسعه این سیستم در صورت عدم بکارگیری تمهیدات لازم احتمالاً به یک مشکل پیچیده و جدی تبدیل خواهد شد و تأثیر مهمی بر تولید اخبار در دهه‌های آتی خواهد داشت.


منبع:
ایسنا