نوتیفیکیت گزارش می دهد؛
جعل ویدیو، عکس و صدا با استفاده از فناوری هوش مصنوعی، به ویژه برای افراد سرشناس، به دردسری جدی تبدیل شده است.
خبرگزاری علم و فناوری نوتیفیکیت، «اخبار جعلی» از 2016 به بعد به موضوعی تکراری و ازمدافتاده تبدیل شد و بار دیگر در 2023 ویدیو ها و صدا های جعلی ساخته شده با هوش مصنوعی که به «جعل عمیق» (دیپ فیک) شناخته می شوند، موجی از تهدیدات جدید به راه انداخت و در مواردی آسیب هایی را در ابعاد مختلف ملی یا جهانی به بار آورد. گزارش پیش رو که از نظر می گذرانید برگردان گزارش ساینس در خصوص جعل عمیق است.
در محتوا های جعل عمیق از الگوریتم هایی استفاده می شود که با استفاده از تصویر یا صدای افراد نسخه ای جعلی می سازند و صدایی را تولید می کنند که هرگز آن فرد به زبان نیاورده و یا ویدیویی از او می سازند که فرد هرگز در آن حضور نداشته است. ساخت محتوای جعل عمیق مدام ارزان تر و آسان تر می شود و به طور معمول همیشه در آستانه انتخابات مهم در کشور های مختلف موج جدیدی از آن به راه می افتد. تهیه شواهد و مدارک تقلبی، ایجاد اطلاعات غلط برای تخریب سیاستمداران و افراد سرشناس، دستکاری اسناد مالی و فرستادن پیام های متنی برای اهداف خلافکارانه از جمله کاربرد های مخرب فناوری جعل عمیق هستند.
باورپذیری محتوای جعلی توسط مخاطب
اگرچه روایت های نادرست در شبکه های اجتماعی سال های سال مشکل ساز بوده است، اما محتوا های ساخته شده با جعل عمیق آسیب جدی تری دارند. تصاویر و ویدیو ها بیشتر از متن ها در ذهن مخاطب باقی می مانند، قانع کننده به نظر می رسند و می توان آن ها را در سطح گسترده به اشتراک گذاشت.
مردم در شناسایی جعل عمیق مهارت چندانی ندارند
محتوای جعل عمیق همچنین می تواند باعث عدم قطعیت شود، زیرا ممکن است افراد زیادی آن را باور کنند. با این حال، مطالعات نشان داده اند که مردم در شناسایی جعل عمیق مهارت چندانی ندارند و اغلب نمی توانند جعل را از واقعیت تشخیص دهند، به ویژه آنکه تشخیص صوت های جعلی به مراتب سخت تر از ویدیو های جعلی است.
بیشتر مردم تصور می کنند که می توانند ویدیوهای جعلی را به راحتی تشخیص دهند، اما این باور چندان دقیق نیست. بر اساس مطالعه ای که در ژورنال آی ساینس منتشر شد، 210 داوطلب شرکت کننده در آزمایش تشخیص محتوای جعلی با نظارت هییتی از دانشگاه آمستردام شرکت کردند و نتایج نشان داد که داوطلبان تنها در 50 درصد از موارد توانستند ویدیو ها و صدا های جعلی را تشخیص دهند.
توانایی مغز در شناسایی محتوای جعلی
تیجل گروتسوِیجرز (Tijl Grootswagers) عصب شناس محاسباتی از دانشگاه وسترن سیدنی می گوید: «عجیب نیست که فریب محتوا های جعلی را می خوریم چرا به ما آموزش نداده اند که چگونه واقعیت و جعل را از یکدیگر تشخیص دهیم. این مهارت را نداریم.»
با این حال، به نظر می رسد که مغز از ویژگی شناسایی محتوا های جعلی برخوردار است. گروتسوِیجرز در آزمایشی از 22 داوطلب خواست تا به تصویری جعلی از یک چهره مشهور نگاه کنند و سپس متوجه شد که وقتی افراد به آن تصاویر نگاه می کنند یک سیگنال الکتریکی متمایز در قشر بینایی آن ها برانگیخته می شود که با سیگنال تولیدشده در هنگام نگاه کردن به تصویر واقعی متفاوت بود. یا این وجود، داوطلبان نتوانستند به درستی تشخیص دهند که کدام تصاویر واقعی هستند. دلیل این امر نامشخص است، اما شاید به دلیل تداخل سایر مناطق مغز با سیگنال های قشر بینایی باشد، یا شاید این سیگنال ها را تا کنون جدی نگرفته باشیم.
ماجرای ویدیوی جعلی تام کروز
انتشار ویدیویی از تام کروز، بازیگر مشهور هالیوود که در سال 2021 به سرعت در شبکه های اجتماعی جهان دست به دست شد نمون های مشهور و بسیار نزدیک به واقعیت به نظر می رسید نمونه ای معروف از ساخت ویدیو با فناوری جعل عمیق بود که واکنش های زیادی را در تمام دنیا برانگیخت. در این ویدیو ابتدا یک بازیگر مشهور کمدی به نام بیل هیدر (Bill Hader) ادای تام کروز را درمی آورد و حرف هایی را از او نقل قول می کند و چند لحظه بعد با استفاده از فناوری جعل عمیق، چهره تام کروز را می بینیم که در حال گفتن همان حرف ها و انجام همان اداها است. این تغییر چهره به حدی طبیعی انجام می شود که گویا واقعاً خود تام کروز است که دارد آن حرف ها را می زند.
کریس اومه (Chris Ume) از حرفه ای های مشهور در حوزه جلوه های بصری که اِفکت های بصری فوق العاده ای از تام کروز را در شبکه اجتماعی تیک تاک منتشر کرده است می گوید:«ساخت ویدیوهای جعل عمیق فقط با فشردن یک دکمه انجام نمی شود. این پیام مهم من برای مردم و علاقه مندان است؛ هر کلیپ کوتاه جعل عمیق هفته ها کار می برد و سازندۀ آن باید به الگوریتم متن باز در نرم افزار «دیپ فیس لب» DeepFaceLab آشنایی کافی داشته باشد و کارکردن با ابزار ویرایش پیشرفتۀ ویدیو را نیز بداند. برای ساخت چنین ویدیوهایی، معمولاً از ترکیب جلوه های بصری (VFX) و تصاویر تولیدشده توسط کامپیوتر (CGI) استفاده می شود؛ در نهایت برای بهبود آن به سراغ ترفندهای جعل عمیق می رویم تا به ویدیویی کامل و بی نقص برسیم.»
ر وش های تشخیص جعل عمیق ویدیویی
حالت غیرعادی صورت، حرکت غیرطبیعی صورت یا بدن، رنگ های غیرطبیعی، ویدیوهایی که با بزرگ نمایی یا کوچک نمایی غیرعادی و عجیب به نظر می رسند، صداهای ناسازگار، نگاه ثابت و پلک نزدن افراد از جمله نشانه های احتمالی جعل عمیق در محتوای ویدیویی هستند.
ر وش های تشخیص جعل عمیق متنی
وجود غلط املایی، جملاتی که نگارش طبیعی و روان ندارند یا اطلاعات آن ها نادرست است، آدرس ایمیل مشکوک، عبارات و مفاهیمی که با لحن و گفتار فرستنده فرضی مطابقت ندارد و پیام های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند در ردۀ شاخص های شناسایی جعل عمیق متنی هستند. با این حال، با پیشرفت هوش مصنوعی، بعضی از این شاخص های شناسایی دیگر به کار نمی آیند. برای مثال، ابزارهایی که پلک زدن طبیعی در تصویر ایجاد می کنند.
اگرچه جعل عمیق در بسیاری از موارد برای کارهای غیرقانونی و تقلب استفاده می شود، اما در صنایعی مانند فیلم سازی، هنر و ارتباط با مشتری نیز کاربردهای بسیار مفیدی دارد و می تواند در زمان و هزینه های برندها صرفه جویی کند. برای مثال، استفاده از این فناوری در پویانمایی شخصیت ها و یا در فیلم های دوبله شده باعث می شود لب زدن بازیگران حین بیان دیالوگ ها، بسیار طبیعی تر به نظر برسد.
آیا شما به دنبال کسب اطلاعات بیشتر در مورد "جعل در دنیای دیجیتال؛ چگونه دیپ فیک را تشخیص دهیم؟" هستید؟ با کلیک بر روی ورزشی، اگر به دنبال مطالب جالب و آموزنده هستید، ممکن است در این موضوع، مطالب مفید دیگری هم وجود داشته باشد. برای کشف آن ها، به دنبال دسته بندی های مرتبط بگردید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "جعل در دنیای دیجیتال؛ چگونه دیپ فیک را تشخیص دهیم؟"، کلیک کنید.