تکنولوژیعلم و فناوریویدئو

هشدار درباره تأثیرات ابزار جدید هوش مصنوعی گوگلVeo 3 بر اعتماد عمومی

در پی معرفی ابزار پیشرفته تولید ویدیو با هوش مصنوعی شرکت گوگل موسوم به «Veo 3»، نگرانی‌ها درباره صحت و اعتبار محتوای ویدیویی در فضای رسانه‌ای به طرز بی‌سابقه‌ای افزایش یافته است. این ابزار که هفته گذشته در کنفرانس Google I/O رونمایی شد، قادر است ویدیوهایی با کیفیت بالا، دیالوگ‌های همزمان، افکت‌های صوتی، موسیقی متن و حرکات فیزیکی طبیعی تولید کند؛ به گونه‌ای که تشخیص جعلی بودن آن‌ها برای عموم تقریباً غیرممکن شده است.

به گزارش شبکه خبری سی بی سی کانادا، این رسانه برای آزمایش قابلیت‌های Veo 3، یک ویدیوی خبری جعلی تولید کرد. در این ویدیو، گوینده‌ای حرفه‌ای و نگران گزارش می‌دهد که «آتش‌سوزی سریعی به‌سوی شهری در آلبرتا در حال حرکت است.» این ویدیو در کمتر از پنج دقیقه بر اساس یک فرمان متنی ساخته شد. با اینکه شهر مورد نظر ساختگی بود تا از گمراهی عمومی جلوگیری شود، اما شباهت ویدیو به گزارش‌های واقعی بسیار بالا بود.

از جمله جزئیات شگفت‌انگیز این ویدیو می‌توان به تطابق دقیق حرکات لب گوینده با صدا، تنفس قابل شنیدن پیش از شروع صحبت و حتی صدای طبیعی برخورد لب‌ها اشاره کرد. نقشه‌ای که در پس‌زمینه نمایش داده می‌شود نیز حاکی از مکان فرضی آتش‌سوزی در مرکز کانادا، نزدیک به استان آلبرتا است.

نگرانی متخصصان رسانه و اخلاق

آنجلا میسری، استادیار روزنامه‌نگاری در دانشگاه متروپولیتن تورنتو، با ابراز نگرانی درباره توانایی فزاینده هوش مصنوعی در تولید واقعیت‌های جعلی، هشدار داد: «اگر نتوانیم به چشم و گوش خود اعتماد کنیم، وارد فضایی نگران‌کننده خواهیم شد.» وی افزود حتی اگر آگاهی عمومی نسبت به سواد رسانه‌ای افزایش یابد، باز هم خطر از بین رفتن مرز میان واقعیت و جعل وجود دارد.

آناتولی گروزد، مدیر تحقیقات آزمایشگاه رسانه‌های اجتماعی در همان دانشگاه، نیز تصریح کرد که اعتماد عمومی به اسناد ویدیویی به‌سرعت در حال کاهش است، امری که می‌تواند پیامدهایی جدی برای حوزه‌هایی چون روزنامه‌نگاری، سیاست و نظام قضایی داشته باشد.

افزایش بی‌اعتمادی عمومی

بر اساس پژوهشی از آزمایشگاه رسانه‌های اجتماعی دانشگاه TMU، حدود دو سوم از کانادایی‌ها تاکنون حداقل یک‌بار از ابزارهای هوش مصنوعی تولید محتوا استفاده کرده‌اند. همچنین ۵۹ درصد از پاسخ‌دهندگان اظهار داشتند که به دلیل نگرانی از محتوای جعلی، دیگر به اخبار سیاسی آنلاین اعتماد ندارند.

موارد متعددی از استفاده از ویدیوهای جعلی برای اهداف سیاسی در کانادا و ایالات متحده گزارش شده است. از جمله در ژانویه ۲۰۲۴، یک فایل صوتی جعلی از رئیس‌جمهور وقت آمریکا، جو بایدن، برای رأی‌دهندگان ارسال شد. همچنین نهادهای اطلاعاتی کانادا در سال گذشته هشدار دادند که بازیگران مخرب از هوش مصنوعی برای تأثیرگذاری بر انتخابات استفاده خواهند کرد.

نقض قوانین با استفاده از دور زدن محدودیت‌ها

گرچه گوگل در سیاست‌های خود استفاده از Veo 3 برای ایجاد محتوای غیرقانونی، خشونت‌آمیز یا مبتنی بر سوءاستفاده از چهره افراد بدون رضایت را ممنوع کرده، اما مسئولیت اصلی بر دوش کاربران است. CBC گزارش داده که در آزمایش‌هایی توانسته با وجود محدودیت‌ها، ویدیوهایی تولید کند که ادعاهای نادرست را از زبان شخصیت‌هایی مانند شهردار خیالی کانادایی یا پزشک مخالف واکسیناسیون کودکان بازگو می‌کردند.

با اینکه گوگل تلاش کرده تولید محتوای مربوط به چهره‌های مشهور را محدود کند، روزنامه‌نگاران سی بی سی توانسته‌اند با توصیف‌های دقیق و چند مرحله‌ای، ویدیوهایی بسازند که شباهت زیادی به شخصیت‌هایی نظیر سلین دیون دارند، گرچه به‌طور رسمی چهره این افراد بازسازی نشده است.

عدم امکان تشخیص واقعیت از جعل

در حالی‌که برخی پلتفرم‌ها اطلاعات متادیتا را در فایل‌های تصویری برای تشخیص منبع حفظ می‌کنند، اما بسیاری از شبکه‌های اجتماعی این اطلاعات را هنگام بارگذاری حذف می‌کنند. در نتیجه، حتی اگر ویدیویی دارای نشانه‌ای از تولید با هوش مصنوعی باشد، مخاطب نهایی در فضای آنلاین از این موضوع مطلع نخواهد شد.

دسترسی به ابزار Veo 3 از طریق اشتراک پولی Google AI Ultra فراهم است و در حال حاضر در بیش از ۷۰ کشور، از جمله کانادا، قابل استفاده است. به اعتقاد کارشناسان فناوری، این امر به معنای دموکراتیزه شدن تولید محتوای جعلی است؛ به طوری‌که دیگر نیازی به استودیوهای هالیوودی با بودجه‌های چند میلیون دلاری برای تولید صحنه‌های ساختگی نیست.

ظهور ابزارهایی نظیر Veo 3 نقطه عطفی در تاریخ رسانه‌ها و فناوری است؛ اما در عین حال، تهدیدی جدی برای حقیقت و اعتماد عمومی محسوب می‌شود. در دورانی که جعل واقعیت آسان‌تر از هر زمان دیگری شده است، مسئولیت رسانه‌ها، نهادهای قانون‌گذار و شهروندان برای حفظ حقیقت سنگین‌تر از همیشه خواهد بود.

مشاهده بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا