هشدار درباره تأثیرات ابزار جدید هوش مصنوعی گوگلVeo 3 بر اعتماد عمومی

در پی معرفی ابزار پیشرفته تولید ویدیو با هوش مصنوعی شرکت گوگل موسوم به «Veo 3»، نگرانیها درباره صحت و اعتبار محتوای ویدیویی در فضای رسانهای به طرز بیسابقهای افزایش یافته است. این ابزار که هفته گذشته در کنفرانس Google I/O رونمایی شد، قادر است ویدیوهایی با کیفیت بالا، دیالوگهای همزمان، افکتهای صوتی، موسیقی متن و حرکات فیزیکی طبیعی تولید کند؛ به گونهای که تشخیص جعلی بودن آنها برای عموم تقریباً غیرممکن شده است.
به گزارش شبکه خبری سی بی سی کانادا، این رسانه برای آزمایش قابلیتهای Veo 3، یک ویدیوی خبری جعلی تولید کرد. در این ویدیو، گویندهای حرفهای و نگران گزارش میدهد که «آتشسوزی سریعی بهسوی شهری در آلبرتا در حال حرکت است.» این ویدیو در کمتر از پنج دقیقه بر اساس یک فرمان متنی ساخته شد. با اینکه شهر مورد نظر ساختگی بود تا از گمراهی عمومی جلوگیری شود، اما شباهت ویدیو به گزارشهای واقعی بسیار بالا بود.
از جمله جزئیات شگفتانگیز این ویدیو میتوان به تطابق دقیق حرکات لب گوینده با صدا، تنفس قابل شنیدن پیش از شروع صحبت و حتی صدای طبیعی برخورد لبها اشاره کرد. نقشهای که در پسزمینه نمایش داده میشود نیز حاکی از مکان فرضی آتشسوزی در مرکز کانادا، نزدیک به استان آلبرتا است.
نگرانی متخصصان رسانه و اخلاق
آنجلا میسری، استادیار روزنامهنگاری در دانشگاه متروپولیتن تورنتو، با ابراز نگرانی درباره توانایی فزاینده هوش مصنوعی در تولید واقعیتهای جعلی، هشدار داد: «اگر نتوانیم به چشم و گوش خود اعتماد کنیم، وارد فضایی نگرانکننده خواهیم شد.» وی افزود حتی اگر آگاهی عمومی نسبت به سواد رسانهای افزایش یابد، باز هم خطر از بین رفتن مرز میان واقعیت و جعل وجود دارد.
آناتولی گروزد، مدیر تحقیقات آزمایشگاه رسانههای اجتماعی در همان دانشگاه، نیز تصریح کرد که اعتماد عمومی به اسناد ویدیویی بهسرعت در حال کاهش است، امری که میتواند پیامدهایی جدی برای حوزههایی چون روزنامهنگاری، سیاست و نظام قضایی داشته باشد.
افزایش بیاعتمادی عمومی
بر اساس پژوهشی از آزمایشگاه رسانههای اجتماعی دانشگاه TMU، حدود دو سوم از کاناداییها تاکنون حداقل یکبار از ابزارهای هوش مصنوعی تولید محتوا استفاده کردهاند. همچنین ۵۹ درصد از پاسخدهندگان اظهار داشتند که به دلیل نگرانی از محتوای جعلی، دیگر به اخبار سیاسی آنلاین اعتماد ندارند.
موارد متعددی از استفاده از ویدیوهای جعلی برای اهداف سیاسی در کانادا و ایالات متحده گزارش شده است. از جمله در ژانویه ۲۰۲۴، یک فایل صوتی جعلی از رئیسجمهور وقت آمریکا، جو بایدن، برای رأیدهندگان ارسال شد. همچنین نهادهای اطلاعاتی کانادا در سال گذشته هشدار دادند که بازیگران مخرب از هوش مصنوعی برای تأثیرگذاری بر انتخابات استفاده خواهند کرد.
نقض قوانین با استفاده از دور زدن محدودیتها
گرچه گوگل در سیاستهای خود استفاده از Veo 3 برای ایجاد محتوای غیرقانونی، خشونتآمیز یا مبتنی بر سوءاستفاده از چهره افراد بدون رضایت را ممنوع کرده، اما مسئولیت اصلی بر دوش کاربران است. CBC گزارش داده که در آزمایشهایی توانسته با وجود محدودیتها، ویدیوهایی تولید کند که ادعاهای نادرست را از زبان شخصیتهایی مانند شهردار خیالی کانادایی یا پزشک مخالف واکسیناسیون کودکان بازگو میکردند.
با اینکه گوگل تلاش کرده تولید محتوای مربوط به چهرههای مشهور را محدود کند، روزنامهنگاران سی بی سی توانستهاند با توصیفهای دقیق و چند مرحلهای، ویدیوهایی بسازند که شباهت زیادی به شخصیتهایی نظیر سلین دیون دارند، گرچه بهطور رسمی چهره این افراد بازسازی نشده است.
عدم امکان تشخیص واقعیت از جعل
در حالیکه برخی پلتفرمها اطلاعات متادیتا را در فایلهای تصویری برای تشخیص منبع حفظ میکنند، اما بسیاری از شبکههای اجتماعی این اطلاعات را هنگام بارگذاری حذف میکنند. در نتیجه، حتی اگر ویدیویی دارای نشانهای از تولید با هوش مصنوعی باشد، مخاطب نهایی در فضای آنلاین از این موضوع مطلع نخواهد شد.
دسترسی به ابزار Veo 3 از طریق اشتراک پولی Google AI Ultra فراهم است و در حال حاضر در بیش از ۷۰ کشور، از جمله کانادا، قابل استفاده است. به اعتقاد کارشناسان فناوری، این امر به معنای دموکراتیزه شدن تولید محتوای جعلی است؛ به طوریکه دیگر نیازی به استودیوهای هالیوودی با بودجههای چند میلیون دلاری برای تولید صحنههای ساختگی نیست.
ظهور ابزارهایی نظیر Veo 3 نقطه عطفی در تاریخ رسانهها و فناوری است؛ اما در عین حال، تهدیدی جدی برای حقیقت و اعتماد عمومی محسوب میشود. در دورانی که جعل واقعیت آسانتر از هر زمان دیگری شده است، مسئولیت رسانهها، نهادهای قانونگذار و شهروندان برای حفظ حقیقت سنگینتر از همیشه خواهد بود.