سبد خرید
0

سبد خرید شما خالی است.

حساب کاربری

یا

حداقل 8 کاراکتر

41139021

با ما در تماس باشید

استریم جعلی Nvidia GTC با دیپ‌فیک Jensen Huang بیش از ۱۰۰ هزار بازدید جذب کرد

زمان مطالعه : 7 دقیقهنویسنده :
تاریخ انتشار : 7 آبان 1404

لایک0

اشتراک

دیپ‌فیک Jensen Huang در استریم جعلی Nvidia GTC بیش از ۱۰۰ هزار بازدید گرفت؛ کلاهبرداری کریپتویی با هوش مصنوعی!

در یک اتفاق بحث‌برانگیز و نگران‌کننده در دنیای تکنولوژی، استریم جعلی‌ای از کنفرانس Nvidia GTC 2025 در YouTube منتشر شد که در آن از یک دیپ‌فیک (Deepfake) از Jensen Huang (مدیرعامل Nvidia) استفاده شده بود. این ویدئو با هدف انجام یک کلاهبرداری کریپتویی (Crypto Scam) ساخته شده بود و توانست بیش از ۱۰۰ هزار بازدید جذب کند — عددی که پنج برابر بیشتر از بازدید پخش واقعی کنفرانس رسمی Nvidia بود!

نحوه شکل‌گیری استریم جعلی

این استریم جعلی ظاهری کاملاً مشابه رویداد رسمی GTC Keynote داشت و در عنوان و تصاویر اولیه خود از لوگوهای رسمی Nvidia و حتی محیط مشابه مجازی طراحی‌شده با ابزارهای CGI استفاده می‌کرد. در ویدئو، شخصیت جعلی Jensen Huang با استفاده از مدل‌های یادگیری عمیق و الگوریتم‌های generative AI صحبت می‌کرد و از کاربران می‌خواست برای دریافت جوایز کریپتویی در لینک‌های خاص ثبت‌نام کنند. بسیاری از کاربران با دیدن چهره و صدای طبیعی‌سازی‌شده این مدل دیپ‌فیک متوجه جعلی بودن آن نشدند.

سیستم دیپ‌فیک و قدرت GPUها

کارشناسان معتقدند که ساخت چنین ویدئویی نیازمند سیستم‌های مبتنی بر GPUهای رده‌بالا مانند RTX 4090 یا سرورهای آموزشی دارای A100 بوده است. رندر چهره و حرکات لب Jensen Huang به‌صورت لحظه‌ای با استفاده از شبکه‌های عصبی مدل GAN انجام شد. این اتفاق نشان‌دهنده قدرت حیرت‌انگیز هوش مصنوعی در رندرینگ و مدل‌سازی و البته خطرات جدید آن در حوزه‌ی جعل دیجیتال است.

پاسخ Nvidia و حذف ویدئو از YouTube

در پی گزارش‌های کاربران، YouTube این ویدئو را به‌سرعت از شبکه خود حذف کرد، اما این استریم حتی برای مدتی کوتاه در بالای نتایج جستجوی «Nvidia GTC Live» ظاهر شده بود و به همین دلیل توانست بازدید بالایی جذب کند. Nvidia نیز در بیانیه‌ای هشدار داد که محتوای رسمی این شرکت تنها از طریق کانال رسمی YouTube و وب‌سایت Nvidia GTC منتشر می‌شود.

نگرانی‌ها درباره امنیت محتوای دیجیتال و دیپ‌فیک‌ها

حمله‌ی اخیر نشان می‌دهد که حتی برندهای بزرگ حوزه سخت‌افزار و گیمینگ نیز از خطرات فزاینده‌ی جعل دیجیتال در امان نیستند. تکنولوژی دیپ‌فیک‌ها هر روز پیچیده‌تر می‌شود و تفکیک واقعیت از جعل برای کاربران دشوارتر. بسیاری از متخصصان پیشنهاد کرده‌اند که برای جلوگیری از چنین حملاتی، سیستم‌های تأیید محتوای ویدئویی مبتنی بر بلاک‌چین یا دیجیتال واترمارک در رندرینگ مورد استفاده قرار گیرند.

این حادثه همچنین یادآور قدرت دوگانه‌ی GPUها و الگوریتم‌های AI-generation است؛ همان ابزارهایی که برای تولید فیلم‌های واقع‌گرایانه، طراحی محیط بازی‌های AAA و مدل‌سازی سه‌بعدی در نرم‌افزارهایی مثل Unreal Engine یا Blender به کار می‌روند، می‌توانند در دست افراد سودجو به ابزارهای جعل حرفه‌ای بدل شوند.

 
ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

مقایسه محصولات

0 محصول

مقایسه محصول
مقایسه محصول
مقایسه محصول
مقایسه محصول