دیپفیک Jensen Huang در استریم جعلی Nvidia GTC بیش از ۱۰۰ هزار بازدید گرفت؛ کلاهبرداری کریپتویی با هوش مصنوعی!
در یک اتفاق بحثبرانگیز و نگرانکننده در دنیای تکنولوژی، استریم جعلیای از کنفرانس Nvidia GTC 2025 در YouTube منتشر شد که در آن از یک دیپفیک (Deepfake) از Jensen Huang (مدیرعامل Nvidia) استفاده شده بود. این ویدئو با هدف انجام یک کلاهبرداری کریپتویی (Crypto Scam) ساخته شده بود و توانست بیش از ۱۰۰ هزار بازدید جذب کند — عددی که پنج برابر بیشتر از بازدید پخش واقعی کنفرانس رسمی Nvidia بود!
نحوه شکلگیری استریم جعلی
این استریم جعلی ظاهری کاملاً مشابه رویداد رسمی GTC Keynote داشت و در عنوان و تصاویر اولیه خود از لوگوهای رسمی Nvidia و حتی محیط مشابه مجازی طراحیشده با ابزارهای CGI استفاده میکرد. در ویدئو، شخصیت جعلی Jensen Huang با استفاده از مدلهای یادگیری عمیق و الگوریتمهای generative AI صحبت میکرد و از کاربران میخواست برای دریافت جوایز کریپتویی در لینکهای خاص ثبتنام کنند. بسیاری از کاربران با دیدن چهره و صدای طبیعیسازیشده این مدل دیپفیک متوجه جعلی بودن آن نشدند.

سیستم دیپفیک و قدرت GPUها
کارشناسان معتقدند که ساخت چنین ویدئویی نیازمند سیستمهای مبتنی بر GPUهای ردهبالا مانند RTX 4090 یا سرورهای آموزشی دارای A100 بوده است. رندر چهره و حرکات لب Jensen Huang بهصورت لحظهای با استفاده از شبکههای عصبی مدل GAN انجام شد. این اتفاق نشاندهنده قدرت حیرتانگیز هوش مصنوعی در رندرینگ و مدلسازی و البته خطرات جدید آن در حوزهی جعل دیجیتال است.
پاسخ Nvidia و حذف ویدئو از YouTube
در پی گزارشهای کاربران، YouTube این ویدئو را بهسرعت از شبکه خود حذف کرد، اما این استریم حتی برای مدتی کوتاه در بالای نتایج جستجوی «Nvidia GTC Live» ظاهر شده بود و به همین دلیل توانست بازدید بالایی جذب کند. Nvidia نیز در بیانیهای هشدار داد که محتوای رسمی این شرکت تنها از طریق کانال رسمی YouTube و وبسایت Nvidia GTC منتشر میشود.
نگرانیها درباره امنیت محتوای دیجیتال و دیپفیکها
حملهی اخیر نشان میدهد که حتی برندهای بزرگ حوزه سختافزار و گیمینگ نیز از خطرات فزایندهی جعل دیجیتال در امان نیستند. تکنولوژی دیپفیکها هر روز پیچیدهتر میشود و تفکیک واقعیت از جعل برای کاربران دشوارتر. بسیاری از متخصصان پیشنهاد کردهاند که برای جلوگیری از چنین حملاتی، سیستمهای تأیید محتوای ویدئویی مبتنی بر بلاکچین یا دیجیتال واترمارک در رندرینگ مورد استفاده قرار گیرند.
این حادثه همچنین یادآور قدرت دوگانهی GPUها و الگوریتمهای AI-generation است؛ همان ابزارهایی که برای تولید فیلمهای واقعگرایانه، طراحی محیط بازیهای AAA و مدلسازی سهبعدی در نرمافزارهایی مثل Unreal Engine یا Blender به کار میروند، میتوانند در دست افراد سودجو به ابزارهای جعل حرفهای بدل شوند.





