با فناوری جدید دیپ فیك

سلبریتی ها می توانند صدای خودرا لایسنس كنند!

سلبریتی ها می توانند صدای خودرا لایسنس كنند!

بی دانلود: یک تکنولوژی جدید ˮدیپ فیکˮ یا همان جعل عمیق به افراد مشهور اجازه می دهد صدای خودرا مجوز دار کنند.


به گزارش بی دانلود به نقل از ایسنا و به نقل از آی ای، با وجود نگرانی های فزاینده از این واقعیت که فناوری "دیپ فیک"(deepfake) یا "جعل عمیق" می تواند به شکل غیر قابل تصوری حقیقت را تغییر دهد، تعدادی از شرکتها هنوز هم تلاش می کنند آنرا بعنوان یک محصول خوب و مناسب برای مصرف کننده معرفی کنند.
یکی از این شرکتها "وریتون"(Veritone) نام دارد و بتازگی توضیح داده است که می خواهد افراد مشهور را قادر سازد تا صدای خودرا لایسن کنند و از این راه درآمد کسب کنند.
این برنامه جدید "دیپ فیک" که "مارول. ای آی"(Marvel.ai) نام دارد، اساساً مجوز دار کردن صدای افراد مشهور، سیاستمداران و مدیران عامل شرکت های مشهور را بطور خودکار انجام می دهد.
"وریتون" هفته گذشته از پلت فرم "Marvel.ai" رونمایی نمود و اظهار داشت: صدای مصنوعی آن به رسانه ها، برندها و اینفلوئنسرها کمک می نماید تا تولید محتوای خودرا تسریع و تقویت نمایند.
این شرکت که همین طور به سبب توسعه نخستین سیستم عامل هوش مصنوعی در جهان به نام "ای آی ور"(aiWare) شناخته شده است، می گوید که تکنولوژی جدید آن به چهره های سرشناس اجازه می دهد تا با رضایت خود، صدای خودرا برای انجام کارهای تجاری لایسنس کنند.
"وریتون" با این بستر جدید، خدمتی را در نظر دارد که به افراد تأثیرگذار و شخصیت های سرشناس اجازه می دهد بدون نیاز به قدم گذاشتن به داخل یک استودیوی ضبط یا یک مجموعه، میزان تولید محتوا و درآمدزایی خودرا بالا برند.
این پروسه جدید که به آن "شبیه سازی صدا" نیز گفته می شود، امکان تقلید دقیق صدای چهره های سرشناس شامل بازیگر، خواننده، سیاست مدار و اینفلوئنسرها را با بهره گیری از هوش مصنوعی فراهم می آورد.
"وریتون" توضیح داد: چهره های سرشناس با کنترل کامل بر صدای خود و میزان و نحوه استفاده از آن می توانند به مفهوم واقعی کلمه در یک لحظه در چند مکان باشند. این کار می تواند سطح جدیدی از کاربرد را فراهم آورد که قبلاً از نظر انسانی امکان پذیر نبود و به افراد مشهور امکان افزایش تعداد پروژه ها، حمایت های مالی و تأییدیه ها یا لایسنس هایی را که می توانند در هر سال بگیرند، می دهد.
البته تحولات و جنجال های فناوری "جعل عمیق" تا حالا همیشه وجود داشته است و احتمالاً همین مسئله در مورد پلت فرم جدید "وریتون" نیز وجود خواهد داشت. بنا بر این شرکتها و رسانه هایی نظیر توییتر، ادوبی و نیویورک تایمز اخیراً در کوشش برای پیش گیری از مشکلات فیلم های "جعل عمیق" گمراه کننده یک روش جهانی برای تأیید ویدئوها را پیشنهاد داده اند.
"رایان استیلبرگ" رئیس "وریتون" در مصاحبه ای با "ورج" اظهار داشت که این پلت فرم جدید می تواند برای تقلید صدای افراد سرشناسی که از دنیا رفته اند نیز کارایی داشته باشد و محتواهای جدید با صدای آنها ساخت.




منبع:

1400/02/28
21:51:34
0.0 / 5
157
این مطلب را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۷ بعلاوه ۴