Mükəmməl saxta videolar süni intellektlə tanınacaq
Mükəmməl saxta videolar süni intellektlə tanınacaq

Video: Mükəmməl saxta videolar süni intellektlə tanınacaq

Video: Mükəmməl saxta videolar süni intellektlə tanınacaq
Video: Домашние следки спицами. УЗОР "ПЛЕТЕНАЯ КОРЗИНА".Простые тапочки без швов на подошве. - YouTube 2024, Aprel
Anonim
Litvinenkonun zəhərlənməsi ilə bağlı operanın premyerası İngiltərədə başlayır
Litvinenkonun zəhərlənməsi ilə bağlı operanın premyerası İngiltərədə başlayır

Bir il əvvəl, Stanforddan Manish Agrawala, video redaktorlarının natiqlərin sözlərini demək olar ki, hiss olunmaz şəkildə dəyişdirməsinə imkan verən dodaq senkronizasiya texnologiyasının inkişafına kömək etdi. Alət, bir insanın heç danışmadığı sözləri, hətta cümlənin ortasına da asanlıqla daxil edə bilər və ya dediyi sözləri silə bilər. Çılpaq gözlə və hətta bir çox kompüter sistemində hər şey real görünəcək.

Bu alət bütün səhnələri yenidən çəkmədən səhvləri düzəltməyi xeyli asanlaşdırdı və eyni zamanda fərqli yerlərdə fərqli tamaşaçılar üçün TV şoularını və ya filmləri uyğunlaşdırdı. Ancaq bu texnologiya, həqiqəti təhrif etmək niyyəti ilə, tapılması çətin olan saxta videolar üçün də narahat edici yeni imkanlar yaratdı. Məsələn, bu yaxınlarda respublikaçıların çəkdiyi bir video Joe Biden ilə müsahibə üçün daha kobud bir texnikadan istifadə etdi.

Bu yay Agrawala və Stanford və UC Berkeleydəki həmkarları dodaq senkronizasyonu texnologiyasına süni intellektə əsaslanan bir yanaşma təqdim etdilər. Yeni proqram, insanların səsləri ilə ağızlarının forması arasındakı ən kiçik uyğunsuzluqları tanıyaraq, saxtakarlıqların yüzdə 80 -dən çoxunu dəqiq şəkildə algılar.

Lakin Stanford Media İnnovasiya İnstitutunun direktoru və eyni zamanda Stanford İnsan Mərkəzli Süni Zəka İnstitutu ilə əlaqəli olan Forest Baskett kompüter elmləri professoru Agrawala, dərin saxtakarlıqların uzunmüddətli texniki həllinin olmadığını xəbərdar edir.

Saxta necə işləyir

Video manipulyasiyasının qanuni səbəbləri var. Məsələn, uydurma bir televiziya şousu, film və ya reklam filmi çəkən hər kəs səhvləri düzəltmək və ya skriptləri fərdiləşdirmək üçün rəqəmsal vasitələrdən istifadə edərək vaxta və pula qənaət edə bilər.

Bu vasitələr bilərəkdən yalan məlumat yaymaq üçün istifadə edildikdə problem yaranır. Və bir çox texnika adi bir tamaşaçı üçün görünməzdir.

Bir çox dərin saxta video, sözün əsl mənasında bir şəxsin üzünü başqa birinin videosunun üstünə qoyaraq, üz dəyişdirmə üsullarından istifadə edir. Ancaq üz dəyişdirmə vasitələri cəlbedici olsa da, nisbətən kobuddur və ümumiyyətlə kompüterin aşkar edə biləcəyi rəqəmsal və ya vizual əsərlər buraxır.

Digər tərəfdən, dodaq sinxronlaşdırma texnologiyaları daha az görünür və buna görə də aşkarlanması daha çətindir. Görüntünün daha kiçik bir hissəsini manipulyasiya edir və sonra müəyyən sözlər söyləsə, insanın ağzının necə hərəkət edəcəyinə tam uyğun gələn dodaq hərəkətlərini sintez edirlər. Agrawal -a görə, bir insanın imicinə və səsinə kifayət qədər nümunə verildikdə, saxta prodüser insanı hər şeyi "söyləməyə" məcbur edə bilər.

Saxta aşkarlama

Bu cür texnologiyanın qeyri -etik istifadəsindən narahat olan Agrawala, aşkarlama vasitəsi hazırlamaq üçün Stanfordda doktorant olan Ohad Freed ilə birlikdə çalışdı; Hani Fərid, Kaliforniya Universiteti, Berkeley İnformasiya Məktəbinin professoru; və Berkeleydə doktorant olan Shruti Agarwal.

Əvvəlcə tədqiqatçılar müşahidəçilərin video görüntüləri öyrəndikləri sırf əl üsulu ilə təcrübə apardılar. Yaxşı işləyirdi, amma praktikada çox zəhmətli və vaxt aparırdı.

Tədqiqatçılar daha sonra keçmiş prezident Barak Obama ilə video üzərində məşq etdikdən sonra eyni analizi daha sürətli edəcək süni intellektə əsaslanan sinir şəbəkəsini sınadılar. Sinir şəbəkəsi Obamanın öz dodaq senkronizasyonunun 90 faizindən çoxunu aşkar etdi, digər spikerlərin dəqiqliyi təxminən 81 faizə düşdü.

Həqiqətin əsl sınağı

Tədqiqatçılar, yanaşmalarının yalnız pişik və siçan oyununun bir hissəsi olduğunu söyləyirlər. Dərin saxtakarlıq texnikaları inkişaf etdikcə daha da az açar buraxacaqlar.

Nəticədə, Agrawala deyir ki, əsl problem, saxta videolar ilə mübarizə deyil, dezinformasiya ilə mübarizədir. Əslində, yanlış məlumatların çoxunun insanların əslində söylədiklərinin mənasını təhrif etməsindən qaynaqlandığını qeyd edir.

"Yanlış məlumatları azaltmaq üçün media savadlılığını artırmalı və hesabatlılıq sistemlərini inkişaf etdirməliyik" deyir. "Bu, bilərəkdən yalan məlumatların verilməsini və onların pozulmasının nəticələrini qadağan edən qanunlar, habelə yaranan zərərin aradan qaldırılması mexanizmləri ola bilər."

Tövsiyə: