Перфектните фалшиви видеоклипове ще бъдат разпознати от изкуствения интелект
Перфектните фалшиви видеоклипове ще бъдат разпознати от изкуствения интелект

Видео: Перфектните фалшиви видеоклипове ще бъдат разпознати от изкуствения интелект

Видео: Перфектните фалшиви видеоклипове ще бъдат разпознати от изкуствения интелект
Видео: Такую 🧡"конфетку" надо вязать! Джемпер богатым узором - YouTube 2024, Април
Anonim
Премиерата на операта за отравянето на Литвиненко започва в Англия
Премиерата на операта за отравянето на Литвиненко започва в Англия

Преди година Manish Agrawala от Станфорд помогна за разработването на технология за синхронизиране на устните, която позволи на видеоредакторите да променят думите на ораторите почти незабележимо. Инструментът може лесно да вмъква думи, които човек никога не е говорил, дори в средата на изречение, или да изтрива думите, които е казал. Всичко ще изглежда реалистично с просто око и дори на много компютърни системи.

Този инструмент направи много по-лесно да се поправят грешките без повторно заснемане на цели сцени, а също така адаптира телевизионни предавания или филми за различна аудитория на различни места. Но тази технология също създаде обезпокоителни нови възможности за трудно откриваеми фалшиви видеоклипове, с ясно намерение да изкриви истината. Например, скорошно републиканско видео използва по -груба техника за интервю с Джо Байдън.

Това лято Agrawala и колегите от Станфорд и Калифорнийския университет в Бъркли представиха подход, основан на изкуствен интелект, към технологията за синхронизиране на устните. Новата програма открива точно повече от 80 процента от фалшификатите, разпознавайки най -малките несъответствия между звуците на хората и формата на устата им.

Но Агравала, директор на Станфордския институт за иновации в медиите и професор по компютърни науки в Forest Baskett, който също е свързан със Станфордския институт за изкуствен интелект, ориентиран към човека, предупреждава, че няма дългосрочно техническо решение за дълбоките фалшификати.

Как работят фалшификатите

Има основателни причини за видео манипулиране. Например всеки, който снима измислено телевизионно шоу, филм или реклама, може да спести време и пари, като използва цифрови инструменти за коригиране на грешки или персонализиране на скриптове.

Проблемът възниква, когато тези инструменти умишлено се използват за разпространение на невярна информация. И много от техниките са невидими за обикновения зрител.

Много дълбоки фалшиви видеоклипове разчитат на размяна на лица, буквално наслагвайки лицето на един човек върху видеоклипа на друг човек. Но докато инструментите за смяна на лица могат да бъдат завладяващи, те са относително груби и обикновено оставят цифрови или визуални артефакти, които компютърът може да открие.

От друга страна, технологиите за синхронизиране на устните са по -малко видими и следователно са по -трудни за откриване. Те манипулират много по -малка част от изображението и след това синтезират движения на устните, които съвпадат точно с това как всъщност би се движила устата на човек, ако той или тя говори определени думи. Според Agrawal, като се имат предвид достатъчно образци от образа и гласа на човек, фалшивият продуцент може да накара човек да „каже“всичко.

Откриване на фалшификати

Загрижен за неетичното използване на такава технология, Агравала работи с Охад Фрид, докторант в Станфорд, за разработване на инструмент за откриване; Хани Фарид, професор в Калифорнийския университет, Информационно училище в Бъркли; и Шрути Агарвал, докторант в Бъркли.

Първоначално изследователите експериментираха с чисто ръчна техника, при която наблюдателите изучаваха видеозаписи. Работи добре, но на практика беше трудоемък и отнемаше много време.

След това изследователите тестваха невронна мрежа, базирана на изкуствен интелект, която би била много по-бърза да направи същия анализ след обучение по видео с бившия президент Барак Обама. Невронната мрежа откри повече от 90 процента от собствената синхронизация на устните на Обама, въпреки че точността за други оратори спадна до около 81 процента.

Истински тест за истината

Изследователите казват, че техният подход е само част от играта на котка и мишка. С подобряването на техниките за дълбоко фалшифициране те ще оставят още по -малко ключове.

В крайна сметка, казва Агравала, истинският проблем е не толкова борбата с дълбоко фалшиви видеоклипове, колкото борбата с дезинформацията. Всъщност, отбелязва той, голяма част от дезинформацията произтича от изкривяване на смисъла на това, което хората всъщност са казали.

„За да намалим дезинформацията, трябва да подобрим медийната грамотност и да разработим системи за отчетност“, казва той. "Това може да означава закони, забраняващи умишленото производство на дезинформация и последиците от тяхното нарушаване, както и механизми за премахване на произтичащата вреда."

Препоръчано: