19/05/2020

Deepfakes – nie daj się oszukać technologii wideo

Rosną obawy związane z deepfakes, czyli nagraniami stworzonymi przez sztuczną inteligencję, w których zazwyczaj twarz jednej osoby jest nałożona na inna postać. Rozwój technologii przyniósł w tym obszarze medium, którego potencjał jest przerażający. Przykładem jest pokazowy „wywiad” z Vladimirem Putinem. Wideo prezentuje jedynie możliwości wykorzystania tej technologii, a konwencja rozmowy pozwala gołym okiem ocenić, że nie jest to prawdziwy wywiad. Nietrudno sobie jednak wyobrazić, jak techniki deepfakes będą się rozwijać i że mogą być użyte w złych zamiarach, które prowadzą do poważnych naruszeń.

Ocena prawdziwości informacji staje się swoistym obowiązkiem. Trzeba zwiększyć czujność już teraz i wyrobić nawyk uważnego przyglądania się także materiałom wideo. Niedługo technologia deepfakes może być na tyle doskonała, że fałsz informacji będzie mogła „dostrzec” jedynie inna technologia.

Deepfakes

Poniżej dekonspiracja deepfake z przykładami 5 niedociągnięć technologii:

1. Różnice w rozdzielczości obrazu między twarzą lub sylwetką a resztą nagrania
Filmy źródłowe często mają lepszą jakość niż docelowy plik, co może dawać dziwny efekt, w którym twarz jest w bardzo dobrej rozdzielczości, a tło w wyraźnie gorszej. Można to zobaczyć w filmiku: Steve Buscemi / Jennifer Lawrence, który stał się bardzo popularny. Widać tu wyraźne rozmycie tła ze Złotych Globów w porównaniu do bardzo żywego obrazu twarzy.

2. „Rozmazany” widok przedmiotów lub mało płynny ruch
Takie efekty są często skutkiem deepfake w ujęciach, w których twarz jest zasłonięta lub pod ostrym kątem do widza. Widoczne jest to na nagraniu, w którym Jim Carrey jest podstawiony w postać graną przez Jacka Nicholsona w „Lśnieniu”. Brak płynności ruchu wyraźnie widać w scenie z kwestią: „Here’s Johnny!”.

3. Niekonsekwentnie skalowane twarze
Deepfake z ujęciami kamery pod wieloma kątami, może nie radzić sobie ze skalowaniem twarzy i przekształcaniem jej tak, aby uzyskać odpowiednią – wiarygodną wielkość we wszystkich scenach. Przykładem tego problemu może być wideo: Sylvester Stallone Terminator 2.

4. Zmienny obrys twarzy i sylwetki
Jeśli krawędzie twarzy na obrazie (jak broda, brwi, kości policzkowe), a także cechy charakterystyczne (jak zarost, zmarszczki czy znamiona), zmieniają się w trakcie filmu, możemy mieć do czynienia z deepfake. Takie „niekonsekwencje” ze zmianami w linii kości policzkowych i szczęki można zaobserwować w wideo Bill Hader/Tom Cruise.

5. Różne odcienie skóry i „świecącą się” cera
Dopasowywanie odcienia skóry i ruchów twarzy, szczególnie na granicach obrazu jest ciągle jeszcze dla deepfake trudne, podobnie jak charakterystyczny połysk cery. Ten przykład dobrze widać w nagraniu: Jim Carrey / Alison Brie.

Jarrod Overson, Principal Technical Evangelist, F5 Networks

Udostępnij ten artykuł...

Rosyjskie filmy w CDA Premium warte polecenia

CDA Premium przygotowało zestawienie czerwcowych nowości filmowych, których wspólnym mianownikiem jest kraj produkcji: Rosja. Trzeba przyznać, że rosyjska kinematografia to nie tylko stare klasyki, ale też prężnie działający współcześnie przemysł filmowy, z którego chętnie korzystają platformy VOD na całym świecie. Na co zwrócić uwagę w propozycji CDA Premium? Udostępnij ten artykuł…

Udostępnij ten artykuł...

Wirtualna rzeczywistość wciąż czeka na swój wielki przełom

Choć coraz częściej wykorzystywana w domach oraz przedsiębiorstwach, wirtualna rzeczywistość nadal pozostaje na uboczu. Ostatnie miesiące pokazały jednak, że nowe technologie to przyszłość wielu branż, a VR może być jednym z ciekawszych rozwiązań. Najlepsze zestawy oparte o headsety i rękawiczki pozwalają na pełną interakcję z trójwymiarowym otoczeniem, a to można wykorzystać na niezliczoną ilość sposobów. […]

Udostępnij ten artykuł...

SIM swapping – zagrożenie dla konta bankowego

SIM swapping, czyli przejęcie karty SIM i oszustwa z tym związane, to przestępstwa, o których często słyszymy, lecz uważamy, że nas nie dotyczą. – To realne i zyskujące na sile zagrożenie. Każdy, kto udostępnia dane w mediach społecznościowych, może być narażony na takie ataki. – przestrzegają eksperci ds. cyberbezpieczeństwa ESET. SIM swapping – jakie mogą […]

Udostępnij ten artykuł...