Przyszłość AI Deepfake: 3 prawdziwe zagrożenia związane z tą ewoluującą technologią

Przyszłość AI Deepfake: 3 prawdziwe zagrożenia związane z tą ewoluującą technologią
Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

Znamienne oznaki deepfake obrazu były kiedyś łatwe do wykrycia, ale generatywna sztuczna inteligencja każe nam kwestionować prawie wszystko, co widzimy i słyszymy teraz. Z każdym nowym modelem sztucznej inteligencji, który zostaje wydany, znaki ostrzegawcze fałszywego obrazu maleją, a aby zwiększyć zamieszanie, możesz teraz tworzyć głębokie fałszywe filmy, klony głosowe swoich bliskich i fabrykować fałszywe artykuły w zaledwie kilka sekund.





WYKORZYSTAJ WIDEO DNIA PRZEWIŃ, ABY KONTYNUOWAĆ TREŚĆ

Aby nie dać się zwieść deepfake’om AI, warto wiedzieć, jakie stwarzają zagrożenia.





Ewolucja deepfake'ów

Deepfake pokazuje osobę robiącą coś, co nigdy nie zdarzyło się w prawdziwym życiu. To całkowicie fałszywe. Śmiejemy się z deepfake'ów, gdy są udostępniane w Internecie jako memy lub żarty, ale bardzo niewielu ludzi uważa to za zabawne, gdy są wykorzystywane do wprowadzania nas w błąd.





W przeszłości deepfake'i były tworzone poprzez zrobienie istniejącego zdjęcia i zmianę go w oprogramowaniu do edycji obrazu, takim jak Photoshop. Ale tym, co wyróżnia deepfake AI, jest to, że można go wygenerować od podstaw przy użyciu algorytmów głębokiego uczenia.

The Słownik Merriama-Webstera definiuje deepfake jako:



Obraz lub nagranie, które zostały w przekonujący sposób zmienione i zmanipulowane w celu fałszywego przedstawienia kogoś jako osoby robiącej lub mówiącej coś, co w rzeczywistości nie zostało zrobione ani powiedziane.

Ale wraz z postępem technologii sztucznej inteligencji ta definicja zaczyna wyglądać na przestarzałą. Korzystając z narzędzi sztucznej inteligencji, deepfake obejmuje teraz obrazy, tekst, filmy i klonowanie głosu. Czasami wszystkie cztery tryby generowania AI są używane jednocześnie.





jak korzystać z kodów Netflix

Ponieważ jest to zautomatyzowany proces, który jest niewiarygodnie szybki i tani w użyciu, jest to idealne narzędzie do tworzenia głębokich podróbek w tempie, jakiego nigdy wcześniej nie widzieliśmy – a wszystko to bez konieczności posiadania jakiejkolwiek wiedzy na temat edytowania zdjęć, filmów lub dźwięku .

Wielkie niebezpieczeństwa AI Deepfake

Gospodarz Generatory wideo AI już istnieją, obok wielu Generatory głosu AI . Wrzuć A duży model językowy, taki jak GPT-4 i masz przepis na stworzenie najbardziej wiarygodnych deepfake'ów, jakie widzieliśmy do tej pory we współczesnej historii.





Świadomość różnych rodzajów deepfake'ów sztucznej inteligencji oraz tego, jak można je wykorzystać do oszukania, jest jednym ze sposobów uniknięcia wprowadzenia w błąd. Oto tylko kilka poważnych przykładów tego, jak technologia AI deepfake stanowi realne zagrożenie.

1. Kradzież tożsamości AI

Być może je widziałeś. Wśród pierwszych prawdziwie wirusowych deepfake AI, które rozeszły się po całym świecie, był obraz aresztowania Donalda Trumpa i jeden z papieżem Franciszkiem w białej puchowej kurtce.

  Wygenerowany przez sztuczną inteligencję obraz papieża Franciszka w puchowej kurtce, opublikowany na forum Midjourney w serwisie Reddit.

Chociaż wydaje się, że niewinne wyobrażenie sobie tego, co słynna postać religijna mogłaby założyć na siebie w chłodny dzień w Rzymie; drugi obraz, przedstawiający postać polityczną w poważnej sytuacji z prawem, ma znacznie większe konsekwencje, jeśli jest prawdziwy.

Do tej pory ludzie obierali za cel głównie celebrytów, polityków i inne znane osoby podczas tworzenia deepfake AI. Po części dzieje się tak dlatego, że znane osoby mają mnóstwo ich zdjęć w Internecie, co prawdopodobnie pomogło w szkoleniu modelu.

W przypadku generatora obrazów AI, takiego jak Midjourney – używanego zarówno w deepfake’u Trumpa, jak i Papieża – użytkownik musi po prostu wprowadzić tekst opisujący to, co chce zobaczyć. Za pomocą słów kluczowych można określić styl graficzny, taki jak zdjęcie lub fotorealizm, a wyniki można dopracować, zwiększając rozdzielczość.

Możesz równie łatwo naucz się korzystać z Midjourney i przetestuj to sam, ale z oczywistych powodów moralnych i prawnych powinieneś unikać publicznego publikowania tych zdjęć.

Niestety bycie przeciętnym, niesławnym człowiekiem również nie gwarantuje, że jesteś bezpieczny przed deepfake'ami sztucznej inteligencji.

Problem polega na kluczowej funkcji oferowanej przez generatory obrazów AI: możliwość przesyłania własnego obrazu i manipulowania nim za pomocą sztucznej inteligencji. I narzędzie jak Przemalowanie w DALL-E 2 może rozszerzyć istniejący obraz poza jego granice, wprowadzając monit tekstowy i opisując, co jeszcze chcesz wygenerować.

Gdyby ktoś inny zrobił to z twoimi zdjęciami, niebezpieczeństwa mogłyby być znacznie większe niż deepfake papieża w białej kurtce – mogą go używać wszędzie, podszywając się pod ciebie. Podczas gdy większość ludzi na ogół używa sztucznej inteligencji w dobrych intencjach, istnieje bardzo niewiele ograniczeń powstrzymujących ludzi przed używaniem jej do wyrządzania szkód, zwłaszcza w przypadku kradzieży tożsamości.

2. Oszustwa związane z Deepfake Voice Clone

Z pomocą sztucznej inteligencji deepfake'i przekroczyły granicę, na którą większość z nas nie była przygotowana: fałszywe klony głosowe. Dzięki niewielkiej ilości oryginalnego dźwięku — na przykład z opublikowanego kiedyś filmu TikTok lub filmu na YouTube, w którym się pojawiasz — model sztucznej inteligencji może odtworzyć Twój jedyny w swoim rodzaju głos.

jak przenieść gotówkę jabłkową do banku?

To zarówno niesamowite, jak i przerażające wyobrazić sobie odbieranie telefonu, który brzmi jak członek rodziny, przyjaciel lub kolega. Klony głosowe Deepfake są na tyle poważnym problemem, że Federalna Komisja Handlu (FTC) wydał w tej sprawie ostrzeżenie.

Nie ufaj głosowi. Zadzwoń do osoby, która rzekomo się z Tobą kontaktowała i zweryfikuj historię. Użyj numeru telefonu, o którym wiesz, że należy do nich. Jeśli nie możesz skontaktować się z ukochaną osobą, spróbuj skontaktować się z nią za pośrednictwem innego członka rodziny lub jej przyjaciół.

— poinformował „Washington Post”. przypadek pary po siedemdziesiątce, która odebrała telefon od kogoś, kto brzmiał jak ich wnuk. Był w więzieniu i pilnie potrzebował pieniędzy na kaucję. Nie mając innego powodu, by wątpić, z kim rozmawiają, poszli dalej i przekazali pieniądze oszustowi.

Zagrożone jest nie tylko starsze pokolenie, — poinformował Guardian kolejny przykład kierownika banku, który zatwierdził transakcję o wartości 35 milionów dolarów po serii „głęboko sfałszowanych telefonów” od kogoś, kogo uważali za dyrektora banku.

3. Fałszywe wiadomości produkowane masowo

Duże modele językowe, np ChatGPT są bardzo, bardzo dobrzy w tworzeniu tekstu, który brzmi jak ludzki, a obecnie nie mamy skutecznych narzędzi do wykrycia różnicy. W niepowołanych rękach fałszywe wiadomości i teorie spiskowe będą tanie w produkcji, a ich obalenie zajmie więcej czasu.

Rozpowszechnianie dezinformacji nie jest oczywiście niczym nowym, ale artykułem naukowym opublikowane na arXiv w styczniu 2023 r. wyjaśnia, że ​​problem leży w łatwości skalowania wyników za pomocą narzędzi AI. Nazywają to „kampaniami wpływu generowanymi przez sztuczną inteligencję”, które, jak twierdzą, mogą być wykorzystywane na przykład przez polityków do zlecania ich kampanii politycznych na zewnątrz.

Połączenie więcej niż jednego źródła wygenerowanego przez sztuczną inteligencję tworzy deepfake wysokiego poziomu. Na przykład model sztucznej inteligencji może wygenerować dobrze napisaną i przekonującą wiadomość, która będzie pasować do fałszywego obrazu aresztowania Donalda Trumpa. Daje to większą legitymację niż gdyby obraz był udostępniany samodzielnie.

Fałszywe wiadomości nie ograniczają się również do obrazów i tekstów, rozwój generowania wideo AI oznacza, że ​​pojawia się coraz więcej fałszywych filmów. Oto jeden z Roberta Downeya Jr. wszczepiony w wideo Elona Muska, opublikowane przez Kanał YouTube Deepfakery.

Stworzenie deepfake'a może być tak proste, jak pobranie aplikacji. Możesz użyć aplikacji np TokkingHeads do przekształcania nieruchomych obrazów w animowane awatary , która pozwala przesłać własny obraz i dźwięk, aby wyglądało na to, że dana osoba mówi.

W przeważającej części jest to zabawne i zabawne, ale istnieje również potencjał kłopotów. Pokazuje nam, jak łatwo jest użyć czyjegoś wizerunku, aby wyglądało na to, że ta osoba wypowiedziała słowa, których nigdy nie wypowiedziała.

Nie daj się nabrać na sztuczną inteligencję Deepfake

Deepfake można szybko wdrożyć przy bardzo niskich kosztach i przy niskim poziomie wiedzy specjalistycznej lub wymaganej mocy obliczeniowej. Mogą przybrać kształt wygenerowanego obrazu, klonu głosu lub kombinacji obrazów, dźwięku i tekstu generowanych przez sztuczną inteligencję.

gdzie mogę użyć mojego kredytu PayPal?

Kiedyś tworzenie deepfake'ów było dużo trudniejsze i bardziej pracochłonne, ale teraz, przy dużej liczbie aplikacji AI, prawie każdy ma dostęp do narzędzi używanych do tworzenia deepfake'ów. W miarę jak technologia deepfake sztucznej inteligencji staje się coraz bardziej zaawansowana, warto bacznie obserwować zagrożenia, jakie stwarza.