Wykrywacze treści AI nie działają, a to duży problem

Wykrywacze treści AI nie działają, a to duży problem
Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

Sztuczna inteligencja (AI) zmieni całe segmenty naszego społeczeństwa, czy nam się to podoba, czy nie, w tym sieć WWW.





Dzięki oprogramowaniu, takiemu jak ChatGPT, dostępnemu dla każdego, kto ma połączenie z Internetem, coraz trudniej jest oddzielić treści generowane przez sztuczną inteligencję od treści tworzonych przez człowieka. Dobrze, że mamy wykrywacze treści AI, prawda?





WYKORZYSTAJ WIDEO DNIA PRZEWIŃ, ABY KONTYNUOWAĆ TREŚĆ

Czy wykrywacze treści AI działają?

Wykrywacze treści AI to wyspecjalizowane narzędzia, które określają, czy coś zostało napisane przez program komputerowy, czy przez człowieka. Jeśli po prostu wpiszesz w Google słowa „wykrywacz treści AI”, zobaczysz są dziesiątki detektorów wszyscy twierdzą, że potrafią wiarygodnie rozróżnić tekst ludzki i inny niż ludzki.





Sposób, w jaki działają, jest dość prosty: wklejasz fragment pisma, a narzędzie mówi ci, czy został wygenerowany przez sztuczną inteligencję, czy nie. Mówiąc bardziej technicznie, wykorzystując kombinację technik przetwarzania języka naturalnego i algorytmów uczenia maszynowego, detektory treści AI szukają wzorców i przewidywalności oraz wykonują połączenia na tej podstawie.

Brzmi to świetnie na papierze, ale jeśli kiedykolwiek używałeś narzędzia do wykrywania sztucznej inteligencji, wiesz bardzo dobrze, że delikatnie mówiąc, są one trafione i chybione. Najczęściej wykrywają treści napisane przez ludzi jako sztuczną inteligencję lub tekst stworzony przez ludzi jako wygenerowany przez sztuczną inteligencję. W rzeczywistości niektórzy są żenująco źli w tym, co powinni robić.



Jak dokładne są detektory treści AI?

Jeśli jesteś w Stanach Zjednoczonych, pierwszym wynikiem wyszukiwania Google dla „wykrywacza treści AI” jest writer.com (wcześniej znany jako Qordoba; jest to platforma treści AI, która ma również własny detektor). Ale kiedy wkleisz sekcję tego losowego Associated Press artykuł do narzędzia, twierdzi, że istnieje bardzo duża szansa, że ​​został wygenerowany przez sztuczną inteligencję.

jak zmniejszyć zużycie pamięci w systemie Windows 10
  pisarz.com's AI content detector, screenshot

Więc, writer.com się myli.





Szczerze mówiąc, inne detektory treści AI nie są wcale lepsze. Nie tylko generują fałszywe alarmy, ale także oznaczają treści AI jako ludzkie. A nawet jeśli tak nie jest, wystarczy wprowadzić drobne poprawki w tekście generowanym przez sztuczną inteligencję, aby zaliczyć latające kolory.

W lutym 2023 r. wykładowca Uniwersytetu Wollongong, Armin Alimardani i profesor nadzwyczajny na UNSW Sydney Emma A. Jane, przetestował szereg popularnych detektorów treści AI, stwierdzając, że żaden z nich nie jest niezawodny. W swojej analizie, która została opublikowana w Rozmowa , Alimardani i Jane doszli do wniosku, że ten „wyścig zbrojeń” AI między generatorami tekstu a detektorami będzie stanowił poważne wyzwanie w przyszłości, zwłaszcza dla nauczycieli.

jakiego języka programowania używa Unity?

Ale nie tylko pedagodzy i nauczyciele mają powody do niepokoju: każdy ma. Ponieważ tekst generowany przez sztuczną inteligencję staje się wszechobecny, będąc w stanie rozróżnić, co jest „prawdziwe”, a co nie, tj. wykrywanie, kiedy coś jest napisane przez sztuczną inteligencję , staną się trudniejsze. Będzie to miało ogromny wpływ na praktycznie wszystkie branże i obszary społeczeństwa, nawet na relacje osobiste.

Implikacje sztucznej inteligencji dla cyberbezpieczeństwa i prywatności

Fakt, że nie ma wiarygodnych mechanizmów pozwalających określić, czy coś zostało stworzone przez oprogramowanie, czy przez człowieka, ma poważne konsekwencje dla cyberbezpieczeństwa i prywatności.

Zagrożeni aktorzy już są używając ChatGPT do pisania złośliwego oprogramowania , generować e-maile phishingowe, pisać spam, tworzyć oszukańcze witryny i nie tylko. I chociaż istnieją sposoby, aby się przed tym bronić, z pewnością niepokojące jest to, że nie ma oprogramowania zdolnego do niezawodnego rozróżnienia treści organicznych i botów.

Fałszywe wiadomości już teraz stanowią ogromny problem. Mając do dyspozycji generatywną sztuczną inteligencję, agenci dezinformacji są w stanie skalować swoje działania w niespotykany dotąd sposób. Tymczasem zwykła osoba nie ma możliwości dowiedzenia się, czy coś, co czyta w Internecie, zostało stworzone przez oprogramowanie, czy przez człowieka.

Prywatność to zupełnie inna sprawa. Weźmy na przykład ChatGPT. To było nakarmił ponad 300 miliardów słów przed jego uruchomieniem. Te treści zostały zaczerpnięte z książek, postów na blogach i forach, artykułów i mediów społecznościowych. Zostały zebrane bez niczyjej zgody i z pozornie całkowitym lekceważeniem ochrony prywatności i praw autorskich.

Jest też kwestia fałszywych alarmów. Jeśli treść zostanie błędnie oznaczona jako wygenerowana przez sztuczną inteligencję, czy nie może to doprowadzić do cenzury, która i tak jest ogromnym problemem? Nie wspominając już o szkodach, jakie oskarżenie o używanie tekstu stworzonego przez sztuczną inteligencję może wyrządzić reputacji, zarówno w Internecie, jak iw prawdziwym życiu.

Sklep Google Play na rozpaleniu

Jeśli rzeczywiście istnieje wyścig zbrojeń między generatywną sztuczną inteligencją a wykrywaczami treści, wygrywa ta pierwsza. Co gorsza, wydaje się, że nie ma rozwiązania. Wszyscy mamy nasze niedopracowane produkty, które nie działają nawet przez połowę czasu lub można je bardzo łatwo oszukać.

Jak wykryć zawartość AI: potencjalne rozwiązania

To, że obecnie wydaje się, że nie mamy prawdziwych odpowiedzi na ten problem, nie oznacza, że ​​nie będziemy ich mieć w przyszłości. W rzeczywistości istnieje już kilka poważnych propozycji, które mogą zadziałać. Znak wodny to jedno.

Jeśli chodzi o sztuczną inteligencję i głębokie modele językowe, znak wodny odnosi się do osadzania pewnego rodzaju tajnego kodu w tekście generowanym przez sztuczną inteligencję (np. wzór słów, styl interpunkcji). Taki znak wodny byłby niewidoczny gołym okiem, a więc prawie niemożliwy do usunięcia, ale specjalistyczne oprogramowanie byłoby w stanie go wykryć.

W rzeczywistości w 2022 r. Uniwersytet Marylandu Naukowcy opracowali nową metodę znakowania wodnego dla sztucznych sieci neuronowych. Główny badacz Tom Goldstein powiedział wówczas, że jego zespołowi udało się „udowodnić matematycznie”, że ich znaku wodnego nie można całkowicie usunąć.

Na razie zwykły człowiek może polegać na swoim instynkcie i zdrowym rozsądku. Jeśli coś jest nie tak z treścią, którą czytasz – jeśli wydaje się nienaturalna, powtarzalna, pozbawiona wyobraźni, banalna – mogło to zostać stworzone przez oprogramowanie. Oczywiście powinieneś również weryfikować wszelkie informacje, które widzisz online, dokładnie sprawdzać źródło i trzymać się z dala od podejrzanych stron internetowych.

Trwa rewolucja AI

Niektórzy twierdzą, że piąta rewolucja przemysłowa już się rozpoczęła, ponieważ sztuczna inteligencja zajmuje centralne miejsce w tym, co określa się mianem konwergencji cyfrowej i fizycznej. Niezależnie od tego, czy tak jest naprawdę, czy nie, wszystko, co możemy zrobić, to dostosować się.

Dobrą wiadomością jest to, że branża cyberbezpieczeństwa dostosowuje się do tej nowej rzeczywistości i wdraża nowe strategie obronne z AI i uczeniem maszynowym na czele.