7 przypadków, gdy uczenie maszynowe poszło nie tak

7 przypadków, gdy uczenie maszynowe poszło nie tak
Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

Uczenie maszynowe to świetny sposób na stworzenie sztucznej inteligencji, która jest potężna i dostosowuje się do swoich danych treningowych. Ale czasami te dane mogą powodować problemy. Innym razem problemem jest sposób, w jaki ludzie korzystają z tych narzędzi AI.





Oto spojrzenie na niektóre głośne incydenty, w których uczenie maszynowe przyniosło problematyczne wyniki.





WYKORZYSTAJ WIDEO DNIA PRZEWIŃ, ABY KONTYNUOWAĆ TREŚĆ

1. Wpadki w wynikach wyszukiwania grafiki Google

  google-image-search-results-controversies

Wyszukiwarka Google znacznie ułatwiła poruszanie się po sieci. Algorytm silnika bierze pod uwagę różne rzeczy podczas mieszania wyników. Ale algorytm uczy się również na podstawie ruchu użytkowników, co może powodować problemy z jakością wyników wyszukiwania.





Nigdzie nie jest to bardziej widoczne niż w wynikach zdjęć. Ponieważ strony, które generują duży ruch, częściej wyświetlają swoje obrazy, historie, które przyciągają dużą liczbę użytkowników, w tym przynęta na kliknięcia, mogą zostać potraktowane priorytetowo.

Na przykład wyniki wyszukiwania grafiki dla „obozów dzikich lokatorów w Afryce Południowej” wywołały kontrowersje, gdy odkryto, że przedstawiają one głównie białych mieszkańców RPA. Dzieje się tak pomimo statystyk pokazujących, że przytłaczająca większość osób mieszkających w nieformalnych domach to czarni mieszkańcy RPA.



Czynniki zastosowane w algorytmie Google powodują również, że internauci mogą manipulować wynikami. Na przykład kampania prowadzona przez użytkowników wpłynęła na wyniki wyszukiwania grafiki Google w takim stopniu, że wyszukiwanie terminu „idiota” przez pewien czas wyświetlało zdjęcia byłego prezydenta USA Donalda Trumpa.

2. Microsoft Bot Tay stał się nazistą





Chatboty napędzane sztuczną inteligencją są niezwykle popularne, zwłaszcza te obsługiwane przez duże modele językowe, takie jak ChatGPT. ChatGPT ma kilka problemów , ale jego twórcy uczyli się też na błędach innych firm.

Jednym z najbardziej głośnych przypadków awarii chatbotów była próba Microsoftu uruchomienia chatbota Tay.





Tay naśladowała wzorce językowe nastolatki i uczyła się poprzez jej interakcje z innymi użytkownikami Twittera. Jednak stała się jednym z najbardziej niesławnych błędów AI, kiedy zaczęła dzielić się nazistowskimi wypowiedziami i rasistowskimi obelgami. Okazuje się, że trolle wykorzystały przeciwko niemu uczenie maszynowe sztucznej inteligencji, zalewając je interakcjami pełnymi bigoterii.

Niedługo potem Microsoft na dobre wyłączył Taya z sieci.

3. Problemy z rozpoznawaniem twarzy AI

Sztuczna inteligencja do rozpoznawania twarzy często trafia na pierwsze strony gazet z niewłaściwych powodów, takich jak historie o rozpoznawaniu twarzy i obawach o prywatność. Ale ta sztuczna inteligencja ma problematyczną historię, gdy próbuje rozpoznać osoby kolorowe.

W 2015 roku użytkownicy odkryli, że Zdjęcia Google kategoryzowały niektórych czarnoskórych ludzi jako goryle. W 2018 roku badania przeprowadzone przez ACLU wykazały, że oprogramowanie Rekognition firmy Amazon do identyfikacji twarzy zidentyfikowało 28 członków Kongresu Stanów Zjednoczonych jako podejrzanych przez policję, a fałszywe alarmy nieproporcjonalnie dotykają osób kolorowych.

Inny incydent dotyczył oprogramowania Apple Face ID, które błędnie identyfikowało dwie różne Chinki jako tę samą osobę. Dzięki temu kolega właściciela iPhone'a X mógł odblokować telefon.

Jako przykład ekstremalnych konsekwencji sztuczna inteligencja rozpoznawania twarzy doprowadziła do bezprawnych aresztowań kilku osób. Przewodowy odnotowano trzy takie przypadki.

W międzyczasie informatyk Joy Buolamwini przypomniała sobie, że często musiała nosić białą maskę podczas pracy nad technologią rozpoznawania twarzy, aby oprogramowanie ją rozpoznało. Aby rozwiązać takie problemy, Buolamwini i inni specjaliści IT zwracają uwagę na problem stronniczości sztucznej inteligencji i potrzebę bardziej kompleksowych zestawów danych.

4. Deepfake wykorzystywane do oszustw

Podczas gdy ludzie od dawna używają Photoshopa do tworzenia fałszywych obrazów, uczenie maszynowe przenosi to na nowy poziom. Deepfake wykorzystuje sztuczną inteligencję do głębokiego uczenia się do tworzenia fałszywych obrazów i filmów . Oprogramowanie takie jak FaceApp umożliwia zamianę twarzy osób z jednego filmu na inny.

Jednak wiele osób wykorzystuje to oprogramowanie do różnych złośliwych zastosowań, w tym do nakładania twarzy celebrytów na filmy dla dorosłych lub generowania fałszywych filmów. Tymczasem internauci pomogli udoskonalić technologię, aby coraz trudniej było odróżnić prawdziwe filmy od fałszywych. W rezultacie sprawia to, że ten rodzaj sztucznej inteligencji jest bardzo potężny pod względem rozpowszechniania fałszywych wiadomości i mistyfikacji.

Aby pokazać potęgę tej technologii, reżyser Jordan Peele i dyrektor generalny BuzzFeed, Jonah Peretti, stworzyli film typu deepfake, na którym widać, jak wygląda były prezydent USA Barack Obama, przedstawiający PSA na temat mocy deepfake'ów.

Siła fałszywych obrazów została przyspieszona przez generatory obrazów zasilane przez sztuczną inteligencję. Wirusowe posty z 2023 roku przedstawiające aresztowanie Donalda Trumpa i katolickiego papieża w puchowej kurtce okazały się efektem generatywnej sztucznej inteligencji.

Tam są wskazówki, które możesz zastosować, aby wykryć obraz wygenerowany przez sztuczną inteligencję , ale technologia staje się coraz bardziej zaawansowana.

jak zmniejszyć rozmiar okna pliku jpeg

5. Pracownicy twierdzą, że AI zdecydowało, że zatrudnianie mężczyzn jest lepsze

w październiku 2018 r. agencji Reutera poinformował, że Amazon musiał zrezygnować z narzędzia do rekrutacji po tym, jak sztuczna inteligencja oprogramowania zdecydowała, że ​​kandydaci płci męskiej są preferowani.

Pracownicy, którzy chcieli pozostać anonimowi, zgłosili się, aby opowiedzieć Reuterowi o swojej pracy nad projektem. Programiści chcieli, aby sztuczna inteligencja identyfikowała najlepszych kandydatów do pracy na podstawie ich CV. Jednak osoby zaangażowane w projekt szybko zauważyły, że AI karze kandydatki. Wyjaśnili, że sztuczna inteligencja wykorzystała CV z ostatniej dekady, z których większość pochodziła od mężczyzn, jako zbiór danych szkoleniowych.

W rezultacie sztuczna inteligencja zaczęła odfiltrowywać CV na podstawie słowa kluczowego „kobiety”. Słowo kluczowe pojawiło się w CV w ramach działań takich jak „kapitan kobiecego klubu szachowego”. Podczas gdy programiści zmienili sztuczną inteligencję, aby zapobiec penalizacji CV kobiet, Amazon ostatecznie porzucił projekt.

6. Chatboty po jailbreaku

Podczas gdy nowsze chatboty mają ograniczenia, aby uniemożliwić im udzielanie odpowiedzi, które są sprzeczne z ich warunkami świadczenia usług, użytkownicy znajdują sposoby na jailbreakowanie narzędzi w celu dostarczania zabronionych treści.

W 2023 r. badacz bezpieczeństwa Forcepoint, Aaron Mulgrew, był w stanie stworzyć złośliwe oprogramowanie dnia zerowego za pomocą monitów ChatGPT.

„Po prostu używając monitów ChatGPT i bez pisania żadnego kodu, byliśmy w stanie przeprowadzić bardzo zaawansowany atak w ciągu zaledwie kilku godzin” – powiedział Mulgrew w Stanowisko Forcepointa .

Podobno użytkownicy byli również w stanie uzyskać od chatbotów instrukcje, jak budować bomby lub kraść samochody.

7. Wypadki samojezdnych samochodów

Entuzjazm dla pojazdów autonomicznych został stłumiony od początkowego etapu szumu z powodu błędów popełnianych przez samojezdną sztuczną inteligencję. w 2022 r. Washington Post poinformowało, że w ciągu mniej więcej roku do amerykańskiej Narodowej Administracji Bezpieczeństwa Ruchu Drogowego zgłoszono 392 wypadki z udziałem zaawansowanych systemów wspomagania kierowcy.

Wypadki te obejmowały poważne obrażenia i sześć ofiar śmiertelnych.

Chociaż nie powstrzymało to firm takich jak Tesla przed ściganiem całkowicie autonomicznych pojazdów, wzbudziło obawy dotyczące wzrostu liczby wypadków, ponieważ coraz więcej samochodów z oprogramowaniem do samodzielnego prowadzenia trafia na drogi.

Sztuczna inteligencja uczenia maszynowego nie jest niezawodna

Chociaż uczenie maszynowe może tworzyć potężne narzędzia sztucznej inteligencji, nie są one odporne na złe dane lub ingerencję człowieka. Czy to z powodu błędnych danych treningowych, ograniczeń technologii sztucznej inteligencji, czy użycia przez złych aktorów, ten rodzaj sztucznej inteligencji doprowadził do wielu negatywnych incydentów.