3 zagrożenia i obawy związane z prywatnością Chatbota, o których powinieneś wiedzieć

3 zagrożenia i obawy związane z prywatnością Chatbota, o których powinieneś wiedzieć
Czytelnicy tacy jak Ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.   Kłódka z rozrzuconymi klawiszami klawiatury

Chatboty istnieją już od lat, ale pojawienie się dużych modeli językowych, takich jak ChatGPT i Google Bard, dało branży chatbotów nowe życie.





Miliony ludzi na całym świecie korzystają obecnie z chatbotów AI, jednak chcąc wypróbować jedno z tych narzędzi, należy pamiętać o kilku ważnych zagrożeniach i obawach związanych z prywatnością.





1. Gromadzenie danych

Większość ludzi nie używa chatbotów tylko po to, żeby się przywitać. Nowoczesne chatboty są przeznaczone do przetwarzania i odpowiadania na złożone pytania i prośby, a użytkownicy często zawierają wiele informacji w swoich monitach. Nawet jeśli zadajesz tylko proste pytanie, tak naprawdę nie chcesz, aby wykraczało ono poza rozmowę.





Według Sekcja wsparcia OpenAI , możesz w dowolnym momencie usunąć dzienniki czatów ChatGPT, a po 30 dniach te dzienniki zostaną trwale usunięte z systemów OpenAI. Jednakże firma zachowa i przejrzy niektóre dzienniki czatów, jeśli zostały one oznaczone jako zawierające szkodliwe lub nieodpowiednie treści.

Inny popularny chatbot AI, Claude, również śledzi Twoje poprzednie rozmowy. Centrum wsparcia Anthropic stwierdza, że ​​Claude śledzi „Twoje podpowiedzi i wyniki w produkcie, aby zapewnić Ci spójne korzystanie z produktu na przestrzeni czasu, zgodnie z Twoimi kontrolami”. Możesz usunąć swoje rozmowy z Claudem, tak aby zapomniał, o czym mówiłeś, ale nie oznacza to, że Anthropic natychmiast usunie Twoje logi ze swoich systemów.



jak nagrać snapchat bez ich wiedzy

To oczywiście nasuwa pytanie: czy moje dane są przechowywane, czy nie? Czy ChatGPT lub inne chatboty korzystają z moich danych?

Ale na tym obawy się nie kończą.





Jak ChatGPT się uczy?

Aby dostarczyć informacje, duże modele językowe są szkolone przy użyciu ogromnych ilości danych. Według Nauka Fokus Sam ChatGPT-4 otrzymał w okresie szkoleniowym 300 miliardów słów informacji. Nie jest to wzięte bezpośrednio z kilku encyklopedii. Twórcy chatbotów wykorzystują raczej masę informacji z Internetu do szkolenia swoich modeli. Może to obejmować dane z książek, filmów, artykułów, wpisów w Wikipedii, wpisów na blogach, komentarzy, a nawet witryn z recenzjami.

Należy pamiętać, że w zależności od polityki prywatności twórcy chatbota, niektóre z wyżej wymienionych źródeł mogą nie zostać wykorzystane w szkoleniach.





Wielu krytykowało ChatGPT, twierdząc, że jest to koszmar pod względem prywatności ChatGPT nie można ufać . Dlaczego tak się dzieje?

W tym miejscu sprawy stają się trochę niewyraźne. Jeśli zapytasz bezpośrednio ChatGPT-3.5, czy ma dostęp do recenzji produktów lub komentarzy do artykułów, otrzymasz zdecydowaną odpowiedź negatywną. Jak widać na zrzucie ekranu poniżej, GPT-3.5 stwierdza, że ​​podczas szkolenia nie miał dostępu do komentarzy do artykułów użytkowników ani recenzji produktów.

  zrzut ekranu rozmowy chatgpt-3.5

Przeciwnie, do września 2021 r. przeszkolono go, korzystając z „różnorodnego zakresu tekstów z Internetu, w tym stron internetowych, książek, artykułów i innych publicznie dostępnych materiałów pisanych”.

Ale czy tak samo jest w przypadku GPT-4?

Kiedy zapytaliśmy GPT-4, powiedziano nam, że „OpenAI nie korzystało z konkretnych recenzji użytkowników, danych osobowych ani komentarzy do artykułów” w okresie szkoleniowym chatbota. Ponadto GPT-4 powiedział nam, że jego odpowiedzi są generowane na podstawie „wzorców danych, na podstawie których został przeszkolony, a które obejmują głównie książki, artykuły i inny tekst z Internetu”.

Kiedy badaliśmy dalej, GPT-4 stwierdziło, że pewne treści z mediów społecznościowych mogą rzeczywiście zostać uwzględnione w jego danych szkoleniowych, ale twórcy zawsze pozostaną anonimowi. GPT-4 wyraźnie stwierdziło, że „Nawet jeśli treść z platform takich jak Reddit była częścią danych szkoleniowych, [nie] ma dostępu do konkretnych komentarzy, postów ani żadnych danych, które można powiązać z indywidualnym użytkownikiem”.

Inna zauważalna część odpowiedzi GPT-4 brzmi następująco: „OpenAI nie wymieniło wyraźnie każdego użytego źródła danych”. Oczywiście OpenAI byłoby trudno wymienić źródła zawierające 300 miliardów słów, ale pozostawia to miejsce na spekulacje.

w Artykuł Ars Technica stwierdzono, że ChatGPT rzeczywiście gromadzi „dane osobowe uzyskane bez zgody”. W tym samym artykule wspomniano o integralności kontekstowej, czyli koncepcji, która odnosi się do wykorzystywania czyichś informacji wyłącznie w kontekście, w jakim zostały pierwotnie użyte. Jeśli ChatGPT naruszy tę integralność kontekstową, dane ludzi mogą być zagrożone.

czy mogę podłączyć słuchawki bluetooth do xbox one?

Kolejną kwestią budzącą wątpliwości jest zgodność OpenAI z Ogólne rozporządzenie o ochronie danych (RODO) . Jest to rozporządzenie egzekwowane przez Unię Europejską w celu ochrony danych obywateli. Różne kraje europejskie, w tym Włochy i Polska, wszczęły dochodzenia w sprawie ChatGPT ze względu na obawy dotyczące zgodności z RODO. Przez krótki czas ChatGPT został nawet zakazany we Włoszech ze względu na obawy dotyczące prywatności.

W przeszłości OpenAI groziło wycofaniem się z UE ze względu na planowane regulacje dotyczące sztucznej inteligencji, jednak zostało to wycofane.

ChatGPT może być obecnie największym chatbotem AI, ale problemy związane z prywatnością chatbota nie zaczynają się i nie kończą na tym dostawcy. Jeśli używasz podejrzanego chatbota z kiepską polityką prywatności, Twoje rozmowy mogą zostać niewłaściwie wykorzystane lub w jego danych szkoleniowych mogą zostać wykorzystane bardzo wrażliwe informacje.

2. Kradzież danych

Jak każde narzędzie lub platforma internetowa, chatboty są podatne na cyberprzestępczość. Nawet jeśli chatbot zrobił wszystko, co mógł, aby chronić użytkowników i ich dane, zawsze istnieje szansa, że ​​sprytnemu hakerowi uda się przedostać do jego wewnętrznych systemów.

Jeśli dana usługa chatbota przechowywała Twoje wrażliwe informacje, takie jak szczegóły płatności za subskrypcję premium, dane kontaktowe itp., mogłyby one zostać skradzione i wykorzystane w przypadku cyberataku.

Jest to szczególnie prawdziwe, jeśli używasz mniej bezpiecznego chatbota, którego programiści nie zainwestowali w odpowiednią ochronę bezpieczeństwa. Zhakowanie może spowodować nie tylko wewnętrzne systemy firmy, ale także ryzyko naruszenia bezpieczeństwa Twojego konta, jeśli nie będzie ono wyposażone w alerty dotyczące logowania lub warstwę uwierzytelniania.

Teraz, gdy chatboty oparte na sztucznej inteligencji są tak popularne, cyberprzestępcy w naturalny sposób zaczęli wykorzystywać tę branżę do swoich oszustw. Fałszywe strony internetowe i wtyczki ChatGPT stanowią poważny problem, odkąd chatbot OpenAI trafił do głównego nurtu pod koniec 2022 r., a ludzie dali się nabrać na oszustwa i rozdawali dane osobowe pod pozorem legalności i zaufania.

W marcu 2023 r. MUO poinformowało o: fałszywe rozszerzenie ChatGPT dla Chrome kradnące loginy do Facebooka . Wtyczka może wykorzystywać backdoora Facebooka do włamywania się na znane konta i kradzieży plików cookie użytkowników. To tylko jeden przykład wielu fałszywych usług ChatGPT zaprojektowanych w celu oszukania nieświadomych ofiar.

3. Infekcja złośliwym oprogramowaniem

Jeśli korzystasz z podejrzanego chatbota, nie zdając sobie z tego sprawy, może się okazać, że chatbot udostępnia Ci linki do złośliwych stron internetowych. Być może chatbot zaalarmował Cię o kuszącej rozdaniu lub podał źródło jednego ze swoich stwierdzeń. Jeśli operatorzy usługi mają nielegalne intencje, celem platformy może być rozpowszechnianie złośliwego oprogramowania i oszustw za pośrednictwem złośliwych linków.

Alternatywnie hakerzy mogą złamać legalną usługę chatbota i wykorzystać ją do rozprzestrzeniania złośliwego oprogramowania. Jeśli tym chatbotem będzie wielu ludzi, tysiące, a nawet miliony użytkowników zostaną narażone na działanie tego złośliwego oprogramowania. Fałszywe aplikacje ChatGPT były nawet dostępne w Apple App Store , więc najlepiej stąpać ostrożnie.

Ogólnie rzecz biorąc, nigdy nie powinieneś klikać żadnych linków dostarczonych wcześniej przez chatbota uruchamiając go za pośrednictwem strony internetowej sprawdzającej linki . Może się to wydawać irytujące, ale zawsze najlepiej jest upewnić się, że witryna, do której jesteś kierowany, nie ma złośliwego projektu.

Ponadto nigdy nie należy instalować żadnych wtyczek i rozszerzeń chatbota bez uprzedniego sprawdzenia ich legalności. Przeszukaj aplikację, aby sprawdzić, czy została dobrze sprawdzona, a także wyszukaj twórcę aplikacji, aby sprawdzić, czy znajdziesz coś podejrzanego.

Chatboty nie są odporne na problemy związane z prywatnością

Podobnie jak większość współczesnych narzędzi internetowych, chatboty były wielokrotnie krytykowane za możliwe pułapki związane z bezpieczeństwem i prywatnością. Niezależnie od tego, czy jest to dostawca chatbota, który idzie na skróty, jeśli chodzi o bezpieczeństwo użytkowników, czy też ciągłe ryzyko cyberataków i oszustw, ważne jest, aby wiedzieć, co zbiera na Twój temat usługa chatbota i czy stosuje odpowiednie środki bezpieczeństwa.