Co musisz wiedzieć o zabezpieczeniach Apple dla dzieci

Co musisz wiedzieć o zabezpieczeniach Apple dla dzieci

Firma Apple ogłosiła niedawno nowe zabezpieczenia przed dziećmi, które pojawią się tej jesieni wraz z wprowadzeniem systemów iOS 15, iPadOS 15 i macOS Monterey.





Poniżej przyjrzymy się bliżej tym rozszerzonym funkcjom bezpieczeństwa dzieci i technologii, która za nimi stoi.





Skanowanie materiałów związanych z wykorzystywaniem seksualnym dzieci

Najważniejszą zmianą jest to, że Apple zacznie używać nowej technologii do wykrywania obrazów przedstawiających obrazy przedstawiające wykorzystywanie dzieci przechowywane w Zdjęciach iCloud.





Obrazy te są znane jako materiały do ​​​​wykorzystywania seksualnego dzieci lub CSAM, a Apple zgłosi ich przypadki do National Center for Missing and Exploited Children. NCMEC jest centrum raportowania dla CSAM i współpracuje z organami ścigania.

Skanowanie CSAM firmy Apple będzie ograniczone w momencie uruchomienia do Stanów Zjednoczonych.



raspberry pi uruchom skrypt przy starcie

Apple twierdzi, że system wykorzystuje kryptografię i został zaprojektowany z myślą o prywatności. Obrazy są skanowane na urządzeniu przed przesłaniem do Zdjęć iCloud.

Według Apple nie musisz się martwić, że pracownicy Apple zobaczą Twoje rzeczywiste zdjęcia. Zamiast tego NCMEC dostarcza Apple skróty obrazów obrazów CSAM. Hash pobiera obraz i zwraca długi, niepowtarzalny ciąg liter i cyfr.





Apple pobiera te skróty i przekształca dane w nieczytelny zestaw skrótów przechowywanych bezpiecznie na urządzeniu.

Powiązane: Jak iOS 15 chroni prywatność Twojego iPhone'a lepiej niż kiedykolwiek wcześniej





Zanim obraz zostanie zsynchronizowany ze Zdjęciami iCloud, jest sprawdzany z obrazami CSAM. Dzięki specjalnej technologii kryptograficznej — przecięcie zbiorów prywatnych — system określa, czy istnieje dopasowanie, nie ujawniając wyniku.

Jeśli istnieje dopasowanie, urządzenie tworzy kryptograficzny kupon bezpieczeństwa, który koduje dopasowanie wraz z bardziej zaszyfrowanymi danymi o obrazie. Ten kupon jest przesyłany do usługi Zdjęcia iCloud wraz z obrazem.

O ile konto iCloud Photos nie przekracza określonego progu zawartości CSAM, system zapewnia, że ​​kupony bezpieczeństwa nie mogą być odczytane przez Apple. Dzieje się tak dzięki technologii kryptograficznej zwanej udostępnianiem sekretów.

Według Apple nieznany próg zapewnia dużą dokładność i zapewnia mniej niż jeden bilion szans na nieprawidłowe oznaczenie konta.

Gdy próg zostanie przekroczony, technologia pozwoli Apple zinterpretować kupony i pasujące obrazy CSAM. Apple następnie ręcznie przejrzy każdy raport, aby potwierdzić dopasowanie. Jeśli zostanie potwierdzony, Apple wyłączy konto użytkownika, a następnie wyśle ​​raport do NCMEC.

Jeśli użytkownik uzna, że ​​jego konto zostało błędnie oznaczone przez tę technologię, nastąpi proces odwoławczy o przywrócenie konta.

Jeśli masz obawy dotyczące prywatności w nowym systemie, Apple potwierdził, że żadne zdjęcia nie będą skanowane przy użyciu technologii kryptograficznej, jeśli wyłączysz Zdjęcia iCloud. Możesz to zrobić, kierując się do Ustawienia > [Twoje imię] > iCloud > Zdjęcia .

Wyłączenie iCloud Photos ma kilka wad. Wszystkie zdjęcia i filmy będą przechowywane na Twoim urządzeniu. Może to powodować problemy, jeśli masz dużo zdjęć i filmów oraz starszego iPhone'a z ograniczoną pamięcią.

Ponadto zdjęcia i filmy zarejestrowane na urządzeniu nie będą dostępne na innych urządzeniach Apple za pomocą konta iCloud.

Związane z: Jak uzyskać dostęp do zdjęć iCloud

Apple wyjaśnia więcej na temat technologii używanej do wykrywania CSAM w: biała księga PDF . Możesz także przeczytać Często zadawane pytania na temat Apple z dodatkowymi informacjami o systemie.

W FAQ Apple zauważa, że ​​system wykrywania CSAM nie może być używany do wykrywania czegokolwiek innego niż CSAM. Firma twierdzi również, że w Stanach Zjednoczonych i wielu innych krajach posiadanie zdjęć CSAM jest przestępstwem i Apple ma obowiązek poinformować władze.

Firma twierdzi również, że odrzuci wszelkie żądania rządu dotyczące dodania obrazu innego niż CSAM do listy skrótów. Wyjaśnia również, dlaczego osoby trzecie nie mogły dodać do systemu obrazów innych niż CSAM.

Ze względu na ludzką ocenę i fakt, że użyte skróty pochodzą ze znanych i istniejących obrazów CSAM, Apple twierdzi, że system został zaprojektowany tak, aby był dokładny i pozwalał uniknąć problemów z innymi obrazami lub niewinnymi użytkownikami zgłaszanymi do NCMEC.

jak zdobyć więcej ankiet z nagrodami google

Dodatkowy protokół bezpieczeństwa komunikacji w wiadomościach

Kolejną nową funkcją będą dodane protokoły bezpieczeństwa w aplikacji Wiadomości. Oferuje narzędzia, które będą ostrzegać dzieci i ich rodziców podczas wysyłania lub odbierania wiadomości ze zdjęciami o charakterze erotycznym.

Po odebraniu jednej z tych wiadomości zdjęcie zostanie zamazane, a dziecko zostanie również ostrzeżone. Widzą pomocne zasoby i są informowani, że nie obejrzą zdjęcia.

Ta funkcja będzie dostępna tylko dla kont skonfigurowanych jako rodziny w iCloud. Rodzice lub opiekunowie będą musieli wyrazić zgodę, aby włączyć funkcję bezpieczeństwa komunikacji. Mogą również wybrać opcję powiadamiania, gdy dziecko w wieku 12 lat lub młodsze wyśle ​​lub otrzyma zdjęcie o charakterze jednoznacznie seksualnym.

W przypadku dzieci w wieku od 13 do 17 lat rodzice nie są powiadamiani. Ale dziecko zostanie ostrzeżone i zapytane, czy chce zobaczyć lub udostępnić zdjęcie o charakterze erotycznym.

Powiązane: Jak iOS 15 wykorzystuje inteligencję, aby Twój iPhone był inteligentniejszy niż kiedykolwiek

Messages korzysta z systemów uczących się na urządzeniu, aby określić, czy załącznik lub obraz mają charakter jednoznacznie seksualny. Apple nie otrzyma żadnego dostępu do wiadomości ani treści obrazu.

Ta funkcja będzie działać zarówno w przypadku zwykłych wiadomości SMS, jak i iMessage i nie jest połączona z funkcją skanowania CSAM, którą opisaliśmy powyżej.

Wreszcie, Apple rozszerzy wytyczne dotyczące funkcji Siri i wyszukiwania, aby pomóc dzieciom i rodzicom zachować bezpieczeństwo w Internecie i uzyskać pomoc w niebezpiecznych sytuacjach. Apple wskazał przykład, w którym użytkownicy, którzy pytają Siri, w jaki sposób mogą zgłosić CSAM lub wykorzystywanie dzieci, otrzymają zasoby, jak złożyć zgłoszenie władzom.

Aktualizacje będą dostarczane do Siri i Search, gdy ktokolwiek wykona zapytania związane z CSAM. Interwencja wyjaśni użytkownikom, że zainteresowanie tematem jest szkodliwe i problematyczne. Pokażą również zasoby i partnerów, którzy pomogą w uzyskaniu pomocy w rozwiązaniu problemu.

Więcej zmian nadejdzie w najnowszym oprogramowaniu Apple

Opracowane we współpracy z ekspertami ds. bezpieczeństwa trzy nowe funkcje firmy Apple mają na celu zapewnienie dzieciom bezpieczeństwa w Internecie. Mimo że funkcje mogą budzić obawy w niektórych kręgach skoncentrowanych na prywatności, Apple wypowiada się na temat technologii i sposobu, w jaki zrównoważy ona obawy dotyczące prywatności z ochroną dzieci.

Udział Udział Ćwierkać E-mail 15 ukrytych funkcji w iOS 15 i iPadOS 15, o których Apple nie wspomniał na WWDC

Słyszeliście już o głównych zmianach w iOS 15, ale oto wszystkie ukryte zmiany, które Apple pominął w WWDC.

Czytaj dalej
Powiązane tematy
  • iPhone
  • Prochowiec
  • jabłko
  • Prywatność smartfona
  • Rodzicielstwo i technologia
O autorze Brent Dirks(193 opublikowane artykuły)

Urodzony i wychowany w słonecznym zachodnim Teksasie, Brent ukończył Texas Tech University z tytułem licencjata dziennikarstwa. Pisze o technologii od ponad 5 lat i cieszy się wszystkim, co Apple, akcesoriami i zabezpieczeniami.

Więcej od Brenta Dirksa

Zapisz się do naszego newslettera

Dołącz do naszego newslettera, aby otrzymywać porady techniczne, recenzje, bezpłatne e-booki i ekskluzywne oferty!

Kliknij tutaj, aby zasubskrybować