Jak chronić swoją prywatność, gdy sztuczna inteligencja wie (prawie) wszystko?

hero hero

Nie sposób wyobrazić sobie wszystkich sposobów, w jakie sztuczna inteligencja (AI) zmieni nasze życie. Rozsądne jest więc zastanawianie się, czy prywatność może w ogóle istnieć w świecie, w którym superinteligencja maszyn pomaga kierować większością, jeśli nie wszystkimi, urządzeniami cyfrowymi.

Dobra wiadomość jest taka, że nie jesteśmy blisko tego punktu. Jeszcze nie.

To, co obecnie nazywamy "sztuczną inteligencją", było częścią naszego życia przez większość ostatniej dekady. Obejmuje to każdą technologię, która wykorzystuje uczenie maszynowe do przybliżania myśli i przetwarzania języka naturalnego w celu zrozumienia ludzkiej mowy lub tekstu. Modele te poznały nasze nawyki w zakresie strumieniowego przesyłania wideo, nasze "polubienia" w mediach społecznościowych, a nawet nasze twarze.

Potężne systemy rekomendacji i rozpoznawania, które napędzają wiele najpopularniejszych sieci społecznościowych, oferują podgląd tego, jak wykładniczy wzrost sztucznej inteligencji może zmienić społeczeństwo. Jednak bardziej bezpośrednie zagrożenia dla prywatności prawdopodobnie będą bardzo podobne do zagrożeń towarzyszących rozwojowi każdej usługi cyfrowej. Oznacza to, że wiemy, jakie kroki możemy podjąć, aby chronić nasze dane. Ale ponieważ sztuczna inteligencja ma potencjał, by być tak transformacyjną, musimy również wziąć pod uwagę nie tylko to, jak wchodzimy w interakcję ze sztuczną inteligencją, ale także to, jak sztuczna inteligencja wchodzi w interakcję z nami.

picture picture

Bezpośrednie zagrożenia dla danych ze strony sztucznej inteligencji

Aplikacje generujące sztuczną inteligencję, takie jak ChatGPT, Bard, Midjourney i wiele innych, oferują możliwość niezwykle szybkiego tworzenia imponującego tekstu, grafiki, muzyki i wideo. Jednak pomimo swojej niesamowitej mocy, wciąż są to tylko aplikacje. I jak większość aplikacji, musisz powierzyć im swoje prywatne dane.

W czerwcu 2023 roku ChatGPT został na krótko wyłączony z powodu wycieku danych. Naruszenie ponad 100 000 kont jest obecnie badane przez Federalną Komisję Handlu. Po tym nieco ogólnym ujawnieniu prywatnych danych nastąpiło znacznie bardziej unikalne dla generatywnej sztucznej inteligencji. W maju 2023 r. Samsung zakazał korzystania z ChatGPT na urządzeniach i sieciach firmowych po tym, jak kilku pracowników najwyraźniej przekazało poufne dane firmy do tego narzędzia.

W odpowiedzi na błyskawiczny rozwój sztucznej inteligencji, rządy na całym świecie zaczęły zastanawiać się, w jaki sposób te innowacje mogą i powinny być regulowane.

Włochy na krótko zakazały ChatGPT wiosną 2023 r., co skłoniło narzędzie do dostosowania się do wymogów regulacyjnych tego kraju. Założyciele i dyrektor generalny fundacji stojącej za ChatGPT sami wezwali do uregulowania "superinteligencji" w oświadczeniu wydanym w maju 2023 roku. Jednak raport z czerwca 2023 r. wykazał, że ten sam dyrektor generalny wezwał Unię Europejską do przyjęcia kilku poprawek do ustawy o sztucznej inteligencji, które zmniejszyłyby nadzór nad systemami sztucznej inteligencji firmy.

Czy możemy powstrzymać sztuczną inteligencję przed naruszaniem naszej prywatności?

Rozwijające się obawy o prywatność, które wynikają z tej rewolucyjnej technologii, stanowią znacznie bardziej skomplikowane wyzwanie. Duże modele językowe, takie jak ten, który zasila ChatGPT, zużywają niewyobrażalną ilość danych z Internetu i źródeł drukowanych. Nie sposób przewidzieć, co sztuczna inteligencja - zwłaszcza gdy zbliża się lub osiąga nadludzką sztuczną inteligencję ogólną - może zrobić z tymi wszystkimi informacjami, aby profilować, wpływać i potencjalnie manipulować nami.

Ogólnie rzecz biorąc, aplikacje takie jak Siri, Alexa i szeroka gama aplikacji GPS mają większy dostęp do naszego życia niż ktokolwiek, kogo znamy. Mogą wykryć, co mówimy, robimy i dokąd zmierzamy. Kto wie, w jaki sposób te informacje mogą zostać wykorzystane przez firmy, które je gromadzą lub przestępców, którzy mogą naruszyć te dane?

Zdolność sztucznej inteligencji do przechwytywania i wykorzystywania naszych informacji będzie tylko coraz bardziej inwazyjna

Aspekty sztucznej inteligencji związane z rozpoznawaniem twarzy stanowią wyzwanie dla prywatności rodem z filmów science fiction. Zdolność komputerów do rozpoznawania naszych cech fizycznych, gdziekolwiek jesteśmy, stwarza szereg problemów, od spersonalizowanych reklam podążających za nami wszędzie, po profilowanie rasowe i inne rozszerzenia istniejących uprzedzeń.

Podobnie, wykorzystanie naszych prywatnych zdjęć do deepfake'ów wzmocnionych sztuczną inteligencją - które wykorzystują istniejące zdjęcia do tworzenia realistycznych obrazów i filmów, które mogą być wykorzystywane do upokarzania lub wymuszania na nas - jest prawie niemożliwe do uniknięcia, nawet jeśli podejmiemy wszelkie możliwe środki ostrożności, aby zablokować nasze ustawienia prywatności i ograniczyć zdjęcia, które udostępniamy online.

Laura Kankaala, Threat Intelligence Lead w F-Secure, zauważa, że każdy, kto publikuje zdjęcia online, musi mieć świadomość, że mogą one zostać wykorzystane w nielegalny sposób. Nie powinno to jednak powstrzymywać nas przed korzystaniem z technologii cyfrowej do łączenia się, współpracy, a nawet randkowania - pomimo tego, jak przerażające mogą być konsekwencje zachowywania się w sieci jak normalny człowiek.

Potęga sztucznej inteligencji w zmienianiu cyfrowej rzeczywistości stała się już niezaprzeczalna. Ochrona naszej prywatności w erze sztucznej inteligencji jest jednak nadal możliwa. Utrzymanie tej ochrony w miarę postępów AI jest znacznie bardziej prawdopodobne, jeśli rozwiniemy umiejętności, które pomogą nam zabezpieczyć nasze dane i naszą tożsamość. Ochrona Internetu i Tożsamości to pakiet oprogramowania, które pozwoli Ci się odciąć od niebezpieczeństw płynących z sieci.

Jak chronić dane przed sztuczną inteligencją

Informacje, którymi dzielisz się z generatywnym narzędziem sztucznej inteligencji, zajmują dziwne miejsce między pocztą internetową a mediami społecznościowymi. Idealnie byłoby, gdyby rozmowa z chatbotem AI pozostała znacznie bardziej prywatna niż post na X (dawniej Twitter) lub post na Facebooku. Może być jednak inaczej.

Wszyscy widzieliśmy przykłady naruszeń kont e-mail i ich publikacji w Internecie. Tak więc przekazywanie chatbotowi sekretów na temat swojego życia lub firmy może być równie ryzykowne, jak dokumentowanie ich w dowolnej wiadomości online, zwłaszcza jeśli twoje konta nie są bezpieczne.

Chociaż aplikacje generujące sztuczną inteligencję są zaprojektowane tak, aby były proste w użyciu, ich polityka prywatności i ustawienia rzadko są tak proste, jak ich interfejsy. Warto poświęcić trochę czasu, aby zobaczyć zarówno, w jaki sposób firma spodziewa się wykorzystać interakcje użytkownika, jak i jakie narzędzia oferuje, aby ograniczyć sposób, w jaki informacje mogą być wykorzystywane w przyszłości.

Warto również aktywować swój sceptycyzm za każdym razem, gdy widzisz inicjały "AI", czy to w e-mailu, wiadomości SMS, czy w sklepie z aplikacjami.

"Wiemy, że ChatGPT stał się jedną z najpopularniejszych przynęt dla cyberprzestępców próbujących rozprzestrzeniać oszustwa i złe aplikacje. Mając taką szansę ci sami przestępcy chcieliby wykorzystać zaufanie, jakie pokładamy w aplikacjach związanych ze sztuczną inteligencją ". Laura Kankaala, Threat Intelligence Lead w F-Secure. "Usługi AI są jak każda inna usługa. Aby je zabezpieczyć, należy używać silnych, unikalnych haseł. A najlepszym momentem na rozpoczęcie korzystania z menedżera haseł jest czas przed naruszeniem danych. Zrób to więc teraz, jeśli jeszcze tego nie zrobiłeś".

Oprócz zaawansowanej sieci VPN, która chroni dane za pomocą szyfrowania, F-Secure Bezpieczny Internet monitoruje dane osobowe i pomaga uniknąć słabych lub ponownie używanych haseł. Rozwiązanie takie jak Bezpieczny Internet zapewnia podstawy niezbędne do zachowania prywatności w przyszłości.