Sztuczna inteligencja jest tutaj, aby Ci pomóc, niezależnie od tego, czy piszesz e-mail, tworzysz grafikę koncepcyjną, czy też oszukujesz bezbronne osoby, wmawiając im, że jesteś przyjacielem lub krewnym w trudnej sytuacji. Sztuczna inteligencja jest niezwykle wszechstronna! Ponieważ jednak niektórzy wolą nie dać się oszukać, porozmawiajmy trochę o tym, na co należy uważać.

W ciągu ostatnich kilku lat nastąpił ogromny wzrost nie tylko w jakości generowanych mediów, od tekstu po dźwięk, obrazy i wideo, ale także w tym, jak tanio i łatwo można tworzyć te media. Ten sam rodzaj narzędzia, który pomaga artyście koncepcyjnemu wymyślać fantastyczne potwory lub statki kosmiczne lub pozwala osobom niebędącym rodzimymi użytkownikami języka angielskiego poprawić ich angielski biznesowy, może być również wykorzystywany w złośliwy sposób.

Nie spodziewaj się, że Terminator zapuka do twoich drzwi i wciśnie ci schemat Ponziego — to te same stare oszustwa, z którymi mierzymy się od lat, ale z generatywnym dodatkiem AI, który sprawia, że ​​są łatwiejsze, tańsze lub bardziej przekonujące.

To nie jest kompletna lista, tylko kilka najbardziej oczywistych sztuczek, które AI może superdoładować. Będziemy dodawać nowe sztuczki, gdy tylko się pojawią, lub wszelkie dodatkowe kroki, które możesz podjąć, aby się chronić.

Klonowanie głosu rodziny i przyjaciół

Syntetyczne głosy są dostępne od dziesięcioleci, ale dopiero w ciągu ostatniego roku lub dwóch postęp w technologii umożliwiły wygenerowanie nowego głosu z zaledwie kilku sekund dźwięku. Oznacza to, że każda osoba, której głos był kiedykolwiek transmitowany publicznie – na przykład w wiadomościach, filmie na YouTube lub w mediach społecznościowych – jest narażony na sklonowanie głosu.

Oszuści mogą i wykorzystują tę technologię do tworzenia przekonujących fałszywych wersji bliskich lub przyjaciół. Można je oczywiście zmusić do mówienia czegokolwiek, ale w przypadku oszustwa najprawdopodobniej utworzą klip głosowy z prośbą o pomoc.

Na przykład rodzic może otrzymać wiadomość głosową z nieznanego numeru, który brzmi jak jego syn, z informacją, jak skradziono mu rzeczy podczas podróży, ktoś pozwolił mu skorzystać z telefonu i czy mama lub tata mogliby przesłać pieniądze na ten adres, odbiorca Venmo , służbowe itp. Łatwo sobie wyobrazić warianty z awarią samochodu („nie zwolnią mojego samochodu, dopóki ktoś im nie zapłaci”), problemami zdrowotnymi („to leczenie nie jest objęte ubezpieczeniem”) i tak dalej.

Tego typu oszustwo miało już miejsce przy użyciu głosu prezydenta Bidena! Złapali tych, którzy za tym staliale oszuści w przyszłości będą ostrożniejsi.

Jak można walczyć z klonowaniem głosu?

Po pierwsze, nie zawracaj sobie głowy próbą wykrycia fałszywego głosu. Z każdym dniem są coraz lepsze, a problemy z jakością można ukryć na wiele sposobów. Nawet eksperci dają się nabrać!

Wszystko, co pochodzi z nieznanego numeru, adresu e-mail lub konta, powinno być automatycznie uważane za podejrzane. Jeśli ktoś mówi, że jest twoim przyjacielem lub bliską osobą, skontaktuj się z tą osobą w sposób, w jaki normalnie to robisz. Prawdopodobnie powie ci, że wszystko jest w porządku i że to (jak się domyślasz) oszustwo.

Oszuści zwykle nie podejmują dalszych działań, jeśli zostaną zignorowani – podczas gdy prawdopodobnie zrobi to członek rodziny. Możesz zostawić podejrzaną wiadomość jako przeczytaną do czasu zastanowienia.

Spersonalizowany phishing i spam za pośrednictwem poczty elektronicznej i wiadomości

Wszyscy od czasu do czasu otrzymujemy spam, ale sztuczna inteligencja generująca tekst umożliwia wysyłanie masowych wiadomości e-mail dostosowanych do każdej osoby. Ponieważ naruszenia danych zdarzają się regularnie, wiele Twoich danych osobowych jest dostępnych.

Otrzymanie jednego z nich to jedno: „Kliknij tutaj, aby zobaczyć fakturę!” oszukańcze e-maile z wyraźnie przerażającymi załącznikami, które wydają się nie wymagać dużego wysiłku. Ale nawet przy odrobinie kontekstu, nagle stają się całkiem wiarygodnewykorzystując ostatnie lokalizacje, zakupy i nawyki, aby sprawiać wrażenie prawdziwej osoby lub prawdziwego problemu. Uzbrojony w kilka osobistych faktów, model językowy może dostosować rodzaj tych wiadomości e-mail do tysięcy odbiorców w ciągu kilku sekund.

Więc to, co kiedyś brzmiało „Szanowny Kliencie, załączam fakturę”, staje się czymś w rodzaju „Cześć Doris! Jestem z zespołu promocji Etsy. Przedmiot, który ostatnio oglądałaś, jest teraz przeceniony o 50%! A wysyłka na Twój adres w Bellingham jest bezpłatna, jeśli skorzystasz z tego linku, aby odebrać zniżkę”. Prosty przykład, ale jednak. Z prawdziwym imieniem, zwyczajem zakupowym (łatwo go znaleźć), ogólną lokalizacją (to samo) i tak dalej, nagle wiadomość staje się o wiele mniej oczywista.

Ostatecznie to nadal jest po prostu spam. Ale tego rodzaju spersonalizowany spam kiedyś musiał być tworzony przez słabo opłacanych ludzi w farmach treści w obcych krajach. Teraz może być tworzony na dużą skalę przez LLM z lepszymi umiejętnościami prozy niż wielu profesjonalnych pisarzy!

Jak możesz walczyć ze spamem e-mailowym?

Podobnie jak w przypadku tradycyjnego spamu, czujność jest twoją najlepszą bronią. Ale nie spodziewaj się, że będziesz w stanie odróżnić wygenerowany tekst od tekstu napisanego przez człowieka w naturze. Jest niewielu, którzy potrafią, a na pewno nie (pomimo twierdzeń niektórych firm i usług) inny model AI.

Niezależnie od tego, jak ulepszony może być tekst, ten typ oszustwa nadal ma podstawowe wyzwanie, jakim jest skłonienie Cię do otwierania podejrzanych załączników lub linków. Jak zawsze, jeśli nie jesteś w 100% pewien autentyczności i tożsamości nadawcy, nie klikaj ani nie otwieraj niczego. Jeśli jesteś choć trochę niepewny — a to dobry zmysł do pielęgnowania — nie klikaj, a jeśli masz kogoś, kto ma wiedzę, aby przesłać to do drugiej pary oczu, zrób to.

Oszustwo polegające na podszywaniu się pod inną osobę i weryfikacji tożsamości

Ze względu na liczbę naruszeń danych w ciągu ostatnich kilku lat (Dziękuję, Equifax!), można śmiało powiedzieć, że prawie każdy z nas dysponuje znaczną ilością danych osobowych krążących po ciemnej sieci. Jeśli podążasz dobre praktyki bezpieczeństwa online, wiele zagrożeń zostało zmniejszonych, ponieważ zmieniłeś hasła, włączyłeś uwierzytelnianie wieloskładnikowe i tak dalej. Jednak generatywna sztuczna inteligencja może stanowić nowe i poważne zagrożenie w tym obszarze.

Przy tak dużej ilości danych na temat danej osoby dostępnych w Internecie, a dla wielu nawet klipu lub dwóch jej głosów, coraz łatwiej jest stworzyć osobowość AI, która brzmi jak osoba docelowa i ma dostęp do wielu faktów wykorzystywanych do weryfikacji tożsamości.

Pomyśl o tym w ten sposób. Gdybyś miał problemy z logowaniem, nie mógłbyś poprawnie skonfigurować aplikacji uwierzytelniającej lub zgubił telefon, co byś zrobił? Zadzwoniłbyś do obsługi klienta, prawdopodobnie — a oni „zweryfikowaliby” twoją tożsamość, używając kilku trywialnych faktów, takich jak data urodzenia, numer telefonu lub numer ubezpieczenia społecznego. Nawet bardziej zaawansowane metody, takie jak „zrób sobie selfie”, stają się łatwiejsze do oszukania.

Agent obsługi klienta — z tego, co wiemy, także AI! — może równie dobrze zobowiązać się do tego fałszywego ciebie i przyznać mu wszystkie przywileje, jakie byś miał, gdybyś faktycznie zadzwonił. To, co mogą zrobić z tej pozycji, jest bardzo zróżnicowane, ale żadne z nich nie jest dobre!

Podobnie jak w przypadku innych osób na tej liście, niebezpieczeństwo nie polega na tym, jak realistyczny byłby ten fałszywy ty, ale na tym, że oszuści mogą łatwo przeprowadzać tego rodzaju ataki na szeroką skalę i wielokrotnie. Jeszcze niedawno tego typu ataki podszywające się były drogie i czasochłonne, a w konsekwencji ograniczały się do celów o dużej wartości, takich jak bogaci ludzie i dyrektorzy generalni. Obecnie można zbudować przepływ pracy, który tworzy tysiące agentów podszywających się pod kogoś z minimalnym nadzorem, a ci agenci mogliby autonomicznie dzwonić pod numery obsługi klienta na wszystkie znane konta danej osoby — a nawet tworzyć nowe! Tylko garstka musi odnieść sukces, aby uzasadnić koszt ataku.

Jak możesz walczyć z oszustwami dotyczącymi tożsamości?

Podobnie jak miało to miejsce zanim sztuczna inteligencja zaczęła wspierać wysiłki oszustów, „Cyberbezpieczeństwo 101” jest najlepszym wyborem. Twoje dane już tam są; pasty do zębów nie można ponownie umieścić w tubce. Ale ty Móc upewnij się, że Twoje konta są odpowiednio chronione przed najbardziej oczywistymi atakami.

Uwierzytelnianie wieloskładnikowe jest z pewnością najważniejszym pojedynczym krokiem, jaki każdy może tutaj wykonać. Wszelka poważna aktywność na koncie jest przesyłana bezpośrednio do Twojego telefonu, a podejrzane loginy lub próby zmiany hasła pojawiają się w wiadomościach e-mail. Nie zaniedbuj tych ostrzeżeń ani nie oznaczaj ich jako spamu, nawet (zwłaszcza!), jeśli otrzymujesz dużo.

Deepfakes i szantaż generowane przez sztuczną inteligencję

Być może najbardziej przerażającą formą rodzącego się oszustwa związanego ze sztuczną inteligencją jest możliwość szantażu za pomocą obrazy typu deepfake Ciebie lub ukochanej osoby. Możesz podziękować szybko zmieniającemu się światu otwartych modeli wizerunkowych za tę futurystyczną i przerażającą perspektywę! Osoby zainteresowane pewnymi aspektami nowatorskiego generowania obrazu stworzyli przepływy pracy nie tylko do renderowania nagich ciał, ale także do dołączania ich do dowolnej twarzy, którą mogą sfotografować. Nie muszę się rozwodzić nad tym, jak to jest już wykorzystywane.

Ale jedną niezamierzoną konsekwencją jest rozszerzenie oszustwa powszechnie nazywanego „pornografią zemsty”, ale dokładniej opisanego jako niechciana dystrybucja intymnych obrazów (choć podobnie jak „deepfake”, może być trudno zastąpić oryginalny termin). Kiedy czyjeś prywatne zdjęcia zostaną ujawnione poprzez hakowanie lub mściwego byłego, mogą zostać wykorzystane jako szantaż przez osobę trzecią, która grozi ich szeroką publikacją, jeśli nie zostanie zapłacona odpowiednia suma.

Sztuczna inteligencja usprawnia to oszustwo, sprawiając, że w ogóle nie ma potrzeby tworzenia intymnych zdjęć! Do ciała wygenerowanego przez sztuczną inteligencję można dodać dowolną twarz i chociaż wyniki nie zawsze są przekonujące, prawdopodobnie wystarczy, aby zmylić Ciebie lub innych, jeśli jest pikselowana, ma niską rozdzielczość lub jest częściowo zaciemniona w inny sposób. I to wszystko, czego potrzeba, aby przestraszyć kogoś i zmusić go do zachowania tajemnicy — chociaż, podobnie jak w przypadku większości oszustw polegających na szantażu, jest mało prawdopodobne, aby pierwsza płatność była ostatnią.

Jak walczyć z deepfakes generowanymi przez sztuczną inteligencję?

Niestety, świat, w którym zmierzamy, to taki, w którym fałszywe nagie zdjęcia niemal każdego będą dostępne na żądanie. To przerażające, dziwne i obrzydliwe, ale niestety kot wyszedł z worka.

Nikt nie jest zadowolony z tej sytuacji, z wyjątkiem tych złych. Ale jest kilka rzeczy, które dotyczą nas wszystkich, potencjalnych ofiar. Może to zabrzmi chłodno, ale te zdjęcia tak naprawdę nie przedstawiają Ciebie i nie potrzeba prawdziwych nagich zdjęć, aby to udowodnić. Te modele obrazów mogą pod pewnymi względami tworzyć realistyczne ciała, ale podobnie jak inne generatywne AI wiedzą tylko to, na czym zostały przeszkolone. Zatem fałszywe obrazy nie będą na przykład pozbawione żadnych znaków rozpoznawczych i prawdopodobnie będą błędne pod innymi względami.

Choć zagrożenie to prawdopodobnie nigdy całkowicie nie zniknie, coraz więcej ofiar ma możliwość dochodzenia swoich prawktóry może prawnie zmusić hostów obrazów do usunięcia zdjęć lub zablokować oszustom dostęp do witryn, na których je publikują. W miarę narastania problemu będą rosły również prawne i prywatne sposoby walki z nim.

TechCrunch nie jest prawnikiem! Jeżeli jednak jesteś ofiarą takiego zdarzenia, powiadom policję. To nie tylko oszustwo, ale także nękanie i chociaż nie można oczekiwać od gliniarzy wykonania dogłębnej pracy detektywistycznej w Internecie potrzebnej do wyśledzenia danej osoby, takie sprawy czasami zostają rozwiązane, a oszuści boją się próśb wysyłanych do ich usługodawców internetowych lub gospodarz forum.



Source link