Późnym piątkowym popołudniem, czyli oknem czasowym, które firmy zwykle rezerwują na niepochlebne ujawnienia, startup zajmujący się sztuczną inteligencją Hugging Face powiedział, że na początku tego tygodnia jego zespół ds. bezpieczeństwa wykrył „nieautoryzowany dostęp” do Spaces, platformy Hugging Face służącej do tworzenia, udostępniania i hostowania modeli i zasobów sztucznej inteligencji.
W post na bloguHugging Face stwierdził, że włamanie dotyczyło tajemnic Spaces lub prywatnych informacji, które służą jako klucze do odblokowania chronionych zasobów, takich jak konta, narzędzia i środowiska programistyczne, oraz że ma „podejrzenia”, że dostęp do niektórych tajemnic mógł uzyskać ktoś stronę trzecią bez upoważnienia.
Na wszelki wypadek Hugging Face unieważnił wiele tokenów w tych sekretach. (Tokeny służą do weryfikacji tożsamości). Hugging Face twierdzi, że użytkownicy, których tokeny zostały unieważnione, otrzymali już powiadomienie e-mailem i zaleca, aby wszyscy użytkownicy „odświeżyli dowolny klucz lub token” i rozważyli przejście na szczegółowe tokeny dostępu, które Hugging Roszczenia twarzą w twarz są bezpieczniejsze.
Nie było od razu jasne, ilu użytkowników lub aplikacji dotknęło potencjalne naruszenie.
„Współpracujemy z zewnętrznymi specjalistami z zakresu medycyny sądowej ds. bezpieczeństwa cybernetycznego, aby zbadać ten problem, a także dokonać przeglądu naszych zasad i procedur bezpieczeństwa. Zgłosiliśmy również ten incydent organom ścigania i organom odpowiedzialnym za ochronę danych” – napisała Hugging Face w poście. „Głęboko żałujemy zakłóceń, jakie mógł spowodować ten incydent, i rozumiemy niedogodności, jakie mógł dla Państwa oznaczać. Zobowiązujemy się wykorzystać to jako okazję do wzmocnienia bezpieczeństwa całej naszej infrastruktury”.
W oświadczeniu przesłanym e-mailem rzecznik Hugging Face powiedział TechCrunch:
„W ciągu ostatnich kilku miesięcy zaobserwowaliśmy znaczny wzrost liczby cyberataków, prawdopodobnie dlatego, że znacząco wzrosło nasze wykorzystanie, a sztuczna inteligencja staje się coraz bardziej popularna. Technicznie trudno jest określić, ile tajemnic przestrzeni zostało naruszonych.”
Prawdopodobne włamanie do Spaces ma miejsce w momencie, gdy Hugging Face, jedna z największych platform wspólnych projektów w zakresie sztucznej inteligencji i analizy danych, obejmująca ponad milion modeli, zbiorów danych i aplikacji opartych na sztucznej inteligencji, staje pod coraz większą kontrolą swoich praktyk bezpieczeństwa.
W kwietniu badacze z firmy Wiz zajmującej się bezpieczeństwem w chmurze odkryli: słaby punkt — odkąd zostało to naprawione — umożliwiałoby to atakującym wykonanie dowolnego kodu podczas kompilacji aplikacji hostowanej przez Hugging Face, co umożliwiłoby im sprawdzenie połączeń sieciowych ze swoich komputerów. Na początku roku firma ochroniarska JFrog nieosłonięty dowody na to, że kod przesłany do Hugging Face potajemnie instalował backdoory i inne rodzaje złośliwego oprogramowania na komputerach użytkowników końcowych. Startup zajmujący się bezpieczeństwem HiddenLayer odkrył, w jaki sposób pozornie bezpieczniejszy format serializacji Hugging Face, Safetensors, może być maltretowany do tworzenia sabotowanych modeli sztucznej inteligencji.
Przytulanie Twarzy niedawno powiedział że nawiąże współpracę z firmą Wiz w zakresie korzystania z firmowych narzędzi do skanowania podatności na zagrożenia i konfiguracji środowiska chmurowego „w celu poprawy bezpieczeństwa na naszej platformie i w całym ekosystemie AI/ML”.