OpenAI eliminuje więcej złych aktorów, którzy go używają sztuczna inteligencja modele. Po raz pierwszy w firmie zidentyfikowano i usunięto konta rosyjskie, chińskie i izraelskie wykorzystywane w operacjach wywierania wpływu politycznego.

Według nowy raport od zespołu wykrywania zagrożeń platforma odkryła i zlikwidowała pięć kont zaangażowanych w tajne operacje wywierania wpływu, takie jak boty naładowane propagandą, narzędzia do czyszczenia mediów społecznościowych i generatory fałszywych artykułów.

„OpenAI angażuje się w egzekwowanie zasad zapobiegających nadużyciom i poprawę przejrzystości treści generowanych przez sztuczną inteligencję” – napisała firma. „Jest to szczególnie prawdziwe w odniesieniu do wykrywania i zakłócania tajnych operacji wywierania wpływu (IO), które mają na celu manipulowanie opinią publiczną lub wpływanie na wyniki polityczne bez ujawniania prawdziwej tożsamości lub intencji stojących za nimi podmiotów”.

Zamknięte konta obejmują konta stojące za operacją rosyjskiego telegramu zwaną „Bad Grammar” oraz te, które wspierały izraelską firmę STOIC. Odkryto, że STOIC wykorzystuje modele OpenAI do generuj artykuły i komentarze wychwalające obecne oblężenie wojskowe Izraelaktóre następnie zostały opublikowane na platformach Meta, X i nie tylko.

Zmienna prędkość światła

OpenAI twierdzi, że grupa tajnych aktorów korzystała z różnych narzędzi do „szeregu zadań, takich jak generowanie krótkich komentarzy i dłuższych artykułów w różnych językach, wymyślanie nazwisk i biografii do kont w mediach społecznościowych, prowadzenie badań nad open source, debugowanie prostego kodu oraz tłumaczenie i korekta tekstów.”

W lutym OpenAI ogłosiło, że tak zamknął kilka kont „zagranicznego złego aktora”. wykryto zaangażowanie w podobnie podejrzane zachowanie, w tym korzystanie z usług tłumaczenia i kodowania OpenAI w celu wzmocnienia potencjalnych cyberataków. Wysiłek ten był realizowany we współpracy z Microsoft Threat Intelligence.

W miarę jak społeczności przygotowują się do serii globalnych wyborów, wiele z nich uważnie śledzi kampanie dezinformacyjne wspomagane sztuczną inteligencją. W USA głęboko sfałszowane wideo i audio AI celebrytów, a nawet kandydaci na prezydentadoprowadziło do wezwania władz federalnych do liderów technologii zatrzymać ich rozprzestrzenianie się. Oraz raport z Centrum Przeciwdziałania Cyfrowej Nienawiści odkryli, że – pomimo zobowiązań wielu przywódców AI dotyczących uczciwości wyborczej – klonowanie głosu AI jest nadal łatwe do manipulacji przez złe podmioty.

Dowiedz się więcej o tym, jak sztuczna inteligencja może odegrać rolę w tegorocznych wyborach i jak możesz na nią zareagować.

Source link