LinkedIn zawiesił wykorzystywanie danych użytkowników w Wielkiej Brytanii do szkolenia swoich modeli sztucznej inteligencji (AI) po tym, jak organ regulacyjny zgłosił obawy.

Użytkownicy serwisu społecznościowego Microsoftu, nastawionego na karierę, po cichu wyrazili zgodę na wykorzystanie swoich danych do trenowania modeli sztucznej inteligencji.

Jednak Biuro Komisarza ds. Informacji (ICO) poinformowało w piątek, że jest „zadowolone” z potwierdzenia przez LinkedIn, że wstrzymało wykorzystywanie danych użytkowników z Wielkiej Brytanii.

LinkedIn wyraził zadowolenie z możliwości dalszej współpracy z ICO.

„Cieszymy się, że LinkedIn wziął pod uwagę nasze obawy dotyczące podejścia do szkolenia generatywnych modeli sztucznej inteligencji przy użyciu informacji dotyczących użytkowników w Wielkiej Brytanii” — powiedział dyrektor wykonawczy ICO, Stephen Almond.

Wiele dużych firm technologicznych, w tym LinkedIn, traktuje treści tworzone przez użytkowników na swoich platformach jako nowe źródło danych do szkolenia narzędzi AI.

Narzędzia „generatywnej” sztucznej inteligencji, takie jak chatboty (np. ChatGPT firmy OpenAI) lub generatory obrazów (np. Midjourney), uczą się na podstawie ogromnych ilości danych tekstowych i graficznych.

Jednak rzecznik LinkedIn powiedział BBC News, że firma uważa, że ​​użytkownicy powinni mieć kontrolę nad swoimi danymi.

Dzięki temu użytkownicy w Wielkiej Brytanii mają możliwość zrezygnowania z wykorzystywania swoich danych do trenowania modeli sztucznej inteligencji.

„Zawsze stosowaliśmy jakąś formę automatyzacji w produktach LinkedIn i zawsze jasno informowaliśmy, że użytkownicy mają wybór, w jaki sposób wykorzystywane są ich dane” – dodali.

Platformy społecznościowe, na których użytkownicy publikują informacje o swoim życiu czy pracy, mogą zapewnić bogaty materiał, dzięki któremu narzędzia będą brzmiały bardziej naturalnie.

„Obecnie wiele osób szuka pomocy w napisaniu pierwszego szkicu CV… aby móc przekazać informacje rekruterom i zdobyć kolejną szansę na karierę” — powiedział rzecznik LinkedIn.

„Pod koniec dnia ludzie chcą mieć przewagę w swojej karierze, a nasze usługi gen-AI pomagają im ją zapewnić”.

Firma twierdzi, że w swojej globalnej polityce prywatności że dane użytkowników zostaną wykorzystane do pomocy w rozwijaniu usług AI i w artykule pomocy w dokumencie wskazano, że dane te będą przetwarzane również wtedy, gdy użytkownicy będą korzystać z narzędzi oferujących na przykład sugestie dotyczące pisania postów.

Zmiana ta nie będzie już dotyczyć użytkowników w Wielkiej Brytanii, a także użytkowników z Unii Europejskiej (UE), Europejskiego Obszaru Gospodarczego i Szwajcarii.

Meta i X (dawniej Twitter) to niektóre z platform, które podobnie jak LinkedIn chcą wykorzystywać treści publikowane na swoich platformach do rozwijania swoich narzędzi do generatywnej sztucznej inteligencji.

Jednakże w Wielkiej Brytanii i UE napotkały one przeszkody regulacyjne, gdyż surowe przepisy dotyczące prywatności nakładają ograniczenia na sposób i czas gromadzenia danych osobowych.

Meta wstrzymała w czerwcu plany wykorzystania publicznych postów, komentarzy i zdjęć dorosłych Brytyjczyków do szkolenia swoich narzędzi AI po krytyceI obawy podniesione przez ICO.

Firma niedawno rozpoczęto ponowne powiadamianie użytkowników w Wielkiej Brytanii Facebook i Instagram o swoich planach i wyjaśniły procedurę rezygnacji po nawiązaniu kontaktu z organem nadzorującym ochronę danych.

LinkedIn prawdopodobnie będzie musiał przejść podobną procedurę, zanim będzie mógł wznowić plany trenowania swoich narzędzi na danych użytkowników z Wielkiej Brytanii.

„Aby w pełni wykorzystać potencjał sztucznej inteligencji generatywnej i możliwości, jakie ona ze sobą niesie, kluczowe jest, aby społeczeństwo miało pewność, że jego prawo do prywatności będzie respektowane od samego początku” – powiedział pan Almond z ICO.

Dodał, że organ regulacyjny będzie „nadal monitorować” takich twórców aplikacji, jak Microsoft i LinkedIn, aby mieć pewność, że chronią oni prawa użytkowników w Wielkiej Brytanii do danych.



Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj