Google jest również zawstydzony swoim przeglądem sztucznej inteligencji. Po zeszłotygodniowej lawinie komentarzy i memów naśmiewających się ze złej jakości i jawnych dezinformacji generowanych przez nową funkcję wyszukiwania opartą na sztucznej inteligencji giganta technologicznego, firma wydała w czwartek swego rodzaju przeprosiny. Google – firma, której nazwa jest synonimem przeszukiwania sieci – której marka koncentruje się na „organizowaniu informacji o świecie” i udostępnianiu ich użytkownikowi w zasięgu ręki – tak naprawdę – napisano w poście na blogu Że „na pewno pojawiły się jakieś dziwne, niedokładne lub bezużyteczne obserwacje AI”.

Zostało to powiedziane bardzo delikatnymi słowami.

akceptacja porażkiTen artykuł, napisany przez Liz Reed, wiceprezes i dyrektor ds. wyszukiwania w Google, stanowi świadectwo tego, jak chęć włączenia technologii AI do wszystkiego obecnie w ten czy inny sposób pogorszyła wyszukiwarkę Google.

W poście zatytułowanym „O zeszłym tygodniu” (wykraczającym poza PR?) Reed wyjaśnił, w jaki sposób przeglądy sztucznej inteligencji popełniają błędy. Chociaż nie „mylą” ani nie wymyślają rzeczy jak inne duże modele językowe (LLM), twierdzi, że mogą popełnić błąd z „innych powodów”, takich jak „błędna interpretacja pytań, błędna interpretacja niuansów językowych w Internecie lub nie”. mając dostęp do wielu dobrych informacji.”

Reed powiedział również, że niektóre zrzuty ekranu udostępnione w mediach społecznościowych w zeszłym tygodniu były fałszywe, a inne zawierały absurdalne pytania, takie jak „Ile kamieni powinienem zjeść?” – coś, czego nikt wcześniej nie odkrył. Ponieważ informacji na ten temat jest niewiele, sztuczna inteligencja Google skierowała użytkownika do treści satyrycznych. (W przypadku Stonesów usunięto materiał satyryczny opublikowany (Jest ona dostępna na stronie internetowej dostawcy oprogramowania geologicznego.)

Warto zauważyć, że jeśli wpiszesz w Google „ile kamieni powinienem zjeść?” Nie zdziw się, jeśli będziesz szukać i znajdziesz bezużyteczne linki lub zabawne artykuły. Ludzie reagują na pewność, z jaką sztuczna inteligencja odpowiedziała, że ​​„Geolodzy zalecają spożywanie co najmniej jednego małego kamienia dziennieJakby to była odpowiedź oparta na faktach. Może nie jest to „iluzja” z technicznego punktu widzenia, ale użytkownika końcowego to nie obchodzi. To szaleństwo.

Niepokojące jest także twierdzenie Reeda, że ​​Google „dokładnie przetestował tę funkcję przed wprowadzeniem na rynek”, w tym „zdecydowane wysiłki w zakresie współpracy z czerwonymi”.

Czy zatem nikt w Google nie ma poczucia humoru? Nikt nie pomyślał o znakach, które przyniosłyby złe skutki?

Co więcej, Google nie docenił zależności funkcji AI od danych użytkowników Reddita jako źródła wiedzy i prawdy. Chociaż ludzie regularnie dodawali „Reddit” do swoich wyszukiwań od tak dawna, że ​​Google w końcu uczynił z niego wbudowany filtr wyszukiwania, Reddit nie jest źródłem wiedzy opartej na faktach. A jednak sztuczna inteligencja będzie wskazywała posty na forum Reddit, aby odpowiedzieć na pytania, nie rozumiejąc, kiedy bezpośrednia znajomość Reddita jest pomocna, a kiedy nie – lub, co gorsza, kiedy jest to troll.

Dziś Reddit zarabia mnóstwo pieniędzy przekazując swoje dane takim firmom. GoogleOpenAI i inne firmy zostały poproszone o wyszkolenie swoich modeli, ale to nie znaczy, że użytkownicy chcą, aby sztuczna inteligencja Google decydowała, kiedy szukać odpowiedzi na Reddicie, lub sugerowała, kiedy szukać odpowiedzi. Opinia jest faktem. Nauczenie się, kiedy szukać na Reddicie, ma pewne niuanse, a sztuczna inteligencja Google jeszcze tego nie rozumie.

Jak przyznał Reed: „Fora są często doskonałym źródłem autentycznych informacji z pierwszej ręki, ale w niektórych przypadkach mogą zawierać porady, które nie są zbyt pomocne, na przykład przyklejanie sera na pizzę klejem” – powiedział, odnosząc się do jednego z najbardziej spektakularne awarie funkcji AI w zeszłym tygodniu.

Obserwacja Google AI sugeruje dodanie kleju do przyklejenia sera do pizzy i okazuje się, że źródłem jest komentarz użytkownika F*cksmith sprzed 11 lat na Reddicie 🙂 pic.twitter.com/uDPAbsAKeO

—Peter Yang (@petergyang) 23 maja 2024 r

Chociaż ostatni tydzień był katastrofą, w rezultacie Google przynajmniej idzie do przodu – a przynajmniej tak się mówi.

Firma twierdzi, że zapoznała się z przykładami przeglądów sztucznej inteligencji i zidentyfikowała wzorce, w których może działać lepiej, w tym tworzyć lepsze mechanizmy wykrywania zbędnych pytań i przekazywać informacje zwrotne użytkownikom treści generowanych przez użytkowników w celu ograniczenia tego, kto może udzielać wprowadzających w błąd porad, dodaje ograniczenia wyzwalania dla zapytań, w których przeglądy AI nie były pomocne, brak wyświetlania przeglądów AI w przypadku trudnych tematów, „gdzie ważna jest świeżość i faktyczność” oraz w zabezpieczeniach wyszukiwań zdrowotnych. Dodanie dodatkowych udoskonaleń wyzwalania.

Firmy zajmujące się sztuczną inteligencją codziennie tworzą lepsze chatboty, więc pytanie nie brzmi, czy przewyższą wyszukiwarkę Google, pomagając nam zrozumieć świat, ale czy wyszukiwarka Google kiedykolwiek przewyższy sztuczną inteligencję może w zamian rzucić im wyzwanie.

Choć błędy Google mogą wydawać się absurdalne, jest zbyt wcześnie, aby uznać, że funkcja ta nie będzie już działać — zwłaszcza biorąc pod uwagę ogromną liczbę pracowników Google zajmujących się testowaniem wersji beta, w skład których wchodzą w zasadzie wszyscy użytkownicy Search Are.

„Nie ma nic lepszego niż widok milionów ludzi korzystających z tej funkcji i dokonujących wielu nowych odkryć” – mówi Reed.

Source link