Nadążanie za branżą tak szybko zmieniającą się jak sztuczna inteligencja to duże wyzwanie. Dopóki sztuczna inteligencja nie zrobi tego za Ciebie, oto przydatne podsumowanie najnowszych historii ze świata uczenia maszynowego wraz z godnymi uwagi badaniami i eksperymentami, których nie omówiliśmy osobno.

Nawiasem mówiąc, TechCrunch planuje wypuścić biuletyn AI 5 czerwca. Czekać na dalsze informacje. W międzyczasie zwiększamy częstotliwość naszej półregularnej kolumny poświęconej sztucznej inteligencji, która poprzednio odbywała się dwa razy w miesiącu (mniej więcej), na cotygodniową — wypatrujcie więc kolejnych wydań.

W tym tygodniu w dziedzinie sztucznej inteligencji OpenAI uruchomiło plany zniżkowe dla organizacji non-profit i klientów z branży edukacyjnej oraz odsłoniło kurtynę swoich ostatnich wysiłków mających na celu powstrzymanie złych aktorów przed nadużywaniem narzędzi sztucznej inteligencji. Nie ma tu zbyt wiele do krytykowania — przynajmniej nie w opinii tego autora. Ale ja będzie powiedzieć, że zalew ogłoszeń pojawił się w odpowiednim momencie, aby przeciwdziałać złej prasie, jaką ostatnio cieszyła się firma.

Zacznijmy od Scarlett Johansson. OpenAI usunięto jeden z głosów używany przez chatbota ChatGPT opartego na sztucznej inteligencji po tym, jak użytkownicy zwrócili uwagę, że brzmi on niesamowicie podobnie do głosu Johanssona. Johansson wydała później oświadczenie, w którym stwierdziła, że ​​zatrudniła radcę prawnego, aby zapytać o głos i uzyskać dokładne informacje na temat jego tworzenia – oraz że odmówiła wielokrotnym prośbom OpenAI o udzielenie licencji na jej głos dla ChatGPT.

Teraz, A artykuł w The Washington Post sugeruje, że OpenAI w rzeczywistości nie próbowało sklonować głosu Johanssona i że wszelkie podobieństwa były przypadkowe. Ale dlaczego w takim razie dyrektor generalny OpenAI Sam Altman skontaktował się z Johansson i nalegał, aby na dwa dni przed spektakularną demonstracją z podobnym głosem ponownie rozważyła tę kwestię? To trochę podejrzane.

Do tego dochodzi kwestia zaufania i bezpieczeństwa OpenAI.

Jak my zgłoszone wcześniej w tym miesiącuOpenAI zostało rozwiązane Zespół superwyrównaniaodpowiedzialnej za opracowywanie sposobów zarządzania i sterowania „superinteligentnymi” systemami sztucznej inteligencji obiecano 20% zasobów obliczeniowych firmy, ale zawsze (i rzadko) otrzymywano ułamek tej kwoty. To (między innymi) doprowadziło do rezygnacji dwóch współprowadzących zespoły, Jana Leike i Ilyi Sutskever, byłego głównego naukowca OpenAI.

Prawie tuzina ekspertów ds. bezpieczeństwa opuściło OpenAI W minionym roku; kilku, w tym Leike, publicznie wyraziło obawy, że firma przedkłada projekty komercyjne nad działania związane z bezpieczeństwem i przejrzystością. W odpowiedzi na krytykę OpenAI utworzył nową komisję nadzorowanie decyzji dotyczących bezpieczeństwa i ochrony związanych z projektami i działalnością firmy. Jednak w komisji zatrudniono osoby z wewnątrz firmy – w tym Altmana – a nie obserwatorów zewnętrznych. To według doniesień OpenAI rozważa rzucenie strukturę non-profit na rzecz tradycyjnego modelu nastawionego na zysk.

Takie incydenty sprawiają, że coraz trudniej zaufać OpenAI, firmie, której siła i wpływy rosną z dnia na dzień (patrz: umowy z wydawcami wiadomości). Niewiele korporacji, jeśli w ogóle, jest godnych zaufania. Jednak technologie OpenAI zakłócające rynek sprawiają, że naruszenia są jeszcze bardziej niepokojące.

Sprawie nie pomaga fakt, że sam Altman nie jest latarnią prawdy.

Kiedy pojawią się wieści o OpenAI agresywna taktyka wobec byłych pracowników spłukany — taktyka polegająca na grożeniu pracownikom utratą nabytego kapitału lub zapobieganiu sprzedaży kapitału, jeśli nie podpiszą restrykcyjnych umów o zachowaniu poufności — Altman przeprosił i stwierdził, że nie zna tych zasad. Ale, według Voxapodpis Altmana znajduje się na dokumentach założycielskich, które uchwaliły zasady.

I jeśli była członkini zarządu OpenAI Helen Toner trzeba wierzyć – jeden z byłych członków zarządu, który pod koniec zeszłego roku próbował usunąć Altmana ze stanowiska – Altman zataił informacje, fałszywie przedstawił to, co działo się w OpenAI, a w niektórych przypadkach wprost okłamał zarząd. Toner twierdzi, że zarząd dowiedział się o wydaniu ChatGPT za pośrednictwem Twittera, a nie od Altmana; że Altman podał błędne informacje na temat formalnych praktyk bezpieczeństwa OpenAI; oraz że Altman, niezadowolony z artykułu akademickiego, którego współautorem jest Toner, który rzucił krytyczne światło na OpenAI, próbował manipulować członkami zarządu, aby wypchnąć Tonera z zarządu.

Nic z tego nie wróży dobrze.

Oto kilka innych godnych uwagi historii dotyczących sztucznej inteligencji z ostatnich kilku dni:

  • Łatwe klonowanie głosu: Z nowego raportu Centrum Przeciwdziałania Nienawiści Cyfrowej wynika, że ​​usługi klonowania głosu oparte na sztucznej inteligencji sprawiają, że fałszowanie wypowiedzi polityków jest dość banalne.
  • Przegląd AI Google’a: Przeglądy AI, wyniki wyszukiwania generowane przez sztuczną inteligencję, które Google zaczęło szerzej udostępniać na początku tego miesiąca w wyszukiwarce Google, potrzebuję trochę pracy. Firma przyznaje to, ale twierdzi, że szybko wprowadza zmiany. (Zobaczymy.)
  • Paul Graham o Altmanie: W serii postów na X Paul Graham, współzałożyciel akceleratora startupów Y Combinator, odrzucił twierdzenia, że ​​Altman był zmuszony do rezygnacji z funkcji prezesa Y Combinator w 2019 r. ze względu na potencjalny konflikt interesów. (Y Combinator ma niewielki udział w OpenAI.)
  • xAI zbiera 6 miliardów dolarów: Startup Elona Muska zajmujący się sztuczną inteligencją, xAI, zebrał 6 miliardów dolarów w ramach gromadzenia kapitału, aby móc agresywnie konkurować z rywalami, w tym OpenAI, Microsoft i Alphabet.
  • Nowa funkcja sztucznej inteligencji w Perplexity: Dzięki nowej funkcji Perplexity Pages, start-up AI Perplexity ma na celu pomóc użytkownikom w tworzeniu raportów, artykułów i przewodników w bardziej atrakcyjnym wizualnie formacie, raportuje Ivan.
  • Ulubione liczby modeli AI: Devin pisze o liczbach wybieranych przez różne modele sztucznej inteligencji, gdy mają za zadanie udzielić losowej odpowiedzi. Jak się okazuje, mają faworytów – co jest odzwierciedleniem danych, na których każdy został przeszkolony.
  • Mistral wypuszcza Codestral: Mistral, francuski start-up zajmujący się sztuczną inteligencją, wspierany przez Microsoft i wyceniany na 6 miliardów dolarów, wypuścił swój pierwszy generatywny model sztucznej inteligencji do kodowania, nazwany Codestral. Nie można go jednak używać komercyjnie, ze względu na dość restrykcyjną licencję Mistrala.
  • Chatboty i prywatność: Natasha pisze o grupie zadaniowej ChatGPT działającej w Unii Europejskiej i o tym, jak oferuje ona pierwsze spojrzenie na kwestię przestrzegania zasad prywatności chatbota AI.
  • Generator dźwięku ElevenLabs: Startup zajmujący się klonowaniem głosu ElevenLabs wprowadził nowe narzędzie, ogłoszone po raz pierwszy w lutym, które pozwala użytkownikom generować efekty dźwiękowe za pomocą podpowiedzi.
  • Interkonekty dla chipów AI: Giganci technologiczni, w tym Microsoft, Google i Intel – ale nie Arm, Nvidia czy AWS – utworzyli grupę branżową, UALink Promoter Group, aby pomóc w opracowywaniu komponentów chipów AI nowej generacji.

Source link