Duże modele językowe (LLM) rozwijały się szybko w ostatnich latach i stają się integralną częścią naszego codziennego życia dzięki aplikacjom takim jak ChatGPT. Artykuł niedawno opublikowany w Natura Zachowanie człowieka wyjaśnia możliwości i zagrożenia wynikające z wykorzystania LLM dla naszej zdolności do kolektywnego rozważania, podejmowania decyzji i rozwiązywania problemów. Pod przewodnictwem badaczy z Copenhagen Business School i Max Planck Institute for Human Development w Berlinie, interdyscyplinarny zespół 28 naukowców przedstawia zalecenia dla badaczy i decydentów, aby zapewnić, że LLM będą rozwijane w sposób uzupełniający, a nie odciągający od ludzkiej zbiorowej inteligencji.

Co robisz, jeśli nie znasz terminu takiego jak „LLM”? Prawdopodobnie szybko go wyszukujesz w Google lub pytasz swój zespół. W życiu codziennym wykorzystujemy wiedzę grupową, znaną jako inteligencja zbiorowa. Łącząc indywidualne umiejętności i wiedzę, nasza inteligencja zbiorowa może osiągnąć wyniki przekraczające możliwości jakiejkolwiek jednostki, nawet ekspertów. Ta inteligencja zbiorowa napędza sukces wszelkiego rodzaju grup, od małych zespołów w miejscu pracy po ogromne społeczności internetowe, takie jak Wikipedia, a nawet społeczeństwa w ogóle.

LLM to systemy sztucznej inteligencji (AI), które analizują i generują tekst przy użyciu dużych zestawów danych i technik głębokiego uczenia. Nowy artykuł wyjaśnia, w jaki sposób LLM mogą zwiększyć inteligencję zbiorową i omawia ich potencjalny wpływ na zespoły i społeczeństwo. „Ponieważ duże modele językowe coraz bardziej kształtują krajobraz informacji i podejmowania decyzji, kluczowe jest znalezienie równowagi między wykorzystaniem ich potencjału a zabezpieczeniem przed ryzykiem. Nasz artykuł szczegółowo opisuje sposoby, w jakie ludzka inteligencja zbiorowa może zostać zwiększona dzięki LLM, a także różne szkody, które są również możliwe” — mówi Ralph Hertwig, współautor artykułu i dyrektor Instytutu Maxa Plancka ds. Rozwoju Człowieka w Berlinie.

Wśród potencjalnych korzyści zidentyfikowanych przez badaczy jest to, że LLM mogą znacznie zwiększyć dostępność w procesach zbiorowych. Przełamują bariery poprzez usługi tłumaczeniowe i pomoc w pisaniu, na przykład umożliwiając osobom z różnym pochodzeniem równy udział w dyskusjach. Ponadto LLM mogą przyspieszyć generowanie pomysłów lub wspierać procesy kształtowania opinii, na przykład poprzez wnoszenie pomocnych informacji do dyskusji, podsumowywanie różnych opinii i znajdowanie konsensusu.

Jednak korzystanie z LLM wiąże się również ze znacznym ryzykiem. Na przykład mogą one podważyć motywację ludzi do wnoszenia wkładu do zbiorowych zasobów wiedzy, takich jak Wikipedia i Stack Overflow. Jeśli użytkownicy coraz częściej polegają na zastrzeżonych modelach, otwartość i różnorodność krajobrazu wiedzy mogą być zagrożone. Innym problemem jest ryzyko fałszywego konsensusu i pluralistycznej ignorancji, gdzie istnieje błędne przekonanie, że większość akceptuje normę. „Ponieważ LLM uczą się z informacji dostępnych online, istnieje ryzyko, że poglądy mniejszości nie będą reprezentowane w odpowiedziach generowanych przez LLM. Może to stworzyć fałszywe poczucie zgody i zmarginalizować niektóre perspektywy”, wskazuje Jason Burton, główny autor badania i adiunkt w Copenhagen Business School oraz adiunkt naukowy w MPIB.

„Wartość tego artykułu polega na tym, że pokazuje, dlaczego musimy myśleć proaktywnie o tym, jak LLM zmieniają środowisko informacji online, a co za tym idzie, naszą zbiorową inteligencję — na lepsze i gorsze” — podsumowuje współautor Joshua Becker, adiunkt na University College London. Autorzy wzywają do większej przejrzystości w tworzeniu LLM, w tym ujawniania źródeł danych szkoleniowych, i sugerują, że twórcy LLM powinni podlegać zewnętrznym audytom i monitorowaniu. Pozwoliłoby to na lepsze zrozumienie, w jaki sposób LLM są faktycznie opracowywane i złagodziłoby niekorzystne zmiany.

Ponadto artykuł oferuje kompaktowe ramki informacyjne na tematy związane z LLM, w tym rolę inteligencji zbiorowej w szkoleniu LLM. Tutaj autorzy zastanawiają się nad rolą ludzi w rozwijaniu LLM, w tym nad tym, jak realizować cele, takie jak różnorodna reprezentacja. Dwa ramki informacyjne skupiające się na badaniach zarysowują, w jaki sposób LLM można wykorzystać do symulacji ludzkiej inteligencji zbiorowej i identyfikują otwarte pytania badawcze, takie jak to, jak uniknąć homogenizacji wiedzy i jak należy rozdzielić uznanie i odpowiedzialność, gdy wyniki zbiorowe są współtworzone z LLM.

Kluczowe punkty:

  • Studia prawnicze (LLM) zmieniają sposób, w jaki ludzie wyszukują, wykorzystują i przekazują informacje, co może mieć wpływ na zbiorową inteligencję zespołów i całego społeczeństwa.
  • Studia LLM oferują nowe możliwości w zakresie inteligencji zbiorowej, takie jak wsparcie procesów decyzyjnych i opiniotwórczych, ale wiążą się również z ryzykiem, na przykład narażeniem na szwank różnorodności krajobrazu informacyjnego.
  • Jeśli modele LLM mają wspierać, a nie osłabiać inteligencję zbiorową, konieczne jest ujawnienie szczegółów technicznych modeli i wdrożenie mechanizmów monitorowania.

Instytucje uczestniczące

  • Wydział Digitalizacji, Copenhagen Business School, Frederiksberg, Dania
  • Centrum Racjonalności Adaptacyjnej, Instytut Maxa Plancka ds. Rozwoju Człowieka, Berlin, DE
  • Centrum Ludzi i Maszyn, Instytut Rozwoju Człowieka im. Maxa Plancka, Berlin, DE
  • Uniwersytet Humboldta w Berlinie, Wydział Psychologii, Berlin, DE
  • Centrum Nauk Poznawczych i Decyzyjnych, Uniwersytet w Bazylei, Bazylea, CH
  • Google DeepMind, Londyn, Wielka Brytania
  • UCL School of Management, Londyn, Wielka Brytania
  • Centrum Projektowania Inteligencji Zbiorowej, Nesta, Londyn, Wielka Brytania
  • Międzynarodowe Centrum Technologii Informacyjnych Bonn-Aachen, Uniwersytet w Bonn, Bonn, DE
  • Instytut Lamarr ds. uczenia maszynowego i sztucznej inteligencji, Bonn, DE
  • Projekt inteligencji zbiorowej, San Francisco, Kalifornia, USA
  • Centrum Polityki Technologii Informacyjnych, Uniwersytet Princeton, Princeton, NJ, USA
  • Wydział Informatyki, Uniwersytet Princeton, Princeton, NJ, USA
  • Wydział Socjologii, University College Dublin, Dublin, IE
  • Geary Institute for Public Policy, University College Dublin, Dublin, Irlandia
  • Sloan School of Management, Massachusetts Institute of Technology, Cambridge, MA, USA
  • Wydział Nauk Psychologicznych, Birkbeck, Uniwersytet Londyński, Londyn, Wielka Brytania
  • Klaster Doskonałości Nauki o Inteligencji, Uniwersytet Techniczny w Berlinie, Berlin, DE
  • Wydział Informacji i Komunikacji, Insight SFI Research Centre for Data Analytics, University College Dublin, Dublin, Irlandia
  • Oxford Internet Institute, Uniwersytet Oksfordzki, Oksford, Wielka Brytania
  • Laboratorium Demokracji Deliberatywnej, Uniwersytet Stanforda, Stanford, Kalifornia, USA
  • Szkoła Biznesu Tepper, Uniwersytet Carnegie Mellon, Pittsburgh, Pensylwania, USA



Source link

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj