Duże modele językowe (LLM) rozwijały się szybko w ostatnich latach i stają się integralną częścią naszego codziennego życia dzięki aplikacjom takim jak ChatGPT. Artykuł niedawno opublikowany w Natura Zachowanie człowieka wyjaśnia możliwości i zagrożenia wynikające z wykorzystania LLM dla naszej zdolności do kolektywnego rozważania, podejmowania decyzji i rozwiązywania problemów. Pod przewodnictwem badaczy z Copenhagen Business School i Max Planck Institute for Human Development w Berlinie, interdyscyplinarny zespół 28 naukowców przedstawia zalecenia dla badaczy i decydentów, aby zapewnić, że LLM będą rozwijane w sposób uzupełniający, a nie odciągający od ludzkiej zbiorowej inteligencji.
Co robisz, jeśli nie znasz terminu takiego jak „LLM”? Prawdopodobnie szybko go wyszukujesz w Google lub pytasz swój zespół. W życiu codziennym wykorzystujemy wiedzę grupową, znaną jako inteligencja zbiorowa. Łącząc indywidualne umiejętności i wiedzę, nasza inteligencja zbiorowa może osiągnąć wyniki przekraczające możliwości jakiejkolwiek jednostki, nawet ekspertów. Ta inteligencja zbiorowa napędza sukces wszelkiego rodzaju grup, od małych zespołów w miejscu pracy po ogromne społeczności internetowe, takie jak Wikipedia, a nawet społeczeństwa w ogóle.
LLM to systemy sztucznej inteligencji (AI), które analizują i generują tekst przy użyciu dużych zestawów danych i technik głębokiego uczenia. Nowy artykuł wyjaśnia, w jaki sposób LLM mogą zwiększyć inteligencję zbiorową i omawia ich potencjalny wpływ na zespoły i społeczeństwo. „Ponieważ duże modele językowe coraz bardziej kształtują krajobraz informacji i podejmowania decyzji, kluczowe jest znalezienie równowagi między wykorzystaniem ich potencjału a zabezpieczeniem przed ryzykiem. Nasz artykuł szczegółowo opisuje sposoby, w jakie ludzka inteligencja zbiorowa może zostać zwiększona dzięki LLM, a także różne szkody, które są również możliwe” — mówi Ralph Hertwig, współautor artykułu i dyrektor Instytutu Maxa Plancka ds. Rozwoju Człowieka w Berlinie.
Wśród potencjalnych korzyści zidentyfikowanych przez badaczy jest to, że LLM mogą znacznie zwiększyć dostępność w procesach zbiorowych. Przełamują bariery poprzez usługi tłumaczeniowe i pomoc w pisaniu, na przykład umożliwiając osobom z różnym pochodzeniem równy udział w dyskusjach. Ponadto LLM mogą przyspieszyć generowanie pomysłów lub wspierać procesy kształtowania opinii, na przykład poprzez wnoszenie pomocnych informacji do dyskusji, podsumowywanie różnych opinii i znajdowanie konsensusu.
Jednak korzystanie z LLM wiąże się również ze znacznym ryzykiem. Na przykład mogą one podważyć motywację ludzi do wnoszenia wkładu do zbiorowych zasobów wiedzy, takich jak Wikipedia i Stack Overflow. Jeśli użytkownicy coraz częściej polegają na zastrzeżonych modelach, otwartość i różnorodność krajobrazu wiedzy mogą być zagrożone. Innym problemem jest ryzyko fałszywego konsensusu i pluralistycznej ignorancji, gdzie istnieje błędne przekonanie, że większość akceptuje normę. „Ponieważ LLM uczą się z informacji dostępnych online, istnieje ryzyko, że poglądy mniejszości nie będą reprezentowane w odpowiedziach generowanych przez LLM. Może to stworzyć fałszywe poczucie zgody i zmarginalizować niektóre perspektywy”, wskazuje Jason Burton, główny autor badania i adiunkt w Copenhagen Business School oraz adiunkt naukowy w MPIB.
„Wartość tego artykułu polega na tym, że pokazuje, dlaczego musimy myśleć proaktywnie o tym, jak LLM zmieniają środowisko informacji online, a co za tym idzie, naszą zbiorową inteligencję — na lepsze i gorsze” — podsumowuje współautor Joshua Becker, adiunkt na University College London. Autorzy wzywają do większej przejrzystości w tworzeniu LLM, w tym ujawniania źródeł danych szkoleniowych, i sugerują, że twórcy LLM powinni podlegać zewnętrznym audytom i monitorowaniu. Pozwoliłoby to na lepsze zrozumienie, w jaki sposób LLM są faktycznie opracowywane i złagodziłoby niekorzystne zmiany.
Ponadto artykuł oferuje kompaktowe ramki informacyjne na tematy związane z LLM, w tym rolę inteligencji zbiorowej w szkoleniu LLM. Tutaj autorzy zastanawiają się nad rolą ludzi w rozwijaniu LLM, w tym nad tym, jak realizować cele, takie jak różnorodna reprezentacja. Dwa ramki informacyjne skupiające się na badaniach zarysowują, w jaki sposób LLM można wykorzystać do symulacji ludzkiej inteligencji zbiorowej i identyfikują otwarte pytania badawcze, takie jak to, jak uniknąć homogenizacji wiedzy i jak należy rozdzielić uznanie i odpowiedzialność, gdy wyniki zbiorowe są współtworzone z LLM.
Kluczowe punkty:
- Studia prawnicze (LLM) zmieniają sposób, w jaki ludzie wyszukują, wykorzystują i przekazują informacje, co może mieć wpływ na zbiorową inteligencję zespołów i całego społeczeństwa.
- Studia LLM oferują nowe możliwości w zakresie inteligencji zbiorowej, takie jak wsparcie procesów decyzyjnych i opiniotwórczych, ale wiążą się również z ryzykiem, na przykład narażeniem na szwank różnorodności krajobrazu informacyjnego.
- Jeśli modele LLM mają wspierać, a nie osłabiać inteligencję zbiorową, konieczne jest ujawnienie szczegółów technicznych modeli i wdrożenie mechanizmów monitorowania.
Instytucje uczestniczące
- Wydział Digitalizacji, Copenhagen Business School, Frederiksberg, Dania
- Centrum Racjonalności Adaptacyjnej, Instytut Maxa Plancka ds. Rozwoju Człowieka, Berlin, DE
- Centrum Ludzi i Maszyn, Instytut Rozwoju Człowieka im. Maxa Plancka, Berlin, DE
- Uniwersytet Humboldta w Berlinie, Wydział Psychologii, Berlin, DE
- Centrum Nauk Poznawczych i Decyzyjnych, Uniwersytet w Bazylei, Bazylea, CH
- Google DeepMind, Londyn, Wielka Brytania
- UCL School of Management, Londyn, Wielka Brytania
- Centrum Projektowania Inteligencji Zbiorowej, Nesta, Londyn, Wielka Brytania
- Międzynarodowe Centrum Technologii Informacyjnych Bonn-Aachen, Uniwersytet w Bonn, Bonn, DE
- Instytut Lamarr ds. uczenia maszynowego i sztucznej inteligencji, Bonn, DE
- Projekt inteligencji zbiorowej, San Francisco, Kalifornia, USA
- Centrum Polityki Technologii Informacyjnych, Uniwersytet Princeton, Princeton, NJ, USA
- Wydział Informatyki, Uniwersytet Princeton, Princeton, NJ, USA
- Wydział Socjologii, University College Dublin, Dublin, IE
- Geary Institute for Public Policy, University College Dublin, Dublin, Irlandia
- Sloan School of Management, Massachusetts Institute of Technology, Cambridge, MA, USA
- Wydział Nauk Psychologicznych, Birkbeck, Uniwersytet Londyński, Londyn, Wielka Brytania
- Klaster Doskonałości Nauki o Inteligencji, Uniwersytet Techniczny w Berlinie, Berlin, DE
- Wydział Informacji i Komunikacji, Insight SFI Research Centre for Data Analytics, University College Dublin, Dublin, Irlandia
- Oxford Internet Institute, Uniwersytet Oksfordzki, Oksford, Wielka Brytania
- Laboratorium Demokracji Deliberatywnej, Uniwersytet Stanforda, Stanford, Kalifornia, USA
- Szkoła Biznesu Tepper, Uniwersytet Carnegie Mellon, Pittsburgh, Pensylwania, USA