Ostatnie postępy w informatyce i sztucznej inteligencji, a także spostrzeżenia na temat uczenia się niemowląt sugerują, że techniki uczenia maszynowego i głębokiego uczenia się mogą pomóc nam w badaniu, w jaki sposób niemowlęta przechodzą od przypadkowych ruchów eksploracyjnych do celowych działań. Większość badań skupiała się na spontanicznych ruchach dzieci, rozróżniając zachowania niespokojne i niespokojne.
Chociaż wczesne ruchy mogą wydawać się chaotyczne, ujawniają znaczące wzorce, gdy niemowlęta wchodzą w interakcję z otoczeniem. Jednak nadal brakuje nam zrozumienia, w jaki sposób niemowlęta celowo angażują się w otoczenie i zasad kierujących ich działaniami ukierunkowanymi na cel.
Prowadząc eksperyment z mobilnym dzieckiem, stosowany w badaniach rozwojowych od końca lat 60. XX wieku, badacze i współpracownicy z Florida Atlantic University zbadali, w jaki sposób niemowlęta zaczynają zachowywać się celowo. Eksperyment z komórką dziecięcą wykorzystuje kolorowy telefon delikatnie przymocowany do stopy niemowlęcia. Kiedy dziecko kopie, komórka porusza się, łącząc jego działania z tym, co widzi. Taka konfiguracja pomaga badaczom zrozumieć, w jaki sposób niemowlęta kontrolują swoje ruchy i odkryć ich zdolność do wpływania na otoczenie.
W ramach nowej pracy naukowcy sprawdzili, czy narzędzia AI mogą wychwytywać złożone zmiany we wzorcach ruchów niemowląt. Ruchy niemowląt, śledzone za pomocą systemu przechwytywania ruchu Vicon 3D, podzielono na różne typy – od spontanicznych działań po reakcje na ruch telefonu komórkowego. Stosując różne techniki sztucznej inteligencji, badacze sprawdzili, które metody najlepiej oddają niuanse zachowań niemowląt w różnych sytuacjach oraz ewolucję ruchów w czasie.
Wyniki badania opublikowane w Scientific Reports podkreślają, że sztuczna inteligencja jest cennym narzędziem do zrozumienia wczesnego rozwoju dziecka i interakcji. Zarówno metody uczenia maszynowego, jak i głębokiego uczenia się dokładnie sklasyfikowały pięciosekundowe klipy przedstawiające ruchy niemowląt w 3D jako należące do różnych etapów eksperymentu. Spośród tych metod najlepiej spisał się model głębokiego uczenia się 2D-CapsNet. Co ważne, w przypadku wszystkich testowanych metod ruchy stóp charakteryzowały się najwyższymi wskaźnikami dokładności, co oznacza, że w porównaniu z innymi częściami ciała wzorce ruchu stóp zmieniały się najbardziej radykalnie na poszczególnych etapach eksperymentu.
„To odkrycie jest znaczące, ponieważ systemom sztucznej inteligencji nie powiedziano nic o eksperymencie ani o tym, która część ciała niemowlęcia była podłączona do telefonu komórkowego. Pokazuje to, że interakcja ma największy wpływ na stopy – jako efektory końcowe – z telefonem komórkowym” – powiedział dr Scott Kelso, współautor oraz Glenwood i Martha Creech wybitni badacze nauk ścisłych w Centrum Systemów Złożonych i Nauk o Mózgu w Charles E. Schmidt College of Science przy FAU. „Innymi słowy, sposób, w jaki niemowlę łączy się z otoczeniem, ma największy wpływ w punktach kontaktu ze światem. Tutaj chodziło o „najpierw stopy”.
Model 2D-CapsNet osiągnął dokładność na poziomie 86% podczas analizy ruchów stóp i był w stanie uchwycić szczegółowe zależności pomiędzy różnymi częściami ciała podczas ruchu. We wszystkich testowanych metodach ruchy stóp konsekwentnie wykazywały najwyższy współczynnik dokładności – około 20% wyższy niż ruchy dłoni, kolan lub całego ciała.
„Odkryliśmy, że niemowlęta więcej eksplorowały po odłączeniu od telefonu komórkowego niż przed możliwością przejęcia nad nim kontroli. Wydaje się, że utrata możliwości kontrolowania telefonu komórkowego sprawiła, że były bardziej chętne do interakcji ze światem w celu znalezienia sposobu na ponowne nawiązanie kontaktu ”, powiedziała dr Aliza Sloan, współautorka i pracownik naukowy ze stopniem doktora w Centrum Systemów Złożonych i Nauk o Mózgu FAU. „Jednak niektóre niemowlęta wykazywały wzorce ruchu podczas tej fazy braku połączenia, które zawierały wskazówki dotyczące ich wcześniejszych interakcji z telefonem komórkowym. Sugeruje to, że tylko niektóre niemowlęta rozumiały swoją relację z telefonem komórkowym na tyle dobrze, aby utrzymać te wzorce ruchu, spodziewając się, że nadal będą wytwarzać odpowiedź z telefonu komórkowego nawet po rozłączeniu.”
Naukowcy twierdzą, że jeśli dokładność ruchów niemowląt pozostanie wysoka podczas odłączania, może to wskazywać, że niemowlęta nauczyły się czegoś podczas wcześniejszych interakcji. Jednak różne rodzaje ruchów mogą oznaczać różne rzeczy w kontekście tego, co odkryły niemowlęta.
„Należy pamiętać, że badanie niemowląt jest większym wyzwaniem niż badanie dorosłych, ponieważ niemowlęta nie potrafią komunikować się werbalnie” – powiedziała dr Nancy Aaron Jones, współautorka, profesor na Wydziale Psychologii FAU i dyrektor laboratorium FAU WAVES Lab oraz członek Centrum Systemów Złożonych i Nauk o Mózgu w Charles E. Schmidt College of Science. „Dorośli potrafią postępować zgodnie z instrukcjami i wyjaśniać swoje działania, podczas gdy niemowlęta nie. W tym przypadku może pomóc sztuczna inteligencja. Sztuczna inteligencja może pomóc badaczom analizować subtelne zmiany w ruchach niemowląt, a nawet w ich bezruchu, aby dać nam wgląd w to, jak myślą i uczą się, jeszcze zanim zaczną potrafią mówić. Ich ruchy mogą również pomóc nam zrozumieć ogromny stopień indywidualnej zmienności zachodzącej w miarę rozwoju niemowląt”.
Przyglądanie się, jak zmienia się dokładność klasyfikacji AI dla każdego niemowlęcia, daje badaczom nowy sposób zrozumienia, kiedy i jak zaczynają one wchodzić w interakcję ze światem.
„Podczas gdy dotychczasowe metody sztucznej inteligencji skupiały się głównie na klasyfikowaniu spontanicznych ruchów w powiązaniu z wynikami klinicznymi, połączenie eksperymentów opartych na teorii ze sztuczną inteligencją pomoże nam stworzyć lepszą ocenę zachowań niemowląt, odpowiednią dla ich konkretnych kontekstów” – stwierdziła Kelso. „Może to ulepszyć sposób, w jaki identyfikujemy ryzyko, diagnozujemy i leczymy zaburzenia”.
Współautorami badania są pierwszy autor, dr Massoud Khodadzadeh, poprzednio pracujący na Uniwersytecie Ulster w Derry w Irlandii Północnej, a obecnie na Uniwersytecie Bedfordshire w Wielkiej Brytanii; oraz dr Damien Coyle z Uniwersytetu w Bath w Wielkiej Brytanii.
Badania były wspierane przez zasoby Tier 2 High Performance Computing dostarczone przez ośrodek High-Performance Computing w Irlandii Północnej, ufundowany przez brytyjską Radę ds. Badań nad Inżynierią i Naukami Fizycznymi; brytyjskie stypendium Turing AI Fellowship ds. badań i innowacji (2021–2025) ufundowane przez Radę ds. Inżynierii i Badań Fizycznych, stypendium badawcze prorektora; Instytut Badań nad Obliczeniami Stosowanymi na Uniwersytecie w Bedfordshire; Fundacja FAU (Wybitny Uczony Naukowy); oraz Narodowy Instytut Zdrowia Stanów Zjednoczonych.