mózg

Mózg będzie uczył się coraz szybciej – jak zaawansowane modele obliczeniowe

W świecie nauki pojawiają się odkrycia, które mają potencjał zrewolucjonizować rozumienie rzeczywistości. Jednym z takich przełomów jest najnowsze badanie sugerujące, że ludzki mózg uczy się o otaczającym świecie w sposób zbliżony do wielu modeli obliczeniowych. To odkrycie otwiera drzwi do fascynującego połączenia dwóch, na pozór odległych, dziedzin – neurobiologii i sztucznej inteligencji.

Kiedy człowiek porusza się po świecie, mózg nieustannie interpretuje i przetwarza informacje, korzystając z głębokiego, intuicyjnego zrozumienia otaczającej nas rzeczywistości. Nie jest do końca pewne skąd bierze się ta intuicja, jak to się dzieje, że człowiek tak skutecznie przewiduje i rozumie otoczenie? Wielu naukowców zastanawia się nad tym, czy mózg nie korzysta przypadkiem z metody podobnej do „samouczenia się”, techniki, która zdobyła popularność w dziedzinie komputerowej.

Naukowcy z Centrum Neurobiologii Obliczeniowej MIT postanowili zbadać tę kwestię dokładniej. Ich eksperymenty dostarczyły fascynujących dowodów na poparcie tej teorii. Okazało się, że gdy trenuje się sieci neuronowe przy użyciu metody „samouczenia się”, ich wzory aktywności są zadziwiająco podobne do tych obserwowanych w mózgach zwierząt. Zarówno w mózgu, jak i w sieciach neuronowych, podstawowymi jednostkami przetwarzania są neurony.

W mózgu neurony są biologicznymi komórkami zdolnymi do przesyłania impulsów elektrycznych, podczas gdy w sieciach neuronowych są to matematyczne funkcje, które przetwarzają dane wejściowe. W biologicznym mózgu neurony są połączone synapsami, które przekazują sygnały między neuronami. W sieciach neuronowych istnieją wagi, które odpowiadają siłom tych połączeń i determinują, jak bardzo jeden „neuron” wpływa na inny. Zarówno mózgi zwierząt, jak i sieci neuronowe uczą się poprzez modyfikację siły swoich połączeń. W mózgu proces ten nazywa się plastycznością synaptyczną, podczas gdy w sieciach neuronowych jest to proces dostosowywania wag w odpowiedzi na dane uczące.

W przeszłości, modele komputerowe były głównie oparte na tzw. uczeniu nadzorowanym. W tym podejściu każdy obraz, który jest przetwarzany przez model, musi być wcześniej oznaczony przez człowieka. Chociaż jest to skuteczna metoda, wymaga ona ogromnych ilości danych oznaczonych ręcznie. Dlatego też naukowcy poszukiwali bardziej efektywnych metod. Jednym z takich nowych podejść jest „uczenie kontrastowe”, które pozwala modelom klasyfikować obiekty na podstawie ich wzajemnych podobieństw, bez potrzeby wcześniejszego etykietowania.

Badacze z MIT podkreśla ogromny potencjał tej metody, zwłaszcza w kontekście nowoczesnych baz danych, takich jak filmy czy zdjęcia. Zwracają również uwagę, jak ważne jest to odkrycie dla przyszłości sztucznej inteligencji.

Na zbliżającej się konferencji NeurIPS w 2023 roku, zespół z MIT planuje zaprezentować swoje badania. Jedno z nich skupia się na modelach trenowanych na filmach naturalistycznych, podczas gdy drugie bada specyficzne neurony znane jako komórki siatkowe, które odgrywają kluczową rolę w nawigacji i orientacji przestrzennej.

Te badania rzucają nowe światło na mechanizmy działania ludzkiego mózgu i wskazują na fascynujące podobieństwa między biologicznymi a komputerowymi modelami uczenia. Jak podkreślają badacze z MIT, kluczem jest zdolność tych modeli do odzwierciedlenia wewnętrznych procesów mózgu. W miarę postępów w dziedzinie AI możemy oczekiwać nie tylko technologicznych przełomów, ale także głębszego zrozumienia ludzkiego umysłu.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 31.08.2024.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się