
Neuromorficzne komputery na wzór naszego mózgu
Neuromorficzne komputery inspirowane ludzkim mózgiem mogą sprawić, że AI będzie działać szybciej, mądrzej i zużyje mniej energii.
Sztuczna inteligencja zmienia świat szybciej, niż zdążyliśmy się przyzwyczaić do jej obecności w codziennym życiu. Jednak ten błyskawiczny rozwój ma swoją cenę i to dosłownie. Każde wygenerowane zdanie, które czytamy w chatbotach czy analizujemy w raportach AI, pochłania zaskakujące ilości energii. Szacuje się, że pojedyncza odpowiedź modelu językowego może kosztować ponad 6 000 dżuli. Dla porównania nasz mózg, wykonując znacznie bardziej złożone operacje, potrzebuje jedynie około 20 dżuli na sekundę, by podtrzymać świadomość i myślenie.
Nic więc dziwnego, że naukowcy na całym świecie coraz częściej zerkają w stronę ewolucyjnie doskonałego narzędzia, jakim jest ludzki mózg, by uczyć się, jak tworzyć bardziej efektywne i mniej energochłonne technologie. Zespół Uniwersytetu w Buffalo pod kierunkiem profesora Sambandamurthy’ego Ganapathy’ego to jeden z wielu, którzy starają się zbliżyć świat komputerów do biologicznego ideału. Ich pomysłem są neuromorficzne komputery, czyli układy scalone inspirowane tym, jak działają neurony i synapsy w naszym mózgu.
Koncepcja neuromorficznego obliczania nie jest nowa. Pojawiła się już w latach 80., ale dopiero dziś staje się realnym kierunkiem rozwoju. Rosnące potrzeby obliczeniowe AI, od autonomicznych samochodów po generatywne chatboty, powodują, że tradycyjna architektura komputerów oparta na oddzieleniu pamięci i przetwarzania staje się nieefektywna. Każdy ruch danych między procesorem, a pamięcią to energia i czas. Mózg tego nie potrzebuje tam magazynowanie informacji i ich przetwarzanie dzieją się w jednym miejscu.
Podobne podejście „in-memory computing” to fundament neuromorficznych chipów. Inspirując się działaniem biologicznych neuronów i synaps, naukowcy pracują nad sztucznymi odpowiednikami, które potrafią dynamicznie zmieniać swoje właściwości przewodzenia prądu i „zapamiętywać” wcześniejsze sygnały. W tym celu wykorzystywane są m.in. materiały zmiennofazowe, takie jak miedziowy brąz wanadowy czy tlenek niobu. Dzięki nim możliwe jest precyzyjne odwzorowanie sposobu, w jaki neurony przesyłają impulsy elektryczne, a synapsy wzmacniają się z każdym kolejnym sygnałem.
Podobne badania trwają równolegle na całym świecie. Intel od lat inwestuje w projekt Loihi, czyli własny prototyp neuromorficznego procesora, który potrafi rozpoznawać wzorce w sposób przypominający działanie ludzkiego mózgu. Z kolei IBM rozwija serię chipów TrueNorth, które z sukcesem testowano już w zadaniach takich jak rozpoznawanie obrazów czy monitorowanie ruchu.
Europejscy naukowcy także nie zostają w tyle. W 2023 roku niemiecki Instytut Fraunhofera zaprezentował nowe podejście do łączenia neuromorficznych układów z klasycznymi systemami komputerowymi. Efektem jest niższe zużycie energii i możliwość działania w czasie rzeczywistym kluczowe np. dla autonomicznych pojazdów czy dronów ratowniczych.
Nie bez powodu profesor Ganapathy zwraca uwagę na zastosowania w samochodach autonomicznych. To właśnie tam problem złożonych decyzji w nieprzewidywalnym środowisku wymaga czegoś więcej niż zero-jedynkowej logiki.
Czy komputery o architekturze wzorowanej na mózgu będą myślały jak my? Prawdopodobnie nie w sensie dosłownym jednak naukowcy podkreślają, że chodzi o funkcjonalne podobieństwo, nie o świadomość. Neuromorficzne układy mogą jednak zbliżyć maszyny do sposobu, w jaki my radzimy sobie z chaotycznymi i niepełnymi danymi.
Na razie nie ma co liczyć, że za kilka lat każdy laptop będzie miał neuromorficzny procesor. Bardziej prawdopodobne jest, że pierwsze praktyczne zastosowania pojawią się w wąskich, krytycznych dziedzinach.
Szymon Ślubowski