AI

AI od czego się to zaczęło i na czym może się skończyć

Przy dzisiejszym wzroście zainteresowania sztuczną inteligencją (AI) może się wydawać, że jest to niedawna innowacja.

Sztuczna inteligencja ewoluuje od ponad 70 lat. Aby zrozumieć współczesną generację narzędzi AI i ich przyszłą trajektorię, konieczne jest zbadanie ich historycznego rozwoju.

Każda generacja narzędzi AI opierała się na poprzedniej, stale ulepszając, choć żadna nie osiągnęła jeszcze świadomości. W 1950 roku Alan Turing, pionierski matematyk i informatyk, postawił pytanie „Czy maszyny mogą myśleć?” w swoim przełomowym artykule. Wprowadził grę imitacyjną, znaną obecnie jako test Turinga, która ocenia inteligencję maszyny na podstawie tego, czy potrafi ona naśladować ludzkie reakcje w ślepej rozmowie.

Termin „sztuczna inteligencja” został po raz pierwszy użyty w 1955 roku w propozycji Letniego Projektu Badawczego Sztucznej Inteligencji w Dartmouth, oznaczając formalne powstanie tej dziedziny.

Z tych początków w latach 60. wyłoniła się gałąź sztucznej inteligencji znana jako systemy eksperckie. Systemy eksperckie zostały zaprojektowane w celu zamknięcia ludzkiej wiedzy specjalistycznej w wyspecjalizowanych dziedzinach przy użyciu jawnych reprezentacji wiedzy, koncepcji znanej jako symboliczna sztuczna inteligencja. Systemy te osiągnęły znaczące wczesne sukcesy, takie jak identyfikacja cząsteczek organicznych, diagnozowanie infekcji krwi i poszukiwanie minerałów. Jednym z wyróżniających się przykładów był system R1, który podobno zaoszczędził Digital Equipment Corporation 25 milionów dolarów rocznie dzięki optymalizacji konfiguracji minikomputerów w 1982 roku.

Podstawową zaletą systemów eksperckich było to, że eksperci merytoryczni mogli budować i utrzymywać bazę wiedzy systemu bez konieczności posiadania umiejętności programowania. Silnik wnioskowania, komponent oprogramowania, stosował tę wiedzę do rozwiązywania nowych problemów w danej dziedzinie, dostarczając wyjaśnień poprzez możliwą do prześledzenia ścieżkę dowodową. Systemy cieszyły się dużą popularnością w latach 80. i nadal mają wartość w sztucznej inteligencji.

Podczas gdy systemy eksperckie modelowały ludzką wiedzę, inna dziedzina zwana koneksjonizmem miała na celu bardziej bezpośrednie naśladowanie struktury ludzkiego mózgu. Ludzki mózg składa się z około 100 miliardów neuronów połączonych strukturami dendrytycznymi. W 1943 roku badacze Warren McCulloch i Walter Pitts stworzyli matematyczny model neuronów, w którym każdy neuron generował binarne wyjście w oparciu o swoje dane wejściowe.

W 1960 roku Bernard Widrow i Ted Hoff opracowali jedną z najwcześniejszych komputerowych implementacji połączonych neuronów. Wczesne modele były jednak ograniczone do czasu wprowadzenia w 1986 roku algorytmu uczenia się dla modelu oprogramowania zwanego perceptronem wielowarstwowym (MLP).

MLP składa się z trzech lub czterech warstw symulowanych neuronów, z których każda jest w pełni połączona z następną. Algorytm uczenia dla MLP był przełomowy, umożliwiając modelowi uczenie się na podstawie danych treningowych i uogólnianie w celu klasyfikowania nowych, niewidocznych danych. Odbywało się to poprzez dostosowanie wag numerycznych między neuronami w celu optymalizacji dokładności klasyfikacji w oparciu o dane treningowe przed zastosowaniem ich do nowych przykładów.

Wszechstronność MLP pozwoliła mu na obsługę szerokiej gamy praktycznych zastosowań, pod warunkiem, że dane zostały odpowiednio sformatowane. Na przykład, może rozpoznawać odręczne znaki, jeśli obrazy zostaną wstępnie przetworzone w celu podkreślenia kluczowych cech.

Po sukcesie MLP pojawiły się różne modele sieci neuronowych. W szczególności, konwolucyjna sieć neuronowa (CNN) została opracowana w 1998 roku. Podobnie jak MLP, CNN zawiera dodatkowe warstwy do identyfikacji kluczowych cech obrazu, eliminując potrzebę wstępnego przetwarzania.

Zarówno MLP, jak i CNN są modelami dyskryminacyjnymi, co oznacza, że podejmują decyzje poprzez klasyfikację danych wejściowych w celu zapewnienia interpretacji, diagnoz, prognoz lub zaleceń. Równolegle opracowywano generatywne sieci neuronowe, zdolne do tworzenia nowych danych wyjściowych po przeszkoleniu na obszernych przykładach.

Modele generatywne mogą tworzyć tekst, obrazy, muzykę, a nawet pomagać w odkryciach naukowych. Dwa znaczące typy modeli generatywnych to sieci generatywno-adwersaryjne (GAN) i sieci transformatorowe. Sieci GAN osiągają wysokiej jakości wyniki poprzez proces kontradyktoryjny, w którym wbudowany krytyk wymaga ulepszeń od komponentu generatywnego.

Sieci transformatorowe zyskały na znaczeniu dzięki modelom takim jak GPT-4 (Generative Pre-trained Transformer 4) i jego wersji opartej na tekście, ChatGPT. Duże modele językowe (LLM) są trenowane na ogromnych zbiorach danych z Internetu, a informacje zwrotne od ludzi dodatkowo zwiększają ich wydajność poprzez uczenie ze wzmocnieniem. Ich ekspansywne zestawy treningowe pozwalają im objąć szeroki zakres tematów, w przeciwieństwie do ich wyspecjalizowanych poprzedników.

Możliwości LLM wzbudziły obawy, że sztuczna inteligencja może zdominować świat. Obawy te są jednak bezpodstawne. Pomimo mocy obecnych modeli, nadal koncentrujemy się na zwiększaniu wydajności, niezawodności i dokładności, a nie na osiąganiu świadomości.

Jak zauważył profesor Michael Wooldridge w swoim zeznaniu złożonym w 2017 r. przed Izbą Lordów brytyjskiego parlamentu, „hollywoodzkie marzenie o świadomych maszynach nie jest nieuchronne, a nawet nie widzę ścieżki, która nas tam zaprowadzi”. Ocena pozostaje aktualna do dziś. Chociaż sztuczna inteligencja ma wiele ekscytujących zastosowań, ważne jest, aby zdać sobie sprawę, że uczenie maszynowe jest tylko jednym z narzędzi w zestawie narzędzi AI.

Symboliczna sztuczna inteligencja, która pozwala na uwzględnienie znanych faktów, zrozumienia i ludzkiej perspektywy, nadal odgrywa kluczową rolę. Przykładowo, samochód bez kierowcy może zostać zaprogramowany zgodnie z zasadami ruchu drogowego, zamiast uczyć się ich od podstaw, a system diagnostyki medycznej może zostać zweryfikowany w oparciu o istniejącą wiedzę medyczną. Przyszłość sztucznej inteligencji będzie wiązać się z połączeniem różnych technik, w tym tych opracowanych wiele lat temu.

Wieloaspektowe podejście zapewnia solidną i niezawodną ewolucję sztucznej inteligencji, ulepszając jej zastosowania przy jednoczesnym zachowaniu jasnego zrozumienia jej możliwości i ograniczeń.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 30.04.2025.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się